seo搜索引擎优化指南(SOSO发薪计划鼓励用户进行搜索,SOSO首页改版吸引更多用户搜)
优采云 发布时间: 2021-08-31 17:11seo搜索引擎优化指南(SOSO发薪计划鼓励用户进行搜索,SOSO首页改版吸引更多用户搜)
SOSO 薪资计划鼓励用户进行搜索。 SOSO首页改版,吸引更多用户搜索搜索。拥有强大的用户群,更多的用户开始关注SOSO,并用它来搜索自己关心的信息,作为搜索引擎优化爱好者无疑更加注重搜索结果的排序。那么,我们应该怎么做SOSO SEO呢?原因很简单。因为用户更关注它,很可能给我们的网站带来更多更有效的流量(网站的很多SOSO关键词search流量来源已经开始增加)。以下是SOSO官方发布的通用SEO指南,适用于目前主流的谷歌和百度SEO,底部文章和SOSO的网站地图格式和提交URL删除请求。
前言
Search Engine Optimization,简称SEO(Search Engine Optimization),是指增加网站/网页在搜索引擎搜索结果中收录的数量和排名位置,从搜索引擎获取更多的免费流量。对于优质用户,根据搜索引擎的搜索特点和排名规则,合理调整优化网站设计和构建方式,使其符合搜索引擎的网站construction和网站操作行为。此外,SEO工作也有利于搜索引擎快速收录新页面,提高收录覆盖效果。
SEO 是在线营销的重要手段。通过了解搜索引擎的工作原理和用户需求,在尊重搜索引擎用户价值的前提下,对网站进行合理优化,可以获得更多的用户、流量和品牌。 SEO具有成本低、操作简单、有利于用户体验的特点。是网站自我营销时必须注意的一个环节。
搜索引擎和 SEO 基础介绍
搜索引擎及其用户价值
搜索引擎是在互联网上采集和组织数据和信息,并提供检索和查询服务的系统。搜索引擎擅长理解用户搜索需求、捕捉海量数据、信息筛选评分、快速查询。
搜索引擎根据用户的搜索查询需求,对数据和信息进行排序,输出呈现,以帮助用户方便、快捷、准确、全面地找到自己需要的信息。这是搜索引擎最重要的用户价值。
所有的SEO工作都应该以遵循搜索引擎的工作原理和用户的价值为前提。
白帽 SEO 和黑帽 SEO
白帽SEO是指通过对网站的合理优化,提升用户体验,与搜索引擎良好互动,真实体现网站品质和权威的搜索引擎优化方式。
黑帽SEO是一种搜索引擎优化方法,以搜索引擎禁止的方式影响搜索引擎的排名(作弊)。它与用户价值和搜索体验背道而驰,是一种以短期利益为主要目标的搜索引擎优化方法。搜索引擎将维护互联网网站的公平排名,为用户提供正确、合理的搜索结果。黑帽SEO的做法与此相反。
搜索引擎通过技术创新和战略优化不断识别作弊行为。任何利用搜索引擎策略漏洞,使用恶意手段获取与网页质量不一致的排名,导致搜索结果质量和用户搜索体验下降的行为,都可能被搜索引擎认定为作弊。在作弊的处理上,可以是被搜索引擎剥夺作弊权,也可以是整个网站被搜索引擎收录拒绝。
搜索引擎工作流程图
搜索引擎工作流程图
对外,它面向用户和整个互联网内容;在内部,它分为几个重要模块:抓取、索引和检索。
搜索引擎爬虫
搜索引擎爬虫(也称为蜘蛛、蜘蛛、爬行机器人)是搜索引擎采集信息和数据的工具。爬虫程序继续发现和下载 Internet 网页。这个过程是互联网网页进入搜索引擎必须经过的一个步骤。
爬虫程序擅长:分配下载资源、下载海量并发下载、阅读文本(尤其是网页文本)、根据这些准则分析站点地图和抓取页面。相反,爬虫不擅长:读取图片、flash、JS、Ajax、frames,深度连续爬行,权限控制读取页面,发现孤岛页面。
爬虫的SEO工作应根据其特点进行。
搜索引擎抓取轨迹*敏*感*词*
排序搜索结果
搜索引擎可以通过理解用户搜索词和搜索数据来获得许多可能的搜索结果。这些结果的排名取决于数百种相关策略。
相关性排名的目的是根据结果对用户的价值进行排名。整个排名过程会参考网站、页面相关性、质量、时效性、权威性等诸多因素。
SEO 工作的很大一部分与搜索引擎相关性策略有关。简单来说,SEO就是用来告诉搜索引擎:哪些页面更有价值,哪些页面与搜索词更相关,应该排在更高的位置。
网站Establish
域名注册
域名是网站重要的品牌印象。注册域名时,应选择一个简单、易记、易输入、贴近网站名称,并能体现网站内容的域名。喜欢,。
域名一旦选定,不得随意更改;如果同一个网站有多个域名,则应确定主域名,并设置其他域名重定向到主域名(301重定向)。
服务部署和网站在线
网站需要部署上线后才能被用户访问。租用/购买安全可靠、高速稳定的服务器部署网站是用户访问体验的有效保障,同时也会影响搜索引擎爬虫的爬取。 网站上线部署完成域名解析后,对用户开放开发访问,也意味着对搜索引擎爬虫开放。
让搜索引擎找到网站
新成立的网站是互联网上的孤岛,用收录搜索引擎很难找到。在网站建立之初,可以将网站推荐给搜索引擎或引导爬取收录。
1. 向搜索引擎提交网站 域名或条目。比如向SOSO提交新的网站;
2.建立外部链接,如建立友情链接,申请导航网站收录等;
3.网站可以在建立之初专注于内容列表页面,这样搜索引擎爬虫可以在不影响用户体验的情况下一次找到更多的链接。
内容建设
树型扁平网结构
分层树型扁平网状结构是一种理想的网站部署结构。每个页面都有与其父子页面相关联的链接,可以帮助用户快速定位感兴趣的频道和文本,也有利于搜索引擎理解网站结构层级,更好地抓取内容。
扁平的树状网络结构
1.明确区分网站首页、列表页/索引页/频道页、内容页按照每个页面的级别通过链接连接,不存在孤岛页面;
2.级别,每个级别分支的内容不要太多,方便搜索引擎爬虫抓取;
3. 将内容和质量相近的页面组织在同一层/目录中,便于搜索引擎聚合和挖掘;
4.越重要的内容,越应该放在高层的位置,或者高层页面有直接访问的链接;
5.在页面上建立导航链接和面包屑,方便用户和爬虫了解网站结构并在不同层次的内容之间跳转;
6.网站的新内容尽量发布在较浅的列表页面或首页,以便搜索引擎爬虫快速发现。
腾讯新闻频道,标题放在显眼位置
页面标题
页面标题是页面内容的重要指标。准确简洁的标题有助于用户快速识别页面内容。页面标题会被搜索引擎显示在搜索结果列表中,是用户通过搜索进入网站页面的重要入口。
1.Title 内容在页面代码中被“title”标签包围,会显示在搜索结果页面、浏览器标题、页面标签、任务栏等上,是用户查看的重要依据识别/区分页面;
2.标题内容是页面最好的总结,主题要明确,重点要突出,内容不要太长;
3.每个页面都要有标题内容,避免不写标题,或者无意义的标题(如“无标题文档”、“网站建中”);
4.避免在不同页面上使用相同的标题(甚至整个网站的标题都相同);
5.不要在标题内容中堆关键词,以免影响可读性和作弊;
6.“标题党”和“错题”对用户搜索体验和搜索引擎收录排名有副作用,应坚决淘汰。
网页标题写作
元信息
在Meta信息中,关键字和描述以两种方式描述页面内容:关键词和摘要摘要,搜索引擎会特别关注。
1.keywords 部分应该填写几个最能代表页面内容的关键词,单词之间用半角逗号隔开;
2.description 部分应填充一段描述页面内容的文本。搜索引擎可能会选择此文本作为结果摘要。
3.网站首页、索引页、频道入口等没有大页体的页面,尽量提供描述信息。
缺少4.keywords和描述信息不会直接影响排名权重;
5.在关键字和描述信息中塞入关键词作弊可能会被搜索引擎惩罚。
腾讯的描述信息:
腾讯的描述信息
腾讯在网页搜索结果中的摘要展示:
腾讯搜索结果展示
链接
规范的一、简洁易读的URL的制定,有利于收录和搜索引擎的排序,也有利于用户识别页面内容、记录和输入链接。
1.每个页面都应该有其唯一的普通网址:
2.网站统一使用正常url,没有出现异常url;
3.指向同一个页面的异常url,所以应该跳转到正常的url;
4.必须带参数的网址需要简化参数的数量和内容,对页面功能/显示没有影响的(如统计参数)尽量去掉。
链接结构设计的建议:
1.URL结构的设计要同时考虑用户和搜索引擎的需求,方便用户识别和记忆,方便搜索引擎抓取和展示;
2..url 应该尽可能短。较短的网址会在搜索结果页面上完整显示,便于用户阅读了解页面内容,也便于记忆和传播。搜索引擎本身不限制网址,排序与网址长度无关;
3.url 目录级别越少越好。层次过多的URL设计可能对搜索引擎的抓取形成障碍,使得收录变少或不变收录;
4.url 中的目录名和文件名应该是描述性的,不要使用无意义的名字;
5.url 尽量只使用小写字母或数字,特别注意不要使用特殊字符,例如“.”。 "," ";" 等;
6. 去除 URL 中不必要的参数和静态化。无论是动态网址还是静态网址,搜索引擎都可以正常抓取和检索,但建议尽量简化和去除网址中不必要的参数,尤其是与页面功能/显示无关的参数。
锚文本设计建议:
1. 链接应该选择文本作为链接描述,即锚文本。尽量少用图片作为链接内容。当必须使用图片时,同时使用Alt来补充文字说明。不要用flash、js代替文字链接(尤其是重要入口);
2.锚文本要简洁明了,清楚地描述页面的内容;不要在锚文本中写与页面内容无关的文字,更不要堆关键词或者“标题党”;
3. 除非必要,否则不要将 url 本身用作锚文本。
链接设计建议:
,, 子域和目录描述页面的主题或内容;
新闻页面目录标识发布日期;
避免链接设计:
1.链接url是js生成的,搜索引擎无法爬到链接指向的页面。
2.link 陷阱(蜘蛛陷阱),这种 URL 目录结构对用户和搜索引擎没有意义,搜索引擎可能不会抓取或索引此类 URL。
锚文本内容毫无意义。像“更多”和“返回”这样的文字对页面内容的描述没有贡献,不推荐使用。
首页链接都在flash里面,无法获得更多站内链接,结果页面的摘要显示相关性较差。
整个网站的页面标题都是一样的,不能反映页面的内容,用户在搜索结果和浏览器中也不容易识别。同时,搜索引擎无法通过标题了解页面内容;
页面内容和服务
1. 提供优质的网站内容和服务是网站的基础,也是影响搜索引擎对网站内容评价的重要因素和指标。
2.围绕网站主题或页面主题提供内容或数据,将页面内容写得自然优美,满足用户阅读需求。这是对用户最有价值的服务:
3. 为用户提供易于阅读的页面。页面布局合理,突出重点内容,内容之间有主次、段落,避免大量文字粗略列出;
4.在页面上放置面包屑导航。面包屑有助于用户将页面识别为位置、级别,并在不同渠道之间快速切换。搜搜音乐/搜搜问/腾讯新闻频道面包屑导航;
5.提供有特色的原创内容或服务,避免抄袭或重复发布类似或相同的内容;
6. 与主题无关或弱相关的内容,如广告、网站推广链接等,应放在页面的次要内容中,不应占用过多空间;
7.不要有拼写错误或拼写错误。
同时,页面内容构建还要照顾到搜索引擎阅读页面的“感觉”:
1.页面正文用文字书写,不要用图片,用flash代替,或者用ajax生成;
2. 网站导航和面包屑,便于搜索引擎抓取页面、获取锚文本和分析链接权重;
3.使用图片作为内容时,给图片添加alt信息,图片文件使用简单明了的名称(类似于页面的命名);
4.不要使用 iframe 来构建页面。
robots.txt 和站点地图
Robots.txt和sitemap是站长和搜索引擎交流的工具,为搜索引擎爬取、收录、排序行为提供参考。 robots.txt 和站点地图都不会对用户体验产生直接影响。
robots.txt:
1.robots.txt 文件,需要准确命名为“robots.txt”(文件名小写,扩展名为txt),放在网站域名的根目录下,并且可以正常访问;
2.可以使用robots.txt来限制搜索引擎爬虫访问某些页面、目录,或者集成网站。比如网站administrators使用的在线管理系统,或者用户隐私信息页面,都可以通过这种方式进行控制;
3.可以在robots.txt中指定站点地图地址。
用户代理:*
禁止:/admin/
禁止:/ads/
站点地图:
以上是 robots.txt 文件的示例。标识被拒绝访问搜索引擎的路径和站点地图地址。
站点地图:
在Sitemap中可以指定网址更新时间、更新频率、相对权重等信息;
重要的 URL 应该出现在站点地图中并被赋予更高的权重;
搜索引擎会参考站点地图中的信息进行抓取、索引和排序,但不会完全遵守;
其他
1.搜索引擎需要时间来响应网站内容的变化,尤其是网站内容建设SEO正在逐渐生效,改变网站几页的内容可以快速提升网站排名'S的观点是错误的;
2.搜索引擎对不符合规范或过度SEO的网站构建方式有一定的容忍度,不会因为网站直接拒绝爬取,收录,索引某个网站网站施工不当@;
3.SEO导向网站建设策略和用户体验要平衡,更要考虑用户体验,避免SEO换SEO。
网站运营推广
面向用户的网站运营推广工作可以起到吸引和积累用户、建设网站口报、增强用户粘性的作用。不过网站运营推广也可以在SEO工作中发挥作用。下面从这个维度做一个简单的介绍。
内容运营
1、原创内容构建
网站construction以内容为王,网站在内容质量、原创、综合性、权威性等方*敏*感*词*有优势,更容易赢得用户的青睐,也会赢得搜索引擎收录和排名趋势。
搜索引擎非常喜欢原创内容(尤其是新站点),主动在网站上发布或者引导用户发布原创内容。增加原创内容的比例将使搜索引擎更快收录,同时在内容权重和排名方*敏*感*词*有优势。
2、 定期内容维护
定期的内容更新时间和更新规模有助于搜索引擎合理调度爬虫进行爬取。更新速度更快更频繁的网站也很容易赢得搜索引擎爬虫的高频率。
3、广告内容运营
广告能给网站带来收入,这是网站无法回避的运营工作。从SEO的角度来看,也有一些优化点需要注意。
网站 内容和广告内容要区分主次,突出页面核心内容,有利于搜索引擎理解页面内容,不应充满广告;
广告内容应与页面内容相匹配,并与页面内容和主题相关(搜索引擎爬虫可能使用采集advertisement内容作为页面主体);请勿将广告内容伪装成页面正文或链接来诱导点击。
增加外链,积累有效锚文本
外链和锚文本是网站重要的SEO资源,负责词条、页面内容识别、权重介绍等涉及搜索引擎抓取、排序、排序的诸多信息。外链和锚文本的构建是SEO工作中非常重要的一部分。
以下是一些关于外链和锚文本构建的建议:
1.交换友情链接,申请导航站收录;
2.构建外链资源时,锚文本要合理设置,尽量不要使用url作为锚文本;
3.不止网站首页需要外链,二级列表页、话题页、频道首页、精选页等,也需要外链建设;
4.可以发布网站网站功能介绍,包括网站外链;
5.博客博文、微博、论坛帖子中出现的网站链接有利于外链和锚文本的建设。可以转发网站Introduction文章这里,但不要建太多;
6.Blog评论区、留言板、bbs签名档等非主区外链价值极低,可能被搜索引擎忽略;
7.外链和锚文本应避免过度构建,否则可能被判作弊。
用户推荐与评价
用户能够识别内容的质量。通过用户对网站内容的推荐和评价,帮助网站过滤好内容,甚至建立外链。
1. 建立用户对内容的投票机制,获取用户评论;
2.提供便捷的分享工具,可以向其他产品平台推荐内容,形成有价值的外链;
3.培养用户粘性,适当鼓励用户向朋友推荐网站内容(包括IM、博客、论坛等平台推荐)。
站点地图说明
1.Sitemap 文件采用 .xml 格式
2.Sitemap 文件必须使用 utf-8 编码
3. 可以使用 gzip (.gz) 格式压缩 Sitemap 文件
4.Sitemap 文件压缩前不能大于 2MB
5.Sitemap 文件中收录的 Url 不能超过 50000
6.Sitemap中Url的优先级值是一个相对值,代表当前站点中重要的Url程序
7.Sitemap Url的优先级为0.5的默认值
8.Sitemap 中的 URL 必须是 xml 安全的(URL 必须是 XML 安全的(使用 XMLFormat()))
站点地图示例
″
xmlns:xsi="”
xsi:schemaLocation="
"注释>
2006-11-18
每天
0.8
URL 删除协议规范
协议文件规范
1.无论是数据文件还是索引文件,都必须符合以下规范:
2. 文件为 xml 格式
3.文件必须使用utf-8编码
4.可以使用gzip(.gz)格式压缩和删除协议文件
5.压缩前文件不能大于2MB
6.文件中收录的Url不能超过50000
7. 文件中的 URL 必须是 xml 安全的(URL 必须是 XML 安全的(使用 XMLFormat()))
示例:
deleted_url.xml
1
0(1表示要删除url,0表示之前删除了url,现在复活了)
文件内容的意思是:
是要删除的页面吗
是之前删除的页面,现在已经复活了,待恢复
索引文件的标签
deleted_urlindex.xml