谷歌 搜索引擎优化指南(推荐:怎样做好网站优化是每个站长毕经之路(组图))

优采云 发布时间: 2022-03-02 14:02

  谷歌 搜索引擎优化指南(推荐:怎样做好网站优化是每个站长毕经之路(组图))

  推荐:如何网站优化

  网站优化是每个站长的旅程。只有将网站设计成符合搜索引擎标准,才能获得更高的排名和更多的流量。 1、寻找与关键字相关的域名,最好选择一些简单易记且相关的域名。2、

  有效地使用 robots.txt

  robots.txt 文件告诉搜索引擎您的 网站 的哪些部分可以抓取。而且这个文件不仅要命名为“robots.txt”,还必须放在你的网站的根目录下。

  

  网站robots.txt 文件的路径。

  

  所有遵循此规则的搜索引擎爬虫(如通配符 * 所示)不应进入和爬取 /images/ 或任何以 /search 开头的 url。

  您可能不希望您的某些 网站 页面被抓取,因为如果它们出现在搜索结果中,它们可能对用户没有多大意义。如果您想阻止搜索引擎抓取您的网页,Google网站 管理员有一个不错的 robots.txt *敏*感*词*来帮助您创建此文件。另外,如果想让子域中的某些内容不被抓取,需要在子域的目录下创建robots.txt文件。您还可以在我们的网站管理员帮助中心获取有关 robots.txt 的更多信息。

  还有其他更方便的方法可以防止您的内容出现在搜索结果中,例如在 robots 元标记中添加“NOINDEX”,使用 htaccess 加密某些目录或使用 Google网站Administrator 工具删除一些已编入索引的内容。 Google 工程师 Matt Cutts 的帮助视频概述了各种 URL 排除原则的注意事项。

  robots.txt 实战经验

  对敏感内容使用更安全的解决方案 - 使用 robots.txt 阻止敏感或机密内容。这样做的原因是,如果您在 robots.txt 中阻止的链接出现在 Internet 上(例如来源记录),搜索引擎可能会引用这些 URL(但只是 URL,而不是标题或内容片段)。 )。还有一些流氓搜索引擎不遵循机器人排除标准并违反 robots.txt 上的说明。最后,一些好奇的用户会去你的 robots.txt 被声明为阻止的目录或子目录,猜猜你不想看到什么。因此,通过 .htaccess 加密内容或实施密码保护将是更安全的选择。当然你需要避免:

  1.允许抓取看起来像搜索结果的页面。

  2.允许抓取大量自动生成的页面,其中大部分收录相同或略有不同的内容。 “像这 100,000 个几乎像副本一样的页面被搜索引擎索引有什么意义?”

  3.允许抓取代理服务器创建的 URL。

  知识补充:Robots.txt

  robots.txt(统一小写)是一个 ASCII 编码的文本文件,存储在 网站 的根目录中。 @>中哪些内容是搜索引擎bots无法获取的,哪些是(bots)获取的。由于某些系统上的 URL 区分大小写,因此 robots.txt 文件名应统一为小写。 robots.txt 应该放在 网站 的根目录下。如果您想单独定义搜索引擎机器人在访问子目录时的行为,您可以将自定义设置合并到根目录的 robots.txt 中,或者使用 robots 元数据。

  Robots.txt 协议不是一个规范,而是一个约定,所以它不能保证 网站 的隐私。注意,Robots.txt 使用字符串比较来判断是否获取 URL,因此目录末尾有带和不带斜杠“/”的两个不同的 URL,不能使用“Disallow: *.gif”等通配符用过。

  这个协议不是一个规范,而只是一个约定。通常,搜索引擎会识别这个元数据,并且不会索引这个页面,以及这个页面的链接页面。

  分享:谷歌官方《搜索引擎优化指南》网站宣传翻译

  核心提示:当人们发现你的网站并链接到它时,指向你的网站的链接数量会逐渐增加,Google会明白你想让人们了解你网站 辛勤工作的成果。

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线