【聚米网络】改善您的页面搜索引擎优化(组图)

优采云 发布时间: 2021-07-25 06:11

  【聚米网络】改善您的页面搜索引擎优化(组图)

  提高您的页面搜索引擎优化 [] 谈论我们一遍又一遍地看到的一些常见页面陷阱是有帮助的。以下几点可以改善您的页面搜索引擎优化。 1. 抓取预算鉴于像 Google 这样的搜索引擎为每个域(和子域)分配了一定的抓取预算,我总是感到惊讶的是 网站 所有者只是试图将所有内容都推送到索引中。而且他们似乎完全不关心爬虫可以访问哪些网站。要在你的网站上评估和解决这些问题,一个很好的起点是Google网站Administrator Tools(转到:Crawl> Crawl Statistics),它可以让你初步了解网站的运行情况。成功的图表略有增加——这通常反映了 Google 将选择添加的内容,因此会更频繁地返回。相反,如果图表大幅跳跃或下降,您可能会遇到问题。有两种方法可以控制搜索引擎爬虫:使用 robots.txt 指令并在 HTML 标记中实现 robots 元标记(或将其作为 HTTPX-Robots 标头提供)。但是,这两条指令的问题在于它们无法解决您的(潜在的)抓取预算问题: Robot meta tag:实现正确的“无索引”确实会阻止网页出现在搜索结果中,但该网页仍然会被抓取-所以必须使用爬网预算。 robots.txt:屏蔽网址(或文件夹等)会阻止网站被爬取(这样爬取预算不会浪费);但是,也存在巨大的不足。

  一个是页面可能仍然(部分)显示在搜索结果中(主要是由于来自其他地方的链接),并且所有入站链接汁都会被切断。换句话说,这些链接对您的排名没有帮助。考虑到这些要点,您可以考虑将这些结合起来……但请不要!它根本不会起作用。如果使用robots.txt屏蔽网页,系统不会抓取网站,因此根本无法读取元机器人代码!注意过滤器和排序、分页和其他可能无用的页面。我们经常看到这些只是被推送到索引中,但它们绝对不会或将被排名。不要浪费谷歌的资源!经验法则:如果您想确保不浪费您的抓取预算,只有页面才是真正有用的(因此首先不要创建其他页面)。如果您有其他不想出现的人,我将使用元机器人至少利用入站链接资产。 2.Duplicate content 我假设每个人都熟悉重复内容 (DC) 问题,但事实证明并非如此。由于有大量内部(部分)DC,我总是惊讶地看到有多少站点仍然表现不佳。虽然大多数网站 现在可以处理会话 ID 和跟踪参数,但这里有一些“经典”我想提醒您:HTTP 和 HTTPs 被认为是 DC,产品可以用于多个类别(并且不要使用单个产品 URL 也会造成DC,子域(比如staging servers)可能会给你带来麻烦。换句话说,rel="canonical" meta tag(或者X-RobotsRel-CanonicalHeader)可以帮你解决这些问题,不过我觉得这是第三好的解决DC问题的选项。在我看来,这一切都取决于效率——所以解决问题的最好方法是确保你只使用一个(规范化的)URL来提供内容,而不是多个URL。就这么简单。我一般不要依赖谷歌所说的“强提示”——因为它暗示他们可能会或可能不会考虑它,但本质上它不像HTTP301重定向那样强制性

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线