robots设置问题导致内页不受引擎蜘蛛爬行索引解决方案

优采云 发布时间: 2021-05-07 21:02

  robots设置问题导致内页不受引擎蜘蛛爬行索引解决方案

  最近,网站突然从秒变为无收录。我检查了IIS日志,发现蜘蛛爬网也是正常的,也就是说,只有索引,而不是收录,这非常令人沮丧。我从互联网上找到了有关百度收录的一些内容,总结如下:

  原因1:文章 原创度问题,标头标签的设置导致页面相似且重复,或者采集中的页面太多,因为已经存在大量相似的页面百度数据库中的信息,而不是收录,长期的本地操作会导致百度降级版权。

  解决方案:应该保持文章的原创程度(伪原创我相信朋友很熟悉),质量比数量更重要,最好每天定期更新,以便百度可以也为您爬行网站守时的好习惯。

  补充:我不同意有关定期更新的声明。它在几秒钟内就收到了网站。任何时候更新都会很快收录

  原因2:百度已将其编入索引,但尚未发布排名。百度需要为文章的收录审核时间。 Spiders成功索引了内容并将其输入数据库。在发布排名之前,需要进行第二次审核以查看是否为垃圾邮件。释放时间与网站的重量直接相关。百度定期发布收录版本更新是新电台最常见的现象。

  解决方案:我们要做的是确保定期且定量地更新和观察网站日志。只要蜘蛛正常爬行,我们都会静静地等待,并且会有惊喜。此外,请注意友谊链接的质量。

  补充:上述情况发生在非主流图片与人们交流友情链接之后。后来,负面影响的链接被删除并保持更新,内容页面的收录也已恢复

  原因3:机器人设置问题导致内部页面无法被引擎蜘蛛索引。

  解决方案:检查语法错误是否阻止了蜘蛛爬网,包括元机器人和nofollow标签的设置。

  补充:只有2B网站管理员会犯这样的错误

  原因4:网站内部链接存在问题,例如大量错误链接,网站链接不正确,蜘蛛抓取不流畅且无法抓取,并且错误的URL链接导致网站出现降级权利。

  解决方案:检查重要页面(例如主页和频道)上的链接是否错误,检查网民交互功能(如留言板,评论等)的错误链接,以避免与错误的网站相互链接。

  补充:网站请注意这一点。仅仅执行301和404可能还不够。您必须使用百度网站管理员工具来提交无效链接

  原因5:网站使用黑帽战术,而百度确定了欺骗性手段来降低整个网站的权利。

  解决方案:远离关键词的积累,大量张贴,黑手环和其他黑帽行为,网站的长期稳定性以及对弯曲大脑的了解较少,一旦百度采取行动,就不难恢复!

  补充:关于此事,您无话可说

  原因6:无法访问服务器,速度很慢,并且服务器被阻塞。当百度蜘蛛将内容编入索引时,它反复认识到网站收录大量乱码或服务器无法访问,并且网站已包括在监视列表中。

  解决方案:进行网站代码优化以提高页面读取速度,选择负责的安全空间服务提供商,完善网站程序并定期更新补丁,并定期跟踪已修改文件的踪迹。

  补充:维护好的服务器非常重要。如果您在一两天内无法打开它,则应尽快更改空间

  最后,有人建议为网站制作网站地图会更好,但我觉得sitemap.html似乎用处不大,我期待着百度站点地图的开放。

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线