robots设置问题导致内页不受引擎蜘蛛爬行索引解决方案
优采云 发布时间: 2021-05-07 21:02robots设置问题导致内页不受引擎蜘蛛爬行索引解决方案
最近,网站突然从秒变为无收录。我检查了IIS日志,发现蜘蛛爬网也是正常的,也就是说,只有索引,而不是收录,这非常令人沮丧。我从互联网上找到了有关百度收录的一些内容,总结如下:
原因1:文章 原创度问题,标头标签的设置导致页面相似且重复,或者采集中的页面太多,因为已经存在大量相似的页面百度数据库中的信息,而不是收录,长期的本地操作会导致百度降级版权。
解决方案:应该保持文章的原创程度(伪原创我相信朋友很熟悉),质量比数量更重要,最好每天定期更新,以便百度可以也为您爬行网站守时的好习惯。
补充:我不同意有关定期更新的声明。它在几秒钟内就收到了网站。任何时候更新都会很快收录
原因2:百度已将其编入索引,但尚未发布排名。百度需要为文章的收录审核时间。 Spiders成功索引了内容并将其输入数据库。在发布排名之前,需要进行第二次审核以查看是否为垃圾邮件。释放时间与网站的重量直接相关。百度定期发布收录版本更新是新电台最常见的现象。
解决方案:我们要做的是确保定期且定量地更新和观察网站日志。只要蜘蛛正常爬行,我们都会静静地等待,并且会有惊喜。此外,请注意友谊链接的质量。
补充:上述情况发生在非主流图片与人们交流友情链接之后。后来,负面影响的链接被删除并保持更新,内容页面的收录也已恢复
原因3:机器人设置问题导致内部页面无法被引擎蜘蛛索引。
解决方案:检查语法错误是否阻止了蜘蛛爬网,包括元机器人和nofollow标签的设置。
补充:只有2B网站管理员会犯这样的错误
原因4:网站内部链接存在问题,例如大量错误链接,网站链接不正确,蜘蛛抓取不流畅且无法抓取,并且错误的URL链接导致网站出现降级权利。
解决方案:检查重要页面(例如主页和频道)上的链接是否错误,检查网民交互功能(如留言板,评论等)的错误链接,以避免与错误的网站相互链接。
补充:网站请注意这一点。仅仅执行301和404可能还不够。您必须使用百度网站管理员工具来提交无效链接
原因5:网站使用黑帽战术,而百度确定了欺骗性手段来降低整个网站的权利。
解决方案:远离关键词的积累,大量张贴,黑手环和其他黑帽行为,网站的长期稳定性以及对弯曲大脑的了解较少,一旦百度采取行动,就不难恢复!
补充:关于此事,您无话可说
原因6:无法访问服务器,速度很慢,并且服务器被阻塞。当百度蜘蛛将内容编入索引时,它反复认识到网站收录大量乱码或服务器无法访问,并且网站已包括在监视列表中。
解决方案:进行网站代码优化以提高页面读取速度,选择负责的安全空间服务提供商,完善网站程序并定期更新补丁,并定期跟踪已修改文件的踪迹。
补充:维护好的服务器非常重要。如果您在一两天内无法打开它,则应尽快更改空间
最后,有人建议为网站制作网站地图会更好,但我觉得sitemap.html似乎用处不大,我期待着百度站点地图的开放。