网站改版 内容排序(使用Robots.txt屏蔽或者使用301重定向,如何妥善处理?)
优采云 发布时间: 2021-09-17 00:02网站改版 内容排序(使用Robots.txt屏蔽或者使用301重定向,如何妥善处理?)
使用robots.txt屏蔽或301重定向;直接使用404错误页面:可以减少网站的流量损失,让用户找到站点;坚持内容的稳定更新
图7883-1:
站点升级是每个站点生命周期中不可或缺的一部分。如何处理升级过程中的问题,考验着每一位想要成功的优化人员。在站点升级的过程中,我们不可避免地会遇到死链接,尤其是一些收录大型站点。这些现有的死链接不仅会严重影响站点的权重,而且如果存在大量的死链接,爬行器将无法顺利抓取您的站点,导致收录和快照。那么,我们如何才能妥善处理修改造成的死链接呢?今天,我将简单地分享我的三个经验
1:使用robots.txt屏蔽或使用301重定向
对于这种方法,它是许多网站管理员最常用的方法之一。但这也会遇到一个问题,就是如果你的站点内容非常大,像作者的站点一样,在收录修改升级之前有263000个,如下图所示,你能使用这两种方法吗?由于作者的网站修订后内容级别的分布发生了变化,因此无法使用简单的robots文件屏幕。只能使用301重定向,但是对于如此大的收录数量,使用此方法是最耗时和最费力的方法
2:直接使用404错误页面
此方法对于收录大量站点仍然非常有用。将站点内的死链接直接跳转到404错误页面。然后,用户通过404错误页面被引导到修改后的按压表面。这可以减少网站的流量损失,让用户可以找到该站点。对于404页面跳转时间的设置,笔者认为不应该太短。最好是8秒到10秒左右,页面上有一个链接可以吸引访问者自己点击,如下图所示。用户自己点击比直接跳转更好
3:坚持内容的稳定更新
对于一个新升级的站点,稳定地更新内容是非常重要的。这不仅可以吸引升级后爬行器的爬行,还可以让爬行器再次抓取旧数据进行替换。搜索引擎蜘蛛通常采取广度优先的方式,以超链接的形式抓取站点。因此,在稳定更新网站内容的同时,也要合理构建内链,逐步稳定吸引蜘蛛,达到重新收录内容、删除旧收录信息的效果
作者认为,对于一个拥有大量“k10”的站点,修改后处理大量死链接最有效、最直接的方法是第二种和第三种。使用这两种方法不仅可以减少重量损失,还可以减少流量损失