seo协议文件屏蔽百度蜘蛛的操作方法有两种佳方法

优采云 发布时间: 2021-05-08 21:17

  seo协议文件屏蔽百度蜘蛛的操作方法有两种佳方法

  要知道,在SEO优化的过程中,有时有必要对搜索引擎蜘蛛进行拦截,即禁止在网站中抢占一席之地,那么我们应该如何拦截搜索引擎蜘蛛呢?下面我们来看看具体的操作方法

  [第21页]

  百度蜘蛛抓取了我们的网站,希望我们的网页能被收录到它的搜索引擎中。将来,当用户进行搜索时,它会给我们带来一定的SEO流量。当然,我们不希望搜索引擎抓住一切。此时,我们只希望能够捕获搜索引擎找到的内容。例如,用户的隐私和背景信息不希望搜索引擎被捕获和收录。解决这些问题有两个好办法

  1、通过403状态码,限制内容输出,屏蔽蜘蛛捕捉

  403状态码是HTTP协议中网页的返回状态码。当搜索引擎遇到403状态码时,它知道这些页面受到权限的限制。我无法访问它。例如,如果需要登录查看内容,搜索引擎本身将无法登录。如果返回403,他也知道这是权限设置页,无法读取内容。当然,不包括在内

  当返回403状态码时,应该有一个类似404页的页面。提示用户或蜘蛛执行他们想要访问的内容。两者缺一不可。你只有提示页面,状态码返回200,这是百度蜘蛛大量重复的页面。有403个状态码,但返回的内容不同。也不是很友好

  [第23页]

  2、机器人协议文件屏蔽百度蜘蛛捕获

  Robots协议是放置在网站根目录中的协议文件,可通过网站(网站:)访问。Txt)。当百度蜘蛛抓取我们的网站时,它会首先访问这个文件。因为它告诉蜘蛛什么能抓什么不能抓

  机器人协议文件的设置比较简单,可以由用户代理设置、禁止和允许

  用户代理:不同搜索引擎的声明;不允许:不允许对目录或页面进行爬网;允许:允许被爬网的目录或页面通常可以省略或不写,因为如果你不写任何不能被爬网的东西,它就可以被爬网

  让我们看一个例子。我不想让百度抓取我所有的网站CSS文件、数据目录和seo-tag.html页面

  用户代理:baidusppidersallow:/*.cssDisallow:/data/Disallow:/seo/seo-tag.html

  如上所述,用户代理声明了蜘蛛的名称,这意味着它是针对百度蜘蛛的。无法获取以下内容。css&quot第一个/是指根目录,这是您的域名*是表示任何内容的通配符。这意味着所有文件都以结尾。CSS无法爬网。这是你自己的两次经历。逻辑是一样的

  如果您想检测最后一组rover文件,可以访问“检查机器人是否正确的工具简介”,并获取详细的工具来检测您的设置

  以上都是关于“如何禁止蜘蛛抓取网站”。我希望它能帮助你。郑州网站优化公司将找到郑州奇帆网站优化公司,该公司拥有8年以上的行业经验。先优化后付费。关键词排名将转到百度,然后支付优化费用

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线