seo搜索引擎优化 深圳(针对网站的站内优化,主要包含两大的相关内容)

优采云 发布时间: 2021-12-09 16:01

  seo搜索引擎优化 深圳(针对网站的站内优化,主要包含两大的相关内容)

  网站站内优化主要包括两个方面:一是页面的SEO(on-page),二是网站结构优化,也叫技术SEO优化。随着搜索结果的竞争越来越激烈,对SEO的技术优化提出了更高的要求。一个行为良好的 网站 必须是可爬行的、快速且安全的 网站。接下来小编就为大家介绍以下相关内容。

  一、保证网站可以被爬取

  对于搜索引擎优化,高质量的内容是必须的。但只有高质量的内容是不够的。如果搜索引擎无法抓取这个页面,那么你辛苦写出来的内容不是白费的吗?为了保证网站可以被爬取,首先检查robots.txt文件。该文件是任何网络爬虫软件到达站点时的第一个调用点。robots.txt 文件会指定应该爬取的部分和不应该爬取的部分,显示允许或不允许某些用户代理。通过指定禁止这些 URL 的位置,您可以节省带宽、服务器资源和抓取预算。同时,不应该禁止搜索引擎爬虫抓取网站的重要部分。

  每天爬取的网页数、每天下载的千字节数、下载网页所花费的时间(以毫秒为单位)可以显示网站的爬取速度以及与搜索引擎爬虫的关系。搜索引擎爬虫会定期访问某个网站,这是一个快速且易于抓取的网站,这个网站会有非常高的抓取速度。如果页面加载时间过长,说明爬虫爬取时间过长,索引速度慢。

  从服务器日志中访问原创数据可能很麻烦,因为分析是一项高级设置,但它有助于准确了解哪些页面可以被抓取,哪些不能被抓取。

  

  二、检查站点可以索引

  在检查了爬虫是否可以抓取网站之后,还要弄清楚网站上的网页是否已经被Google收录。有很多方法可以检查这个问题。之前使用的 Google Search Console 覆盖率报告可用于检查每个页面的状态。

  从这份报告中,我们看到了四个数据:

  错误:404s 重定向错误。

  活动警告:已编入索引但附有警告的页面。

  活动:已成功编入索引的页面。

  排除:从索引状态中排除的页面及其原因,例如重定向或被 robots.txt 阻止的页面。

  您还可以使用 URL 检查工具来分析特定的 URL。如果某个主页的流量下降了,您应该检查新添加的网站是否已被索引,或对该URL进行故障排除。

  运行爬取软件后,可以看到与索引相关的两列结果。

  Indexability:Indexability,显示URL是否可以被索引,是“可索引”还是“不可索引”。

  Indexability Status:Indexability 状态,显示了 URL 不可索引的原因,是否被编译成另一个 URL,或者没有索引标签。

  三、查看站点地图

  SEO 还有一个不容忽视的重要方面:站点地图。XML 站点地图是您到 Google 和其他搜索引擎爬虫的 网站 地图。事实上,站点地图可以帮助这些爬虫对您的网页进行排名。

  关于有效的站点地图,有几点值得注意:

  站点地图必须在 XML 文档中正确格式化。

  站点地图应遵循 XML 站点地图协议。

  仅收录 URL 的规范版本。

  不要收录未编入索引的 URL。

  更新或创建新页面时,包括所有新页面。

  关于站点地图小部件:

  1. Yoast SEO插件,可以创建XML站点地图。

  2. Screaming Frog,它的站点地图分析非常详细。

  此外,您还可以检查站点标题地图上的 URL、丢失的 URL 或罕见的 URL。

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线