SEO优化:搜索引擎工作原理是怎样变化的呢?

优采云 发布时间: 2021-07-23 19:51

  SEO优化:搜索引擎工作原理是怎样变化的呢?

  搜索引擎的工作原理是SEO从业者应该了解的一门基础课,但是有人说搜索引擎的工作原理对新手来说不太容易理解,因为搜索引擎的工作原理过于抽象和多变,无论谁能真正理解搜索的工作原理

  我想说的是,无论搜索引擎如何变化,一般的收录原则都不会改变:

  1、找到网站的URL并下载页面

  2、判断页面质量是否符合收录标准收录页面,否则删除

  3、判断收录页面是否更新,更新页面快照

  以上三条是搜索引擎收录页面的基本规则,百度和谷歌都不会违反。在此基础上,详细阐述了搜索引擎的工作原理

  首先,搜索引擎的组成:

  

型@

  图1

  如图1所示,搜索引擎可以分为五个基本部分,即网页捕获系统、数据分析系统、数据存储系统、缓存系统和显示系统

  1、抓取网页系统:分为检测系统和下载系统。探测系统就是我们通常所说的蜘蛛。当蜘蛛在互联网上爬行时检测到一个网站URL时,它会利用下载系统将该URL指向的页面下载到搜索引擎服务器,然后将该页面交给数据分析系统

  2、数据分析系统:分为数据分析和数据处理两个系统。当数据分析系统从爬网网页系统中获取下载的页面时,首先进行数据分析,删除无关文本或网站重复内容,对页面文本进行处理,然后判断处理后的页面内容是否符合收录标准,到达存储系统,但不删除

  3、存储数据系统:保存收录页,然后判断存储的页是否定期更新

  4、cache系统:存储搜索引擎认为有价值的内容。当用户搜索一个关键词时,经常会看到数以千万计的收录内容,但搜索引擎只显示1000个项目,也就是说,只有1000个项目放在缓存系统上,因此用户可以最快找到自己想要的内容

  5、display system:用户搜索返回到显示器的信息

  这是搜索引擎系统的组成部分。搜索引擎如何找到页面并收录

  

型@

  图2

  在图2中,当一个爬行器在互联网上爬行并遇到一个网站的URL时,首先提取该URL并根据网站的权重和相关性将其插入URL队列,然后判断您的网站URL是否能被成功解析。如果能成功解析,蜘蛛会爬到网站。这里应该说,蜘蛛不是直接分析你网页的内容,而是找到你网站robots文件,根据网站robots规则判断是否抓取页面。如果robots文件不存在,将返回404错误,但搜索引擎将继续获取您的网站内容

  搜索引擎抓取网页内容后,会简单判断网页是否符合收录标准。如果它不符合收录标准,它将继续向URL队列添加URL。如果它符合收录标准,它将下载网页内容

  当搜索引擎获得下载的网页内容时,会提取网页上的URL,继续将其插入URL队列,然后进一步分析网页上的数据,判断网页内容是否符合收录标准。如果符合收录标准,则该页将存储在硬盘中

  当用户搜索关键词时,为了减少查询时间,搜索引擎会将一些高度相关的内容放入临时缓存中。我们都知道从计算机缓存读取数据比从硬盘读取数据快得多。因此,搜索引擎只向用户显示缓存的一部分。对于存储在硬盘中的页面,搜索引擎会根据网站的权重定期判断是否更新,是否符合放入缓存的标准。如果搜索引擎在判断是否有更新时发现网站页面被删除或网页不符合收录的标准,也会被删除

  以上是搜索引擎的组成和页面收录原理。我希望每个SEO人都应该掌握它

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线