爬虫抓取网页数据(大数据时代下爬虫采集数据为例算法借鉴算法)
优采云 发布时间: 2021-10-24 15:15爬虫抓取网页数据(大数据时代下爬虫采集数据为例算法借鉴算法)
大数据时代,数据采集推动数据分析,数据分析推动发展。但是在这个过程中会出现很多问题。以最简单最基础的爬虫采集数据为例,在这个过程中你会面临很多问题,比如IP被封、爬行受限、非法操作等,所以在爬取数据之前,一定要了解预测。爬上网站是否涉及非法操作,寻找合适的代理IP访问网站等一系列问题。
掌握爬虫技术也成为当下技术流的营销推广人员的必修课。爬虫入门,这些知识你一定要了解。
一、一个网络爬虫的基本工作流程如下:
1.首先选择一些精心挑选的*敏*感*词*网址;
2.将这些URL放入URL队列进行抓取;
3. 从待爬取的URL队列中取出待爬取的URL,解析DNS,获取主机IP,下载该URL对应的网页,并保存到下载的网页库中。另外,将这些 URL 放入爬取的 URL 队列中。
4.对爬取的URL队列中的URL进行分析,分析其中的其他URL,将这些URL放入待爬取的URL队列中,从而进入下一个循环。
二、抓取策略
在爬虫系统中,要爬取的URL队列是一个非常重要的部分。URL队列中要爬取的URL的顺序也是一个很重要的问题,因为它涉及到先爬哪个页面,后爬哪个页面。确定这些 URL 顺序的方法称为抓取策略。下面重点介绍几种常见的爬取策略:
1.部分PageRank策略
Partial PageRank算法借鉴了PageRank算法的思想:对于下载的网页,连同要爬取的URL队列中的URL,形成一个网页集合,计算每个页面的PageRank值,经过计算完成后,将要抓取的URL队列中的URL按照PageRank值的大小进行排列,依次抓取页面。
如果每个页面都被抓取,则重新计算 PageRank 值。一个折衷的方案是:每爬取K个页面后,重新计算PageRank值。但是,这种情况下仍然存在一个问题:对于从下载页面中分析出来的链接,也就是我们前面提到的未知网页部分,暂时没有PageRank值。为了解决这个问题,这些页面会被赋予一个临时的PageRank值:将所有传入该页面链中的PageRank值汇总,从而形成未知页面的PageRank值,参与排名.
2.宽度优先遍历策略
广度优先遍历策略的基本思想是将新下载的网页中找到的链接直接插入到待爬取的URL队列的末尾。即网络爬虫会先抓取起始网页中链接的所有网页,然后选择其中一个链接的网页,继续抓取该网页中链接的所有网页。
3.大站优先策略
URL队列中所有要爬取的网页,按照所属的网站进行分类。网站需要下载的页面较多,优先下载。这种策略因此被称为大站优先策略。
4.反向链接计数策略
反向链接数是指从其他网页链接到某个网页的数量。反向链接的数量表示网页内容被他人推荐的程度。因此,很多时候搜索引擎的爬取系统都会使用这个指标来评估网页的重要性,从而决定不同网页的爬取顺序。
在真实的网络环境中,由于广告链接和作弊链接的存在,反向链接的数量不能完全坐等别人的重视。因此,搜索引擎通常会考虑一些可靠的反向链接。
5.OPIC 策略
该算法实际上对页面的重要性进行评分。在算法开始之前,给所有页面相同的初始*敏*感*词*(cash)。下载某个页面P后,将P的*敏*感*词*分配给所有从P分析的链接,并清除P的*敏*感*词*。待抓取的 URL 队列中的所有页面均按照*敏*感*词*数量进行排序。
6.深度优先遍历策略
深度优先遍历策略是指网络爬虫会从起始页开始,逐个跟踪每一个链接,处理完这一行后转移到下一个起始页,继续跟踪链接。
三、从爬虫的角度划分互联网
相应地,互联网的所有页面可以分为五个部分:
1.下载了未过期的网页
2.已下载并过期的网页:抓取的网页实际上是互联网内容的镜像和备份。互联网是动态变化的,互联网上的部分内容已经发生了变化。此时,这部分爬取到的页面已经过期。
3.要下载的页面:URL队列中要爬取的那些页面
4. 已知网页:尚未被抓取,也不在待抓取的 URL 队列中,但通过分析抓取的页面得到的 URL 或待抓取的 URL 对应的页面可以认为是已知的网页 。
5. 还有一些网页是爬虫无法直接抓取下载的。它被称为不可知页面。
Sun Software,一款好用的换IP上网推广工具,海量IP,一键切换,增加权重,必不可少!
来自“ITPUB博客”,链接:,如需转载请注明出处,否则将追究法律责任。