实时抓取网页数据( 如何利用Python爬取模块获取查看器的html内容(图))
优采云 发布时间: 2021-10-16 07:41实时抓取网页数据(
如何利用Python爬取模块获取查看器的html内容(图))
1. 文章 目的
我们在使用Python抓取网页数据时,经常会用到urllib模块,通过调用urllib模块的urlopen(url)方法返回网页。
页面对象,使用read()方法获取url的html内容,然后使用BeautifulSoup抓取某个标签的内容,结合正则表
亲爱的过滤器。然而,你用 urllib.urlopen(url).read() 得到的只是网页的静态 html 内容,还有很多动态数据(比如 网站
访问量、当前在线人数、微博点赞数等)不收录在静态html中,比如我要抢这个bbs网
当前点击打开站点内各版块链接的在线人数不收录在静态html页面中(不信你去查一下页面源码,
只有一条简单的线)。像这样的动态数据更多是由 JavaScript、JQuery、PHP 等语言动态生成的。因此,
不宜使用爬取静态html内容的方法。
2. 解决方案
我试过网上提到的浏览器自带的开发者工具(一般是F12弹出对应网页的开发者工具),上网查了一下
动态数据的趋势是可以得到的,但是这需要从众多的URL中寻找线索,我个人觉得太麻烦了。另外,使用查看器
查看的html内容也收录动态数据,但是有几个问题:如何实时获取查看器的html内容?如何查看
html变成python程序?因此,使用查看器的html内容的方法也不符合爬虫的要求。
偶然发现了selenium模块,发现这个模块可以很方便的根据url加载页面获取session,并找到当前se
ssion 对应的标签。本文将使用 selenium webdriver 模块来获取这些动态生成的内容,尤其是一个
一些重要的动态数据。其实selenium模块的功能不仅限于抓取网页,它是网络自动化测试的常用模块
,在Ruby和Java中被广泛使用。Python虽然使用的比较少,但它也是一个非常简洁、高效、易用的工具。
手的自动化测试模块。通过使用selenium的子模块webdriver解决动态数据的捕获问题,还可以
可以对selenium有一个基本的了解,为进一步学习自动化测试打下基础。
3. 实施过程
3.1 运行环境
我在windows 7系统上安装了Python2.7版本,使用的是Python(X,Y)的IDE,安装的Python库没有self
用selenium,如果直接在Python程序中导入selenium,会提示没有这个模块。联网状态下,cmd直接进入pip i
安装selenium,系统会找到Python安装目录直接下载、解压安装这个模块。等到终端提示完成
我们看看C:\Python27\Lib\site-packages目录下有没有selenium模块。这个目录取决于你安装的 Python
的路径。如果有两个文件夹,selenium和selenium-2.47.3.dist-info,可以在Python程序中添加模块
已加载。
使用 webdriver 捕获动态数据
先导入webdriver子模块
从硒导入网络驱动程序
获取浏览器会话,可以使用火狐、Chrome、IE等浏览器,这里以火狐为例
浏览器 = webdriver.Firefox()
加载页面,在 url 本身中指定一个合法的字符串
browser.get(url)
获取到session对象后,为了定位元素,webdriver提供了一系列的元素定位方法。常用的方法有以下几种:
ID
姓名
班级名称
关联
文本
部分的
关联
文本
标签
姓名
路径
css选择器
比如通过id定位,返回一个所有元素组成的列表,lis=borwser.find_elements_by_id_name('kw'')
按类名定位,lis=find_elements_by_class_name('title_1')
更详细的定位方法请参考selenium webdriver(python)教程第三章-定位方法(第一版可百度
学位图书馆阅读)
结合正则表达式过滤相关信息
定位后的一些元素是不可取的,只需使用常规过滤即可。比如我想只提取英文字符(包括0-9),创建如下
常规的
pa=堆(r'\w+')
对于 lis 中的你:
en=pa.findall(u.lis)
印刷英文
关闭会话
执行fetch操作后必须关闭session,否则让它一直占用内存会影响机器上其他进程的操作
Browser.close() 或 browser.quit() 可以关闭会话,前者只是关闭当前会话,浏览器的webdrive
r 未关闭,后者已关闭,包括 webdriver 等所有内容
添加异常处理
这个是必须的,因为有时候会获取session失败,所以把上面的语句块放到try里面,然后用exception处理
除了 NoSuchElementException:
断言 0,“找不到元素”
4. 代码实现
我通过点击打开链接抓取了指定分区每个板块的在线用户数,并指定了分区id号(0-9),可以得到板块名称和
在线用户数应该打印在一个列表中,代码如下
[python] 查看平原
# -*- 编码:utf-8 -*-
从硒导入网络驱动程序
从 mon.exceptions 导入 NoSuchElementException
导入时间
*敏*感*词*重新
def find_sec(secid):
pa=堆(r'\w+')
browser = webdriver.Firefox() # 获取firefox的本地会话
browser.get("!section/%s "%secid) # 加载页面
time.sleep(1) # 让页面加载
结果=[]
尝试:
#获取页面名称和在线号码组成列表
board=browser.find_elements_by_class_name('title_1')
ol_num=browser.find_elements_by_class_name('title_4')
max_bindex=len(板)
max_oindex=len(ol_num)
assert max_bindex==max_oindex,'索引不等价!'
#页面名称为中英文,所以常规过滤后只剩下英文
对于范围内的 i(1,max_oindex):
board_en=pa.findall(board.text)
result.append([str(board_en[-1]),int(ol_num.text)])
浏览器关闭()
返回结果
除了 NoSuchElementException:
断言 0,“找不到元素”
print find_sec('5')#打印第5分区下所有版块的当前在线用户列表
操作结果如下:
终端打印效果
4. 总结
Selenium 在代码简洁性和执行效率方面非常出色。使用 selenium webdriver 捕获动态数据不是
它通常简单而有效。也可以进一步利用这个实现数据挖掘、机器学习等深入研究,所以selenium+pyth
就值得深入研究!如果觉得每次都用selenium打开浏览器不方便,可以用phantomjs模拟一个虚拟的
浏览器出来了,这里就不赘述了。