python抓取网页数据( Python网络爬虫内容提取器一文(一))
优采云 发布时间: 2021-12-10 03:04python抓取网页数据(
Python网络爬虫内容提取器一文(一))
1 简介
在Python网络爬虫内容提取器一文中,我们详细讲解了核心组件:可插拔内容提取器类gsExtractor。本文记录了在确定gsExtractor技术路线过程中所做的编程实验。这是第一部分。尝试使用xslt一次性提取静态网页内容并转换为xml格式。
2.使用lxml库提取网页内容
lxml是python的一个可以快速灵活处理XML的库。它支持 XML 路径语言 (XPath) 和可扩展样式表语言转换 (XSLT),并实现了通用的 ElementTree API。
这2天在python中测试了通过xslt提取网页内容,记录如下:
2.1、爬取目标
假设你要在吉首官网提取旧版论坛的帖子标题和回复数,如下图,提取整个列表并保存为xml格式
2.2、源码1:只抓取当前页面,并在控制台显示结果
Python的优点是可以用少量的代码解决一个问题。请注意,以下代码看起来很长。其实python函数调用并不多。大空间被一个 xslt 脚本占用。在这段代码中, just 只是一个长字符串。至于为什么选择 xslt 而不是离散的 xpath 或者抓正则表达式,请参考《Python Instant Web Crawler 项目启动说明》。我们希望通过这种架构,可以节省程序员的时间。节省一半以上。
可以复制运行如下代码(windows10下测试,python3.2):
from urllib import request
from lxml import etree
url="http://www.gooseeker.com/cn/forum/7"
conn=request.urlopen(url)
doc = etree.HTML(conn.read())
xslt_root = etree.XML("""\
""")
transform = etree.XSLT(xslt_root)
result_tree = transform(doc)
print(result_tree)
源代码可以从本文末尾的GitHub源下载。
2.3、抢结果
捕获的结果如下:
2.4、源码2:翻页抓取,并将结果保存到文件中
我们对2.2的代码做了进一步的修改,增加了翻页、抓取和保存结果文件的功能,代码如下:
<p>from urllib import request
from lxml import etree
import time
xslt_root = etree.XML("""\
""")
baseurl="http://www.gooseeker.com/cn/forum/7"
basefilebegin="jsk_bbs_"
basefileend=".xml"
count=1
while (count