集搜客网页抓取软件(6.集搜客GooSeeker开源代码下载源1.GooSeeker文档修改历史)
优采云 发布时间: 2022-01-06 04:21集搜客网页抓取软件(6.集搜客GooSeeker开源代码下载源1.GooSeeker文档修改历史)
1. 项目背景
在python即时网络爬虫项目的启动说明中,我们讨论了一个数字:程序员在调试内容提取规则上浪费了时间,所以我们推出这个项目是为了让程序员从繁琐的调试规则中解放出来,投入更多的高端数据处理工作。
2. 解决方案
为了解决这个问题,我们将影响通用性和工作效率的提取器进行隔离,描述如下数据处理流程图:
图中的“可插拔提取器”一定是非常模块化的,所以关键接口是:
3. 提取器代码
可插拔提取器是即时网络爬虫项目的核心组件,定义为一个类:gsExtractor
请从github下载python源代码文件及其文档
使用模式是这样的:
实例化一个 gsExtractor 对象
为这个对象设置xslt提取器就相当于配置了这个对象(使用三种setXXX()方法)
向其中输入html dom,即可得到xml输出(使用extract()方法)
下面是这个 gsExtractor 类的源代码
#!/usr/bin/python
# -*- coding: utf-8 -*-
# 模块名: gooseeker
# 类名: gsExtractor
# Version: 2.0
# 说明: html内容提取器
# 功能: 使用xslt作为模板,快速提取HTML DOM中的内容。
# released by 集搜客(http://www.gooseeker.com) on May 18, 2016
# github: https://github.com/FullerHua/jisou/core/gooseeker.py
from urllib import request
from urllib.parse import quote
from lxml import etree
import time
class gsExtractor(object):
def _init_(self):
self.xslt = ""
# 从文件读取xslt
def setXsltFromFile(self , xsltFilePath):
file = open(xsltFilePath , 'r' , encoding='UTF-8')
try:
self.xslt = file.read()
finally:
file.close()
# 从字符串获得xslt
def setXsltFromMem(self , xsltStr):
self.xslt = xsltStr
# 通过GooSeeker API接口获得xslt
def setXsltFromAPI(self , APIKey , theme, middle=None, bname=None):
apiurl = "http://www.gooseeker.com/api/getextractor?key="+ APIKey +"&theme="+quote(theme)
if (middle):
apiurl = apiurl + "&middle="+quote(middle)
if (bname):
apiurl = apiurl + "&bname="+quote(bname)
apiconn = request.urlopen(apiurl)
self.xslt = apiconn.read()
# 返回当前xslt
def getXslt(self):
return self.xslt
# 提取方法,入参是一个HTML DOM对象,返回是提取结果
def extract(self , html):
xslt_root = etree.XML(self.xslt)
transform = etree.XSLT(xslt_root)
result_tree = transform(html)
return result_tree
4. 用法示例
下面是一个示例程序,演示了如何使用gsExtractor类提取GooSeeker官网的bbs帖子列表。这个例子有以下特点:
下面是源码,可以到github下载
#-*_coding:utf8-*-
# 使用gsExtractor类的示例程序
# 访问集搜客论坛,以xslt为模板提取论坛内容
# xslt保存在xslt_bbs.xml中
from urllib import request
from lxml import etree
from gooseeker import gsExtractor
# 访问并读取网页内容
url = "http://www.gooseeker.com/cn/forum/7"
conn = request.urlopen(url)
doc = etree.HTML(conn.read())
# 生成xsltExtractor对象
bbsExtra = gsExtractor()
# 调用set方法设置xslt内容
bbsExtra.setXsltFromFile("xslt_bbs.xml")
# 调用extract方法提取所需内容
result = bbsExtra.extract(doc)
# 显示提取结果
print(str(result))
提取结果如下图所示:
5. 阅读下一个
这篇文章已经解释了提取器的价值和用法,但没有说如何生成它。只有快速生成提取器才能达到节省开发者时间的目的。这个问题会在其他文章中解释,请看《1分钟快速生成xslt进行网页内容提取》。
6. GooSeeker开源代码下载源码
1.GooSeeker开源Python网络爬虫GitHub源码
7. 文档修订历史
2016-05-26:V2.0,补充项目背景介绍和价值说明
2016-05-27:V2.1,实现了从extractor类的GooSeeker API接口获取xslt的方法
2016-05-29:V2.2,增加第六章:源码下载源,修改github源码地址
2016-06-03:V2.3,提取器代码更新为2.0。支持同一主题下的多个规则或多个bin。通过API获取xslt时,可以传入参数“规则编号”和“bin名称”