网页内容抓取工具(603999.SH读者传媒:2017年年度报告获取网页pdf下载地址 )
优采云 发布时间: 2021-10-14 11:30网页内容抓取工具(603999.SH读者传媒:2017年年度报告获取网页pdf下载地址
)
任务:批量抓取网页pdf文件
有一个 excel,其中有数千个指向 pdf 下载链接的网页地址。现在需要批量抓取这些网页地址中的pdf文件。
Python环境:
蟒蛇3
打开pyxl
Beautifulsoup4 读取excel,获取网页地址
使用 openpyxl 库读取 .xslx 文件;
(我尝试使用xlrd库读取.xsl文件,但是无法获取超链接)
安装 openpyxl
pip install openpyxl
提取 xslx 文件中的超链接
示例文件结构
公告日期 证券代码公告名称
2018-04-20
603999.SH
读者媒体:2017年年报
2018-04-28
603998.SH
方盛药业:2017年年报
def readxlsx(path):
workbook = openpyxl.load_workbook(path)
Data_sheet = workbook.get_sheet_by_name('sheet1')
rowNum = Data_sheet.max_row #读取最大行数
c = 3 # 第三列是所需要提取的数据
server = 'http://news.windin.com/ns/'
for row in range(1, rowNum + 1):
link = Data_sheet.cell(row=row, column=c).value
url = re.split(r'\"', link)[1]
print(url)
downEachPdf(url, server)
获取网页pdf下载地址
进入阅读媒体:2017年年报,可以在Chrome浏览器中按F12查看网页源码,以下是源码截取:
附件: <a href=[getatt.php?id=91785868&att_id=32276645](http://news.windin.com/ns/getatt.php?id=91785868&att_id=32276645) class='big' title=603999读者传媒2017年年度报告.pdf>603999读者传媒2017年年度报告.pdf </a> (2.00M)  
可以看到herf下载链接在a标签中,解析html源码就可以得到下载链接。
这里使用 BeautifulSoup 来解析 html。
Beautiful Soup 是一个用 Python 编写的 HTML/XML 解析器。它可以处理不规则标签并生成解析树。它提供了简单常用的导航(navigating)、搜索和修改分析树的操作。它可以大大节省您的编程时间。安装 BeautifulSoup4
pip install beautifulsoup4
获取pdf下载链接并下载
def downEachPdf(target, server):
req = requests.get(url=target)
html = req.text
bf = BeautifulSoup(html, features="lxml")
a = bf.find_all('a')
for each in a:
url = server + each.get('href')
print("downloading:", each.string, url)
urllib.request.urlretrieve(url, './report/' + each.string)
从同一个ip重复访问同一个服务器被拒绝
以上方法已经可以批量下载网页pdf。但是在实际操作过程中,你会发现如果同一个IP频繁访问某个服务器,访问就会被拒绝(可能会误判为DOS攻击,通常一个Rate -limit 网站就会停止响应一段时间,可以抓到这个Exception,休眠一段时间,参考)。因此,对下载逻辑进行了调整。
使用try-catch,具体逻辑是:一般情况下,按顺序下载文件,如果是同一个文件,下载失败次数超过10次,跳过,下载下一个文件,并记录错误信息。
import os
import time
def downloadXml(flag_exists, file_dir, file_name, xml_url):
if not flag_exists:
os.makedirs(file_dir)
local = os.path.join(file_dir, file_name)
try:
urllib.request.urlretrieve(xml_url, local)
except Exception as e:
print('the first error: ', e)
cur_try = 0
total_try = 10
if cur_try < total_try:
cur_try += 1
time.sleep(15)
return downloadXml(flag_exists, file_dir, file_name, xml_url)
else:
print('the last error: ')
with open(test_dir + 'error_url.txt', 'a') as f:
f.write(xml_url)
raise Exception(e)