网页爬虫抓取百度图片(最近博主遇到这样一个现成的“数据库”(图))

优采云 发布时间: 2021-11-18 19:11

  网页爬虫抓取百度图片(最近博主遇到这样一个现成的“数据库”(图))

  最近有博主遇到这样的需求:当用户输入一个词时,返回这个词的解释。我的第一个想法是建一个数据库,把常用的词和词解释放在数据库中,在用户查询的时候直接读取数据库的结果,但是我不想建这样的数据库,所以想到了一个现成的“数据库”,如百度百科。下面我们使用urllib和xpath来获取百度百科的内容。

  最近有博主遇到这样的需求:当用户输入一个词的时候,返回这个词的解释

  我的第一个想法是建一个数据库,把常用的词和词的解释放到数据库中,用户查询的时候直接读取数据库结果

  但是我没有心去建这样的数据库,于是想到了百度百科这样的现成的“数据库”。

  下面我们使用urllib和xpath来获取百度百科的内容

  1、 爬取百度百科

  百度百科是静态网页,易于抓取,请求参数可以直接放在URL中,例如:

  地址网络爬虫对应网络爬虫的百度百科页面

  地址电脑对应电脑的百度百科页面

  

  可以说是很方便了,不多说了,直接放代码就好了,不明白的可以看评论:

  import urllib.request

import urllib.parse

from lxml import etree

def query(content):

# 请求地址

url = \'https://baike.baidu.com/item/\' + urllib.parse.quote(content)

# 请求头部

headers = {

\'User-Agent\': \'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36\'

}

# 利用请求地址和请求头部构造请求对象

req = urllib.request.Request(url=url, headers=headers, method=\'GET\')

# 发送请求,获得响应

response = urllib.request.urlopen(req)

# 读取响应,获得文本

text = response.read().decode(\'utf-8\')

# 构造 _Element 对象

html = etree.HTML(text)

# 使用 xpath 匹配数据,得到匹配字符串列表

sen_list = html.xpath(\'//div[contains(@class,"lemma-summary") or contains(@class,"lemmaWgt-lemmaSummary")]//text()\')

# 过滤数据,去掉空白

sen_list_after_filter = [item.strip(\'\n\') for item in sen_list]

# 将字符串列表连成字符串并返回

return \'\'.join(sen_list_after_filter)

if __name__ == \'__main__\':

while (True):

content = input(\'查询词语:\')

result = query(content)

print("查询结果:%s" % result)

  效果演示:

  

  2、 爬行维基百科

  上面确实可以解决一些问题,但是如果用户的查询是英文的呢?我们知道百度百科一般很少有收录英文词条

  同样,很容易想到爬行维基百科。思路和爬百度百科一样。您只需要处理请求地址并返回结果。

  

  下面也是直接放代码,不明白的可以看评论:

  from lxml import etree

import urllib.request

import urllib.parse

def query(content):

# 请求地址

url = \'https://en.wikipedia.org/wiki/\' + content

# 请求头部

headers = {

\'User-Agent\': \'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36\'

}

# 利用请求地址和请求头部构造请求对象

req = urllib.request.Request(url=url, headers=headers, method=\'GET\')

# 发送请求,获得响应

response = urllib.request.urlopen(req)

# 读取响应,获得文本

text = response.read().decode(\'utf-8\')

# 构造 _Element 对象

html = etree.HTML(text)

# 使用 xpath 匹配数据,得到 下所有的子节点对象

obj_list = html.xpath(\'//div[@class="mw-parser-output"]/*\')

# 在所有的子节点对象中获取有用的 <p> 节点对象

for i in range(0,len(obj_list)):

if \'p\' == obj_list[i].tag:

start = i

break

for i in range(start,len(obj_list)):

if \'p\' != obj_list[i].tag:

end = i

break

p_list = obj_list[start:end]

# 使用 xpath 匹配数据,得到 <p> 下所有的文本节点对象

sen_list_list = [obj.xpath(\'.//text()\') for obj in p_list]

# 将文本节点对象转化为字符串列表

sen_list = [sen.encode(\'utf-8\').decode() for sen_list in sen_list_list for sen in sen_list]

# 过滤数据,去掉空白

sen_list_after_filter = [item.strip(\'\n\') for item in sen_list]

# 将字符串列表连成字符串并返回

return \'\'.join(sen_list_after_filter)

if __name__ == \'__main__\':

while (True):

content = input(\'Word: \')

result = query(content)

print("Result: %s" % result)

  下面是效果演示:

  

  好的,你完成了!

  注:本项目代码仅供学习交流使用!!!

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线