爬取微信公众号怎么做?各种方法的汇总说明
优采云 发布时间: 2021-08-27 04:08
爬取微信公众号怎么做?各种方法的汇总说明
爬虫
我经常有朋友在公众号文章爬取方面需要帮助。这次我将各种方法做一个总结。
目前微信公众号的抓取方式主要有以下三种:
通过爬取第三方公众号文章聚网站并使用微信官方平台引用文章接口。通过抓包程序,分析微信app界面通过第三方公众号文章聚网站攀取访问公众号文章
微信公众号文章未提供搜外功能。直到2013年,微信投资搜狗后,搜狗搜索访问了微信公众号数据。从此您可以通过搜狗搜索浏览或查询相关公众号和@。文章。
域名为:
搜狗微信
可以直接搜索公众号或文章的关键词。部分热门公众号及时更新,几乎与微信同步。
公众号搜索
所以,可以使用搜狗微信界面抓取一些热门公众号,但是有些小众公众号搜索不到,而且搜狗的反抓取机制更新更频繁,获取数据的界面变化更快,有经常两三个月就调整一次,这样爬虫就容易挂了。这里,推荐使用selenium,爬得更省心。此外,搜狗对每个ip也有访问限制。访问太频ip会被封锁24小时,需要购买ip池处理。
还有一些其他公众号文章聚网站(比如门户),也有更新不及时或者收录的问题。毕竟搜狗这个亲儿子不好。通过微信公众平台引用文章interface
这个界面比较隐蔽,不能匿名访问。需要有官方账号。最好注册一个新的公众号,以免被屏蔽。
先说具体步骤:先登录微信公众号,进入首页选择新群发,然后点击自建图,在文章edit工具栏中找到超链接,如下图:
点击超链接
点击这个超链接按钮,会弹出一个对话框,选择链接输入法找到文章,如下图:
找到文章
这里可以输入公众号名称,回车后微信会返回匹配的公众号列表,如下图:
搜索公众号
然后点击你要抢的公众号,就会显示具体的文章列表,已经是倒序了。最新的文章是第一个。如下图:
文章List
微信的分页机制比较奇怪。每个公众号每个页面显示的数据项数量是不同的。分页爬行时需要处理。
通过chrome分析网络请求的数据,我们基本得到了我们想要的数据,文章链接、封面、发布日期、副标题等,如下图:
网络请求数据
好了,这个爬虫方法的原理讲完了,下面开始实际操作。
因为微信公众平台登录验证比较严格,输入密码后手机必须扫码确认才能登录,所以最好使用selenium进行自动化。具体微信界面的分析过程我就不一一列举了,直接贴上代码:
import re
import time
import random
import traceback
import requests
from selenium import webdriver
class Spider(object):
'''
微信公众号文章爬虫
'''
def __init__(self):
# 微信公众号账号
self.account = '286394973@qq.com'
# 微信公众号密码
self.pwd = 'lei4649861'
def create_driver(self):
'''
初始化 webdriver
'''
options = webdriver.ChromeOptions()
# 禁用gpu加速,防止出一些未知bug
options.add_argument('--disable-gpu')
# 这里我用 chromedriver 作为 webdriver
# 可以去 http://chromedriver.chromium.org/downloads 下载你的chrome对应版本
self.driver = webdriver.Chrome(executable_path='./chromedriver', chrome_options=options)
# 设置一个隐性等待 5s
self.driver.implicitly_wait(5)
def log(self, msg):
'''
格式化打印
'''
print('------ %s ------' % msg)
def login(self):
'''
登录拿 cookies
'''
try:
self.create_driver()
# 访问微信公众平台
self.driver.get('https://mp.weixin.qq.com/')
# 等待网页加载完毕
time.sleep(3)
# 输入账号
self.driver.find_element_by_xpath("./*//input[@name='account']").clear()
self.driver.find_element_by_xpath("./*//input[@name='account']").send_keys(self.account)
# 输入密码
self.driver.find_element_by_xpath("./*//input[@name='password']").clear()
self.driver.find_element_by_xpath("./*//input[@name='password']").send_keys(self.pwd)
# 点击登录
self.driver.find_elements_by_class_name('btn_login')[0].click()
self.log("请拿手机扫码二维码登录公众号")
# 等待手机扫描
time.sleep(10)
self.log("登录成功")
# 获取cookies 然后保存到变量上,后面要用
self.cookies = dict([[x['name'], x['value']] for x in self.driver.get_cookies()])
except Exception as e:
traceback.print_exc()
finally:
# 退出 chorme
self.driver.quit()
def get_article(self, query=''):
try:
url = 'https://mp.weixin.qq.com'
# 设置headers
headers = {
"HOST": "mp.weixin.qq.com",
"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.109 Safari/537.36"
}
# 登录之后的微信公众号首页url变化为:https://mp.weixin.qq.com/cgi-bin/home?t=home/index&lang=zh_CN&token=1849751598,
# 从这里获取token信息
response = requests.get(url=url, cookies=self.cookies)
token = re.findall(r'token=(\d+)', str(response.url))[0]
time.sleep(2)
self.log('正在查询[ %s ]相关公众号' % query)
search_url = 'https://mp.weixin.qq.com/cgi-bin/searchbiz?'
# 搜索微信公众号接口需要传入的参数,
# 有三个变量:微信公众号token、随机数random、搜索的微信公众号名字
params = {
'action': 'search_biz',
'token': token,
'random': random.random(),
'query': query,
'lang': 'zh_CN',
'f': 'json',
'ajax': '1',
'begin': '0',
'count': '5'
}
# 打开搜索微信公众号接口地址,需要传入相关参数信息如:cookies、params、headers
response = requests.get(search_url, cookies=self.cookies, headers=headers, params=params)
time.sleep(2)
# 取搜索结果中的第一个公众号
lists = response.json().get('list')[0]
# 获取这个公众号的fakeid,后面爬取公众号文章需要此字段
fakeid = lists.get('fakeid')
nickname = lists.get('nickname')
# 微信公众号文章接口地址
search_url = 'https://mp.weixin.qq.com/cgi-bin/appmsg?'
# 搜索文章需要传入几个参数:登录的公众号token、要爬取文章的公众号fakeid、随机数random
params = {
'action': 'list_ex',
'token': token,
'random': random.random(),
'fakeid': fakeid,
'lang': 'zh_CN',
'f': 'json',
'ajax': '1',
'begin': '0', # 不同页,此参数变化,变化规则为每页加5
'count': '5',
'query': '',
'type': '9'
}
self.log('正在查询公众号[ %s ]相关文章' % nickname)
# 打开搜索的微信公众号文章列表页
response = requests.get(search_url, cookies=self.cookies, headers=headers, params=params)
time.sleep(2)
for per in response.json().get('app_msg_list', []):
print('title ---> %s' % per.get('title'))
print('link ---> %s' % per.get('link'))
# print('cover ---> %s' % per.get('cover'))
except Exception as e:
traceback.print_exc()
if __name__ == '__main__':
spider = Spider()
spider.login()
spider.get_article('python')
代码仅供学习使用,没有分页查询之类的。
据网友介绍,这个界面也有访问频率限制。一天几百次不是问题。如果访问速度过快或访问次数过多,将被封锁 24 小时。