php 循环抓取网页内容(本周工作日的最后一天,我来冒个泡预备怎么做?)

优采云 发布时间: 2021-12-05 07:14

  php 循环抓取网页内容(本周工作日的最后一天,我来冒个泡预备怎么做?)

  啦啦啦,本周工作日的最后一天,让我泡个泡泡

  准备

  了解CURL的使用: 参考1:自己总结的curl的使用;

  参考2:CURL手册;

  参考3:匹配搜索

  一、背景、原因

  其实今天没什么特别的。突然想起前端时间朋友的网店,因为供应商不提供图片数据包,所以只能一一保存,然后上传。我想我尝试获取网站的图片栏(支持获取https协议网站);

  二、曼曼求道

  这个实现是为了获取网站的信息,那么首先想到的万能的CURL方法,不明白的可以点击学习。这是非常重要的。只有抓取页面数据才能得到想要的并保存;

  首先,获取页面数据:

  这种封装方式也支持抓取http和https协议网站页面信息

  public function is_request($url, $ssl = true, $type = "GET", $data = null)

{

$curl = curl_init();

curl_setopt($curl, CURLOPT_URL, $url);

$user_agent = isset($_SERVER["HTTP_USERAGENT"]) ?

$_SERVER['HTTP_USERAGENT'] :

'Mozilla / 5.0 (Windows NT 6.1; WOW64) AppleWebKit / 537.36 (KHTML, like Gecko) Chrome / 50.0.2661.102 Safari / 537.36';

curl_setopt($curl, CURLOPT_USERAGENT, $user_agent);//请求代理信息

curl_setopt($curl, CURLOPT_AUTOREFERER, true);//referer头 请求来源

curl_setopt($curl, CURLOPT_TIMEOUT, 30);//请求超时

curl_setopt($curl, CURLOPT_HEADER, false);//是否处理响应头

curl_setopt($curl, CURLOPT_RETURNTRANSFER, true);//curl_exec()是否返回响应

curl_setopt($curl, CURLOPT_FOLLOWLOCATION, 1);

if ($ssl) {

curl_setopt($curl, CURLOPT_SSL_VERIFYPEER, false);//禁用后curl将终止从服务端进行验证

curl_setopt($curl, CURLOPT_SSL_VERIFYHOST, false);//检查服务器ssl证书中是否存在一个公用名(common name)

}

if ($type == 'POST') {

curl_setopt($curl, CURLOPT_POST, true);

curl_setopt($curl, CURLOPT_POSTFIELDS, $data);

}

//发出请求

$response = curl_exec($curl);

if ($response === false) {

return false;

}

return $response;

}

  其次,通过正则匹配,获取页面中所有符合你条件的字符串组:

   $img_pattern = "|]+src=['\" ]?([^ '\"?]+)['\" >]|U";

preg_match_all($img_pattern, $content, $img_out, PREG_SET_ORDER);

  最后,您已经获取了页面中的所有 img 标签,然后您可以将它们循环保存在您指定的文件中:

  /**

* 保存单个图片的方法

*

* @param String $capture_url 用于抓取图片的网页地址

* @param String $img_url 需要保存的图片的url

*

*/

public function save_one_img($capture_url,$img_url)

{

//图片路径地址

// if ( strpos($img_url, 'http://')!==false )

// {

// // $img_url = $img_url;

// }else

// {

// $domain_url = substr($capture_url, 0,strpos($capture_url, '/',8)+1);

// $img_url=$domain_url.$img_url;

// }

$pathinfo = pathinfo($img_url); //获取图片路径信息

$pic_name=$pathinfo['basename']; //获取图片的名字

if (file_exists($this->save_path.$pic_name)) //如果图片存在,证明已经被抓取过,退出函数

{

echo $img_url . '该图片已经抓取过!

';

return;

}

//将图片内容读入一个字符串

// dd($img_url);

// info($img_url);

$img_data = @file_get_contents($img_url); //屏蔽掉因为图片地址无法读取导致的warning错误

if ( strlen($img_data) > $this->img_size ) //下载size比限制大的图片

{

$img_size = file_put_contents($this->save_path . $pic_name, $img_data);

if ($img_size)

{

echo $img_url . '图片保存成功!

';

} else

{

echo $img_url . '图片保存失败!

';

}

} else

{

echo $img_url . '图片读取失败!

';

}

}

  当然为了避免重复下载,我判断是否已经下载,下面完整的项目代码: BaseService 主要是为了引入is_request()

  三、最重要的,完整的代码

  class GetImgController extends Controller

{

public $save_path; //抓取图片的保存地址

//抓取图片的大小限制(单位:字节) 只抓比size比这个限制大的图片

public $img_size=0;

//定义一个静态数组,用于记录曾经抓取过的的超链接地址,避免重复抓取

public static $a_url_arr=array();

protected $baseService ;

/**

* @param BaseService $baseService

*/

public function __construct(BaseService $baseService)

{

$this->save_path=public_path().'/uploadfile/curl_img/chumaoqi/lunbo/';

$this->img_size=0;

$this->baseService = $baseService;

}

/**

* 递归下载抓取首页及其子页面图片的方法 ( recursive 递归)

*

* @param Request $request

*

*/

public function recursive_download_images(Request $request)

{

$capture_url = $request->input('url');

if (!in_array($capture_url,self::$a_url_arr)) //没抓取过

{

self::$a_url_arr[]=$capture_url; //计入静态数组

} else //抓取过,直接退出函数

{

return;

}

$this->download_current_page_images($capture_url); //下载当前页面的所有图片

//用@屏蔽掉因为抓取地址无法读取导致的warning错误

$content=@file_get_contents($capture_url);

//匹配a标签href属性中?之前部分的正则

$a_pattern = "|]+href=['\" ]?([^ '\"?]+)['\" >]|U";

preg_match_all($a_pattern, $content, $a_out, PREG_SET_ORDER);

$tmp_arr=array(); //定义一个数组,用于存放当前循环下抓取图片的超链接地址

foreach ($a_out as $k => $v)

{

/**

* 去除超链接中的 空'','#','/'和重复值

* 1: 超链接地址的值 不能等于当前抓取页面的url, 否则会陷入死循环

* 2: 超链接为''或'#','/'也是本页面,这样也会陷入死循环,

* 3: 有时一个超连接地址在一个网页中会重复出现多次,如果不去除,会对一个子页面进行重复下载)

*/

if ( $v[1] && !in_array($v[1],self::$a_url_arr) &&!in_array($v[1],array('#','/',$capture_url) ) )

{

$tmp_arr[]=$v[1];

}

}

foreach ($tmp_arr as $k => $v)

{

//超链接路径地址

if ( strpos($v, 'http://')!==false ) //如果url包含http://,可以直接访问

{

$a_url = $v;

}else //否则证明是相对地址, 需要重新拼凑超链接的访问地址

{

$domain_url = substr($capture_url, 0,strpos($capture_url, '/',8)+1);

$a_url=$domain_url.$v;

}

$this->recursive_download_images($a_url);

}

}

/**

* 下载当前网页下的所有图片

*

* @param String $capture_url 用于抓取图片的网页地址

* @return Array 当前网页上所有图片img标签url地址的一个数组

*/

public function download_current_page_images($capture_url)

{

// $capture_url = $request->input('url');

$content = $this->baseService->is_request($capture_url);

//匹配img标签src属性中?之前部分的正则

$img_pattern = "|]+src=['\" ]?([^ '\"?]+)['\" >]|U";

preg_match_all($img_pattern, $content, $img_out, PREG_SET_ORDER);

$photo_num = count($img_out);

//匹配到的图片数量

echo ''.$capture_url . "共找到 " . $photo_num . " 张图片";

foreach ($img_out as $k => $v)

{

$this->save_one_img($capture_url,$v[1]);

}

}

/**

* 保存单个图片的方法

*

* @param String $capture_url 用于抓取图片的网页地址

* @param String $img_url 需要保存的图片的url

*

*/

public function save_one_img($capture_url,$img_url)

{

//图片路径地址

// if ( strpos($img_url, 'http://')!==false )

// {

// // $img_url = $img_url;

// }else

// {

// $domain_url = substr($capture_url, 0,strpos($capture_url, '/',8)+1);

// $img_url=$domain_url.$img_url;

// }

$pathinfo = pathinfo($img_url); //获取图片路径信息

$pic_name=$pathinfo['basename']; //获取图片的名字

if (file_exists($this->save_path.$pic_name)) //如果图片存在,证明已经被抓取过,退出函数

{

echo $img_url . '该图片已经抓取过!

';

return;

}

//将图片内容读入一个字符串

// dd($img_url);

// info($img_url);

$img_data = @file_get_contents($img_url); //屏蔽掉因为图片地址无法读取导致的warning错误

if ( strlen($img_data) > $this->img_size ) //下载size比限制大的图片

{

$img_size = file_put_contents($this->save_path . $pic_name, $img_data);

if ($img_size)

{

echo $img_url . '图片保存成功!

';

} else

{

echo $img_url . '图片保存失败!

';

}

} else

{

echo $img_url . '图片读取失败!

';

}

}

}

  其中recursive_download_images()是递归下载指定页面和子页面下的图片,download_current_page_images()只下载指定地址页面的图片。您可以稍微调整一下以满足您的需要。

  四、 写在最后

  网上有很多这样的curl请求获取页面数据,大家可以参考

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线