java抓取网页内容( Java爬虫爬取网页内容网页内容方法:用apache提供的包)
优采云 发布时间: 2021-11-08 10:03java抓取网页内容(
Java爬虫爬取网页内容网页内容方法:用apache提供的包)
1、网络爬虫
按照一定的规则抓取网页上的信息,通常是在抓取一些网址之后,然后将这些网址放入队列中,反复搜索。
2、Java爬虫网页
对于网页的内容,找到网页中的其他链接地址,然后通过这些链接地址找到下一个网页,如此循环下去,直到这个网站的所有网页都被爬取。如果把整个互联网看作一个网站,那么网络蜘蛛就可以利用这个原理抓取互联网上的所有网页。
3、Java爬虫抓取网页内容方法:使用apache提供的包
// commons-httpclient-3.1.jar
// commons-logging-1.0.4.jar
public static String createhttpClient(String url, String param) {
HttpClient client = new HttpClient();
String response = null ;
String keyword = null ;
PostMethod postMethod = new PostMethod(url);
// try {
// if (param != null)
// keyword = new String(param.getBytes("gb2312"), "ISO-8859-1");
// } catch (UnsupportedEncodingException e1) {
// // TODO Auto-generated catch block
// e1.printStackTrace();
// }
// NameValuePair[] data = { new NameValuePair("keyword", keyword) };
// // 将表单的值放入postMethod中
// postMethod.setRequestBody(data);
// 以上部分是带参数抓取,我自己把它注销了.大家可以把注销消掉研究下
try {
int statusCode = client.executeMethod(postMethod);
response = new String(postMethod.getResponseBodyAsString()
.getBytes( "ISO-8859-1" ), "gb2312" );
//这里要注意下 gb2312要和你抓取网页的编码要一样
String p = response.replaceAll( "//&[a-zA-Z]{1,10};" , "" )
.replaceAll( "]*>" , "" ); //去掉网页中带有html语言的标签
System.out.println(p);
} catch (Exception e) {
e.printStackTrace();
}
return response;
}
在Java爬虫中使用apache提供的包对网页内容进行爬取非常方便。大家可以用代码来使用~ 更多java学习推荐:java教程。
(推荐操作系统:win7系统,java10版本,DELL G3电脑。)