爬虫为什么不用java_数据爬虫技术

爬虫为什么不用java_数据爬虫技术Java也能做爬虫。现在提到爬虫人第一个想到的就是python,其实使用Java编写爬虫也是很好的选择,下面给大家展示一个使用Java基础语言编写的爬取小说的案例:实现功能:爬取目标网站全本小说代码编写环境JDK:1.8.0_191Eclipse:2019-03(4.11.0)素材:网站:http://www.shicimingju.com小说:三国演义案例实现用到的技术:…_java爬虫

爬虫为什么不用java_数据爬虫技术"

Java也能做爬虫。
现在提到爬虫人第一个想到的就是python,其实使用Java编写爬虫也是很好的选择,
下面给大家展示一个使用Java基础语言编写的爬取小说的案例:

实现功能:
爬取目标网站全本小说

代码编写环境
JDK:1.8.0_191
Eclipse:2019-03 (4.11.0)

素材:
网站:http://www.shicimingju.com
小说:三国演义

案例实现用到的技术:
正则表达式
Java网络通信:URL
IO流
Map—HashMap
字符串操作
异常处理

代码思路
1、 根据小说存放位置创建file对象
2、 根据网页结构编写正则,创建pattern对象
3、 编写循环,创建向所有小说章节页面发起网络请求的url对象
4、 网络流BufferReader
5、 创建输入流
6、 循环读取请求得到的内容,使用正则匹配其中的内容
7、 将读取到的内容写入本地文件,知道循环结束
8、 注意代码中的异常处理

运行效果

第117章开始下载。。。。。。。。。。。。。。。。。
邓士载偷度阴平 诸葛瞻战死绵竹_《三国演义》诗词名句网
第117章结束下载。。。。。。。。。。。。。。。。。
第118章开始下载。。。。。。。。。。。。。。。。。
哭祖庙一王死孝 入西川二士争功
《三国演义》诗词名句网
第118章结束下载。。。。。。。。。。。。。。。。。
第119章开始下载。。。。。。。。。。。。。。。。。
假投降巧计成虚话 再受禅依样画葫芦
《三国演义》诗词名句网
第119章结束下载。。。。。。。。。。。。。。。。。
第120章开始下载。。。。。。。。。。。。。。。。。
荐杜预老将献新谋 降孙皓三分归一统
《三国演义》_诗词名句网
第120章结束下载。。。。。。。。。。。。。。。。。

案例代码:
package com.qianfeng.text;

import java.io.BufferedReader;
import java.io.BufferedWriter;
import java.io.File;
import java.io.FileOutputStream;
import java.io.InputStreamReader;
import java.io.OutputStreamWriter;
import java.net.URL;
import java.util.regex.Matcher;
import java.util.regex.Pattern;

public class GetText {

/**

  • 1、 根据小说存放位置创建file对象
    2、 根据网页结构编写正则,创建pattern对象
    3、 编写循环,创建向所有小说章节页面发起网络请求的url对象
    4、 网络流BufferReader
    5、 创建输入流
    6、 循环读取请求得到的内容,使用正则匹配其中的内容
    7、 将读取到的内容写入本地文件,知道循环结束
    8、 注意代码中的异常处理

  • @param args
    /
    public static void main(String[] args) {

    // 1、 根据小说存放位置创建file对象
    File file = new File(“D:\File\three_guo.txt”);
    // 2、 根据网页结构编写正则,创建pattern对象
    String regex_content = “<p.
    ?>(.?)

    “;
    String regex_title = “(.?)“;

     Pattern p_content = Pattern.compile(regex_content);
     Pattern p_title = Pattern.compile(regex_title);
     
     Matcher m_content;
     Matcher m_title;
     
     // 3、	编写循环,创建向所有小说章节页面发起网络请求的url对象
     for (int i = 1; i <= 120; i++) {
     	System.out.println("第" + i + "章开始下载。。。");
     	try {
     		// 创建每一个页面的url对象
     		URL url = new URL("http://www.shicimingju.com/book/sanguoyanyi/" + i + ".html");
     		// 创建网络读取流
     		BufferedReader reader = new BufferedReader(new InputStreamReader(url.openStream(),"utf8"));
     		
     		// 4、读取网络内容网络流BufferReader
     		String str = null;
     		
     		// 5、	创建输入流
     		BufferedWriter writer = new BufferedWriter(new OutputStreamWriter(new FileOutputStream(file,true)));
     		
     		while ((str = reader.readLine()) != null) {
     			m_title = p_title.matcher(str.toString());
     			m_content = p_content.matcher(str.toString());
     			
     			// 获取小说标题并写入本地文件
     			Boolean isEx = m_title.find();
     			if (isEx) {
     				String title = m_title.group();
     				// 清洗得到的数据
     				title = title.replace("<title>", "").replace("</title>", "");
     				System.out.println(title);
     				writer.write("第" + i + "章:" + title + "\n");
     			}
     			
     			while (m_content.find()) {
     				String content = m_content.group();
     				// 清洗得到的数据
     				content = content.replace("<p>", "").replace("</p>", "").replace("&nbsp;", "").replace("?", "");
     				// 把小说内容写入文件
     				writer.write(content + "\n"); 
     			}
     			
     		}
     		
     		System.out.println("第" + i + "章下载完成.........");
     		
     		writer.write("\n\n");
     		writer.close();
     		reader.close();
     	} catch (Exception e) {
     		System.out.println("下载失败");
     		e.printStackTrace();
     	}
     }
    

    }
    }

今天的文章爬虫为什么不用java_数据爬虫技术分享到此就结束了,感谢您的阅读,如果确实帮到您,您可以动动手指转发给其他人。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/58234.html

(0)
编程小号编程小号

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注