大数据采集之webcollector 爬虫采集java代码模板
沉沙 2019-10-14 来源 : 阅读 1054 评论 0

摘要:本篇文章探讨了大数据采集之webcollector 爬虫采集java代码模板,希望阅读本篇文章以后大家有所收获,帮助大家对相关内容的理解更加深入。

本篇文章探讨了大数据采集之webcollector 爬虫采集java代码模板,希望阅读本篇文章以后大家有所收获,帮助大家对相关内容的理解更加深入。

大数据采集之webcollector 爬虫采集java代码模板

"

package work;import org.jsoup.Jsoup;import org.jsoup.safety.Whitelist;import org.springframework.dao.DuplicateKeyException;import org.springframework.jdbc.core.JdbcTemplate;import cn.edu.hfut.dmic.contentextractor.ContentExtractor;import cn.edu.hfut.dmic.contentextractor.News;import cn.edu.hfut.dmic.webcollector.conf.Configuration;import cn.edu.hfut.dmic.webcollector.model.CrawlDatum;import cn.edu.hfut.dmic.webcollector.model.CrawlDatums;import cn.edu.hfut.dmic.webcollector.model.Page;import cn.edu.hfut.dmic.webcollector.plugin.berkeley.BreadthCrawler;import cn.edu.hfut.dmic.webcollector.plugin.net.OkHttpRequester;import db.JDBCHelper;import okhttp3.Request;import util.HtmlTools;/**
 * Crawling news from hfut news
 *  use 2.72 lib
 * @author hu
 */public class ChujiingNewstpl extends BreadthCrawler {    //种子 url    public  String seedUrl=""//news.cnhubei.com/"";    //需要采集的内容页url    public  String contentRegUrl=""//news.cnhubei.com/.*/p/.*?.html\\.*"";    //线程数量    public int threads_num=10;    //每次迭代爬取的网页数量上限    public int topn_num=10;    //爬取文章深度    public static int levelnum=10;    //停止后能否继续上次采集    public static boolean resumable=true;    public int executeTime=20000;  //ms    public static int MaxExecuteCount=2;    public  int connectTimeout=50;    public  int readTimeout=60;    private String contentTable=""news_content"";    @Override    public void visit(Page page, CrawlDatums next) {//        String url = page.url();        if (page.matchUrl(contentRegUrl)) {            //            /*extract title and content of news by css selector*/           // String title = page.select(""div[id=Article]>h2"").first().text();           // String content = page.selectText(""div#artibody"");
            News n = null;            try {
                n=ContentExtractor.getNewsByHtml(page.html());
                String title=n.getTitle();
                String content=n.getContent();
                content = Jsoup.clean(content, HtmlTools.getWhitelist());
                content=HtmlTools.stripNewLine(content);
                title=Jsoup.clean(title,Whitelist.none());
                title=title.trim();
                System.out.println("" get content :""+title );                if(!title.isEmpty() && !content.isEmpty()) {
                    ChujiingNewstpl.dbHandler.update(""insert into ""+contentTable+""(title,content) value(?,?)"",title,content);
                }
            } catch(DuplicateKeyException e) {
                System.out.println("" duplicate item "");
            }catch (Exception e) {                // TODO Auto-generated catch block
                System.out.println(e.getMessage());
            }
        }
    }    private static JdbcTemplate dbHandler;       // 自定义的请求插件    public  class MyRequester extends OkHttpRequester {
        String userAgent = ""Mozilla/5.0 (compatible; Baiduspider/2.0; +//www.baidu.com/search/spider.html)"";//        String cookie = ""name=abcdef"";        // 每次发送请求前都会执行这个方法来构建请求        @Override        public Request.Builder createRequestBuilder(CrawlDatum crawlDatum) {            // 这里使用的是OkHttp中的Request.Builder            // 可以参考OkHttp的文档来修改请求头//            System.out.println(""request with cookie: "" + cookie);            return super.createRequestBuilder(crawlDatum).header(""User-Agent"", userAgent);                   // .header(""Cookie"", cookie);
        }
    }    public ChujiingNewstpl(String crawlPath, boolean autoParse) {        super(crawlPath, autoParse);        // 设置请求插件        //setRequester(new MyRequester());        /*start page*/        this.addSeed(seedUrl);        this.addRegex(contentRegUrl);        this.addRegex(""-.*\\.(jpg|png|gif|css|js|font).*"");
        setThreads(threads_num);
        Configuration cnf=getConf();
        cnf.setTopN(topn_num);//        cnf.setExecuteInterval(executeTime);//        cnf.setConnectTimeout(connectTimeout);//        cnf.setReadTimeout(readTimeout);
    }    public static void main(String[] args) throws Exception {
        dbHandler=JDBCHelper.db();
        ChujiingNewstpl crawler = new ChujiingNewstpl(""spiderdata""+java.io.File.separator+ChujiingNewstpl.class.getName(), true);
        crawler.setResumable(resumable);
        crawler.start(levelnum);        //失败最大尝试次数
        crawler.setMaxExecuteCount(MaxExecuteCount);
    }
}

"      本文由职坐标整理发布,学习更多的相关知识,请关注职坐标IT知识库!

本文由 @沉沙 发布于职坐标。未经许可,禁止转载。
喜欢 | 0 不喜欢 | 1
看完这篇文章有何感觉?已经有1人表态,0%的人喜欢 快给朋友分享吧~
评论(0)
后参与评论

您输入的评论内容中包含违禁敏感词

我知道了

助您圆梦职场 匹配合适岗位
验证码手机号,获得海同独家IT培训资料
选择就业方向:
人工智能物联网
大数据开发/分析
人工智能Python
Java全栈开发
WEB前端+H5

请输入正确的手机号码

请输入正确的验证码

获取验证码

您今天的短信下发次数太多了,明天再试试吧!

提交

我们会在第一时间安排职业规划师联系您!

您也可以联系我们的职业规划师咨询:

小职老师的微信号:z_zhizuobiao
小职老师的微信号:z_zhizuobiao

版权所有 职坐标-一站式IT培训就业服务领导者 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
 沪公网安备 31011502005948号    

©2015 www.zhizuobiao.com All Rights Reserved

208小时内训课程