博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
webmagic新版文档(更新中)
阅读量:6941 次
发布时间:2019-06-27

本文共 5688 字,大约阅读时间需要 18 分钟。

hot3.png

WebMagic in Action

WebMagic是一个简单灵活、便于二次开发的爬虫框架。除了可以便捷的实现一个爬虫,WebMagic还提供多线程功能,以及基本的分布式功能。

你可以直接使用WebMagic进行爬虫开发,也可以定制WebMagic以适应复杂项目的需要。

1. 在项目中使用WebMagic

WebMagic主要包含两个jar包:webmagic-core-{version}.jarwebmagic-extension-{version}.jar。在项目中添加这两个包的依赖,即可使用WebMagic。

1.1 使用Maven

WebMagic基于Maven进行构建,推荐使用Maven来安装WebMagic。在项目中添加以下坐标即可:

us.codecraft
webmagic-extension
0.4.3

WebMagic使用slf4j-log4j12作为slf4j的实现.如果你自己定制了slf4j的实现,请在项目中去掉此依赖。

us.codecraft
webmagic-extension
0.4.3
org.slf4j
slf4j-log4j12

1.2 不使用Maven

不使用maven的用户,可以下载附带二进制jar包的版本(感谢):

git clone http://git.oschina.net/flashsword20/webmagic.git

lib目录下,有项目依赖的所有jar包,直接在IDE里,将这些jar添加到Libraries即可。

import jars

1.3 第一个项目

在你的项目中添加了WebMagic的依赖之后,即可开始第一个爬虫的开发了!我们这里拿一个抓取Github信息的例子:

import us.codecraft.webmagic.Page;import us.codecraft.webmagic.Site;import us.codecraft.webmagic.Spider;import us.codecraft.webmagic.processor.PageProcessor;public class GithubRepoPageProcessor implements PageProcessor {    private Site site = Site.me().setRetryTimes(3).setSleepTime(100);    @Override    public void process(Page page) {        page.addTargetRequests(page.getHtml().links().regex("(https://github\\.com/\\w+/\\w+)").all());        page.putField("author", page.getUrl().regex("https://github\\.com/(\\w+)/.*").toString());        page.putField("name", page.getHtml().xpath("//h1[@class='entry-title public']/strong/a/text()").toString());        if (page.getResultItems().get("name")==null){            //skip this page            page.setSkip(true);        }        page.putField("readme", page.getHtml().xpath("//div[@id='readme']/tidyText()"));    }    @Override    public Site getSite() {        return site;    }    public static void main(String[] args) {        Spider.create(new GithubRepoPageProcessor()).addUrl("https://github.com/code4craft").thread(5).run();    }}

点击main方法,选择“运行”,你会发现爬虫已经可以正常工作了!

runlog

<div style="page-break-after:always"></div>

2.下载和编译源码

WebMagic是一个纯Java项目,如果你熟悉Maven,那么下载并编译源码是非常简单的。如果不熟悉Maven也没关系,这部分会介绍如何在Eclipse里导入这个项目。

2.1 下载源码

WebMagic目前有两个仓库:

github上的仓库保存最新版本,所有issue、pull request都在这里。大家觉得项目不错的话别忘了去给个star哦!

此仓库包含所有编译好的依赖包,只保存项目的稳定版本,最新版本仍在github上更新。oschina在国内比较稳定,主要作为镜像。

无论在哪个仓库,使用

git clone https://github.com/code4craft/webmagic.git

或者

git clone http://git.oschina.net/flashsword20/webmagic.git

即可下载最新代码。

如果你对git本身使用也不熟悉,建议看看@黄勇的

2.2 导入项目

Intellij Idea默认自带Maven支持,import项目时选择Maven项目即可。

2.2.1 使用m2e插件

使用Eclipse的用户,推荐安装m2e插件,安装地址:

安装后,在File->Import中选择Maven->Existing Maven Projects即可导入项目。

m2e-import

导入后看到项目选择界面,点击finish即可。

m2e-import2

2.2.2 使用Maven Eclipse插件

如果没有安装m2e插件,只要你安装了Maven,也是比较好办的。在项目根目录下使用命令:

mvn eclipse:eclipse

生成maven项目结构的eclipse配置文件,然后在File->Import中选择General->Existing Projects into Workspace即可导入项目。

eclipse-import-1

导入后看到项目选择界面,点击finish即可。

eclipse-import-2

2.3 编译和执行源码

导入成功之后,应该就没有编译错误了!此时你可以运行一下webmagic-core项目中自带的exmaple:"us.codecraft.webmagic.processor.example.GithubRepoPageProcessor"。

同样,看到控制台输出如下,则表示源码编译和执行成功了!

runlog

<div style="page-break-after:always"></div>

3. 基本的爬虫

3.1 实现PageProcessor

在WebMagic里,实现一个基本的爬虫只需要编写一个类,实现PageProcessor接口即可。这个类基本上包含了抓取一个网站,你需要写的所有代码。

以之前的GithubRepoPageProcessor为例,我将PageProcessor的定制分为三个部分:

public class GithubRepoPageProcessor implements PageProcessor {    // 部分一:抓取网站的相关配置,包括编码、抓取间隔、重试次数等    private Site site = Site.me().setRetryTimes(3).setSleepTime(1000);    @Override    // process是定制爬虫逻辑的核心接口,在这里编写抽取逻辑    public void process(Page page) {        // 部分二:定义如何抽取页面信息,并保存下来        page.putField("author", page.getUrl().regex("https://github\\.com/(\\w+)/.*").toString());        page.putField("name", page.getHtml().xpath("//h1[@class='entry-title public']/strong/a/text()").toString());        if (page.getResultItems().get("name") == null) {            //skip this page            page.setSkip(true);        }        page.putField("readme", page.getHtml().xpath("//div[@id='readme']/tidyText()"));        // 部分三:从页面发现后续的url地址来抓取        page.addTargetRequests(page.getHtml().links().regex("(https://github\\.com/\\w+/\\w+)").all());    }    @Override    public Site getSite() {        return site;    }    public static void main(String[] args) {        Spider.create(new GithubRepoPageProcessor())                //从"https://github.com/code4craft"开始抓                .addUrl("https://github.com/code4craft")                //开启5个线程抓取                .thread(5)                //启动爬虫                .run();    }}

3.1.1 爬虫的配置

第一部分关于爬虫的配置,包括编码、抓取间隔、超时时间、重试次数等,也包括一些模拟的参数,例如User Agent、cookie,以及代理的设置,我们会在第5章-“爬虫的配置”里进行介绍。在这里我们先简单设置一下:重试次数为3次,抓取间隔为一秒。

3.1.2 页面元素的抽取

第二部分是爬虫的核心部分:对于下载到的Html页面,你如何从中抽取到你想要的信息?WebMagic里主要使用了三种抽取技术:XPath、正则表达式和CSS选择器。

XPath本来是用于XML中获取元素的一种查询语言,但是用于Html也是比较方便的。例如:

page.getHtml().xpath("//h1[@class='entry-title public']/strong/a/text()")

这段代码使用了XPath,它的意思是“查找所有class属性为'entry-title public'的h1元素,并找到他的strong子节点的a子节点,并提取a节点的文本信息”。 对应的Html是这样子的:

xpath-html

CSS选择器是于XPath类似的语言。如果大家做过前端开发,肯定知道$('h1.entry-title')这种写法的含义。客观的说,它比XPath写起来要简单一些,但是如果写复杂一点的抽取规则,就相对要麻烦一点。

正则表达式则是一种通用的文本抽取语言。

page.addTargetRequests(page.getHtml().links().regex("(https://github\\.com/\\w+/\\w+)").all());

这段代码就用到了正则表达式,它表示匹配所有"

XPath、CSS选择器和正则表达式的具体用法我会在第4章“抽取工具详解”中讲到。

3.1.3 链接的发现

3.2 保存结果

4. 抽取工具详解

4.1 XPath

4.2 CSS选择器

4.3 正则表达式

4.4 JsonPath

5. 配置爬虫

5.1 抓取频率

5.2 编码

5.3 代理

5.4 设置cookie/UA等http头信息

5.5 重试机制

5.6 多线程

6. 爬虫的启动和终止

6.1 启动爬虫

6.2 终止爬虫

6.3 设置执行时间

6.4 定期抓取

7. 抽取结果的处理

7.1 输出到控制台

7.2 保存到文件

7.3 JSON格式输出

7.4 自定义持久化方式(mysql/mongodb…)

8. 管理URL

8.1 手动添加URL

8.2 在URL中保存信息

8.3 几种URL管理方式

8.4 自己管理爬虫的URL

9. 实例

9.1 基本的列表+详情页的抓取

9.2 抓取动态页面

9.3 分页抓取

9.4 定期抓取

转载于:https://my.oschina.net/flashsword/blog/193273

你可能感兴趣的文章
shell中变量的间接引用
查看>>
/var/目录下文件详解
查看>>
我的友情链接
查看>>
CentOS6.2+Kerio MailServer开源企业级邮件服务器
查看>>
Part07 - (图文)NSX系列之检查ESXi主机上VIBs的完整性
查看>>
ssh远程控制软件的应用
查看>>
二、lwip协议栈之telnet
查看>>
大家好
查看>>
谈谈Ext JS的组件——布局的使用方法
查看>>
python入门书籍
查看>>
雷林鹏分享:CodeIgniter文件上传错误:the filetype you are attempting to upload is not allowed...
查看>>
Alpha冲刺随笔集
查看>>
js call
查看>>
centos6.2-64位快速部署hadoop-1.0.4.tar.gz 和 jdk-7u17-linux-x64.tar.gz
查看>>
004-关闭文件后自动备份
查看>>
js实现当前导航菜单高亮显示
查看>>
Linux常用命令(二)--文件目录命令
查看>>
tomcat启动报错
查看>>
由《旧制度与大革命》提取的5个感触
查看>>
sqlserver 分页
查看>>