Commit b44bd629 authored by Yihua Huang's avatar Yihua Huang

Set theme jekyll-theme-architect and migrate Page Generator content

parent 7274bbc4
title: Webmagic
description: 一个网络爬虫工具包
google_analytics: UA-41279861-1
show_downloads: true
theme: jekyll-theme-architect
gems:
- jekyll-mentions
<!doctype html>
<html>
<head>
<meta charset="utf-8">
<meta http-equiv="X-UA-Compatible" content="chrome=1">
<title>Webmagic by code4craft</title>
<link rel="stylesheet" href="stylesheets/styles.css">
<link rel="stylesheet" href="stylesheets/pygment_trac.css">
<script src="javascripts/scale.fix.js"></script>
<meta name="viewport" content="width=device-width, initial-scale=1, user-scalable=no">
<!--[if lt IE 9]>
<script src="//html5shiv.googlecode.com/svn/trunk/html5.js"></script>
<![endif]-->
</head>
<body>
<div class="wrapper">
<header>
<h1>Webmagic</h1>
<p>一个网络爬虫工具包</p>
<p class="view"><a href="https://github.com/code4craft/webmagic">View the Project on GitHub <small>code4craft/webmagic</small></a></p>
<ul>
<li><a href="https://github.com/code4craft/webmagic/zipball/master">Download <strong>ZIP File</strong></a></li>
<li><a href="https://github.com/code4craft/webmagic/tarball/master">Download <strong>TAR Ball</strong></a></li>
<li><a href="https://github.com/code4craft/webmagic">View On <strong>GitHub</strong></a></li>
</ul>
</header>
<section>
<blockquote>
<p>webmagic是一个开源的Java垂直爬虫框架,目标是简化爬虫的开发流程,让开发者专注于逻辑功能的开发。webmagic的核心非常简单,但是覆盖爬虫的整个流程,也是很好的学习爬虫开发的材料。作者曾经进行过一年的垂直爬虫的开发,webmagic就是为了解决爬虫开发的一些重复劳动而产生的框架。</p>
<p>web爬虫是一种技术,webmagic致力于将这种技术的实现成本降低,但是出于对资源提供者的尊重,webmagic不会做反封锁的事情,包括:验证码破解、代理切换、自动登录、抓取静态资源等。</p>
<p>webmagic的架构和设计参考了以下两个项目,感谢以下两个项目的作者:</p>
<p>python爬虫 <strong>scrapy</strong> <a href="https://github.com/scrapy/scrapy">https://github.com/scrapy/scrapy</a></p>
<p>Java爬虫 <strong>Spiderman</strong> <a href="https://gitcafe.com/laiweiwei/Spiderman">https://gitcafe.com/laiweiwei/Spiderman</a></p>
<p>webmagic遵循<a href="http://www.apache.org/licenses/LICENSE-2.0.html">Apache 2.0协议</a>,你可以自由进行使用和修改。有使用不便或者问题,欢迎在github<a href="https://github.com/code4craft/webmagic/issues">提交issue</a>,或者在<a href="http://www.oschina.net/question">oschina讨论模块</a>提问。</p>
</blockquote>
<div></div>
<h2>
<a name="%E5%BF%AB%E9%80%9F%E5%BC%80%E5%A7%8B" class="anchor" href="#%E5%BF%AB%E9%80%9F%E5%BC%80%E5%A7%8B"><span class="octicon octicon-link"></span></a>快速开始</h2>
<h3>
<a name="%E4%BD%BF%E7%94%A8maven" class="anchor" href="#%E4%BD%BF%E7%94%A8maven"><span class="octicon octicon-link"></span></a>使用maven</h3>
<p>webmagic使用maven管理依赖,你可以直接下载webmagic源码进行编译:</p>
<pre><code>git clone https://github.com/code4craft/webmagic.git
mvn clean install
</code></pre>
<p>安装后,在项目中添加对应的依赖即可使用webmagic:</p>
<pre><code> &lt;dependency&gt;
&lt;groupId&gt;us.codecraft&lt;/groupId&gt;
&lt;artifactId&gt;webmagic-core&lt;/artifactId&gt;
&lt;version&gt;0.2.0&lt;/version&gt;
&lt;/dependency&gt;
&lt;dependency&gt;
&lt;groupId&gt;us.codecraft&lt;/groupId&gt;
&lt;artifactId&gt;webmagic-extension&lt;/artifactId&gt;
&lt;version&gt;0.2.0&lt;/version&gt;
&lt;/dependency&gt;
</code></pre>
<h4>
<a name="%E9%A1%B9%E7%9B%AE%E7%BB%93%E6%9E%84" class="anchor" href="#%E9%A1%B9%E7%9B%AE%E7%BB%93%E6%9E%84"><span class="octicon octicon-link"></span></a>项目结构</h4>
<p>webmagic主要包括两个包:</p>
<ul>
<li>
<p><strong>webmagic-core</strong></p>
<p>webmagic核心部分,只包含爬虫基本模块和基本抽取器。webmagic-core的目标是成为网页爬虫的一个教科书般的实现。</p>
</li>
<li>
<p><strong>webmagic-extension</strong></p>
<p>webmagic的扩展模块,提供一些更方便的编写爬虫的工具。包括注解格式定义爬虫、JSON、分布式等支持。</p>
</li>
</ul><p>webmagic还包含两个可用的扩展包,因为这两个包都依赖了比较重量级的工具,所以从主要包中抽离出来:</p>
<ul>
<li>
<p><strong>webmagic-saxon</strong></p>
<p>webmagic与Saxon结合的模块。Saxon是一个XPath、XSLT的解析工具,webmagic依赖Saxon来进行XPath2.0语法解析支持。</p>
</li>
<li>
<p><strong>webmagic-selenium</strong></p>
<p>webmagic与Selenium结合的模块。Selenium是一个模拟浏览器进行页面渲染的工具,webmagic依赖Selenium进行动态页面的抓取。</p>
</li>
</ul><p>在项目中,你可以根据需要依赖不同的包。</p>
<h3>
<a name="%E4%B8%8D%E4%BD%BF%E7%94%A8maven" class="anchor" href="#%E4%B8%8D%E4%BD%BF%E7%94%A8maven"><span class="octicon octicon-link"></span></a>不使用maven</h3>
<<<<<<< HEAD
<p>不使用maven的用户,可以下载这个二进制打包版本(感谢<a href="http://www.oschina.net/">oschina</a>):</p>
=======
<p>不使用maven的用户,可以下载附带二进制jar包的版本(感谢<a href="http://www.oschina.net/">oschina</a>):</p>
>>>>>>> 3f4368cf780251a8d9fdd9da8cfff73e1190a637
<pre><code>git clone http://git.oschina.net/flashsword20/webmagic-bin.git
</code></pre>
<p>在**bin/lib**目录下,有项目依赖的所有jar包,直接在IDE里import即可。</p>
<h3>
<a name="%E7%AC%AC%E4%B8%80%E4%B8%AA%E7%88%AC%E8%99%AB" class="anchor" href="#%E7%AC%AC%E4%B8%80%E4%B8%AA%E7%88%AC%E8%99%AB"><span class="octicon octicon-link"></span></a>第一个爬虫</h3>
<h4>
<a name="%E5%AE%9A%E5%88%B6pageprocessor" class="anchor" href="#%E5%AE%9A%E5%88%B6pageprocessor"><span class="octicon octicon-link"></span></a>定制PageProcessor</h4>
<p>PageProcessor是webmagic-core的一部分,定制一个PageProcessor即可实现自己的爬虫逻辑。以下是抓取osc博客的一段代码:</p>
<pre><code>public class OschinaBlogPageProcesser implements PageProcessor {
private Site site = Site.me().setDomain("my.oschina.net")
.addStartUrl("http://my.oschina.net/flashsword/blog");
@Override
public void process(Page page) {
List&lt;String&gt; links = page.getHtml().links().regex("http://my\\.oschina\\.net/flashsword/blog/\\d+").all();
page.addTargetRequests(links);
page.putField("title", page.getHtml().xpath("//div[@class='BlogEntity']/div[@class='BlogTitle']/h1").toString());
page.putField("content", page.getHtml().$("div.content").toString());
page.putField("tags",page.getHtml().xpath("//div[@class='BlogTags']/a/text()").all());
}
@Override
public Site getSite() {
return site;
}
public static void main(String[] args) {
Spider.create(new OschinaBlogPageProcesser())
.pipeline(new ConsolePipeline()).run();
}
}
</code></pre>
<p>这里通过page.addTargetRequests()方法来增加要抓取的URL,并通过page.putField()来保存抽取结果。page.getHtml().xpath()则是按照某个规则对结果进行抽取,这里抽取支持链式调用。调用结束后,toString()表示转化为单个String,all()则转化为一个String列表。</p>
<p>Spider是爬虫的入口类。Pipeline是结果输出和持久化的接口,这里ConsolePipeline表示结果输出到控制台。</p>
<p>执行这个main方法,即可在控制台看到抓取结果。webmagic默认有3秒抓取间隔,请耐心等待。</p>
<h4>
<a name="%E4%BD%BF%E7%94%A8%E6%B3%A8%E8%A7%A3" class="anchor" href="#%E4%BD%BF%E7%94%A8%E6%B3%A8%E8%A7%A3"><span class="octicon octicon-link"></span></a>使用注解</h4>
<p>webmagic-extension包括了注解方式编写爬虫的方法,只需基于一个POJO增加注解即可完成一个爬虫。以下仍然是抓取oschina博客的一段代码,功能与OschinaBlogPageProcesser完全相同:</p>
<pre><code>@TargetUrl("http://my.oschina.net/flashsword/blog/\\d+")
public class OschinaBlog {
@ExtractBy("//title")
private String title;
@ExtractBy(value = "div.BlogContent",type = ExtractBy.Type.Css)
private String content;
@ExtractBy(value = "//div[@class='BlogTags']/a/text()", multi = true)
private List&lt;String&gt; tags;
public static void main(String[] args) {
OOSpider.create(
Site.me().addStartUrl("http://my.oschina.net/flashsword/blog"),
new ConsolePageModelPipeline(), OschinaBlog.class).run();
}
}
</code></pre>
<p>这个例子定义了一个Model类,Model类的字段'title'、'content'、'tags'均为要抽取的属性。这个类在Pipeline里是可以复用的。</p>
<p>注解的详细使用方式见后文中得webmagic-extension注解模块。</p>
<div></div>
<h2>
<a name="webmagic-core" class="anchor" href="#webmagic-core"><span class="octicon octicon-link"></span></a>webmagic-core</h2>
<p>webmagic-core是爬虫的核心框架,只包括一个爬虫各功能模块的核心功能。webmagic-core的目标是成为网页爬虫的一个教科书般的实现。</p>
<p>此节部分内容摘自作者的博文
<a href="http://my.oschina.net/flashsword/blog/145796">webmagic的设计机制及原理-如何开发一个Java爬虫</a></p>
<h3>
<a name="webmagic-core%E7%9A%84%E6%A8%A1%E5%9D%97%E5%88%92%E5%88%86" class="anchor" href="#webmagic-core%E7%9A%84%E6%A8%A1%E5%9D%97%E5%88%92%E5%88%86"><span class="octicon octicon-link"></span></a>webmagic-core的模块划分</h3>
<p>webmagic-core参考了scrapy的模块划分,分为Spider(整个爬虫的调度框架)、Downloader(页面下载)、PageProcessor(链接提取和页面分析)、Scheduler(URL管理)、Pipeline(离线分析和持久化)几部分。只不过scrapy通过middleware实现扩展,而webmagic则通过定义这几个接口,并将其不同的实现注入主框架类Spider来实现扩展。</p>
<p><img src="http://code4craft.github.io/images/posts/webmagic.png" alt="image"></p>
<div></div>
<h4>
<a name="spider%E7%B1%BB%E6%A0%B8%E5%BF%83%E8%B0%83%E5%BA%A6" class="anchor" href="#spider%E7%B1%BB%E6%A0%B8%E5%BF%83%E8%B0%83%E5%BA%A6"><span class="octicon octicon-link"></span></a>Spider类(核心调度)</h4>
<p><strong>Spider</strong>是爬虫的入口类,Spider的接口调用采用了链式的API设计,其他功能全部通过接口注入Spider实现,下面是启动一个比较复杂的Spider的例子。</p>
<pre><code>Spider.create(sinaBlogProcessor)
.scheduler(new FileCacheQueueScheduler("/data/temp/webmagic/cache/"))
.pipeline(new FilePipeline())
.thread(10).run();
</code></pre>
<p>Spider的核心处理流程非常简单,代码如下:</p>
<pre><code>&lt;!-- lang: java --&gt;
private void processRequest(Request request) {
Page page = downloader.download(request, this);
if (page == null) {
sleep(site.getSleepTime());
return;
}
pageProcessor.process(page);
addRequest(page);
for (Pipeline pipeline : pipelines) {
pipeline.process(page, this);
}
sleep(site.getSleepTime());
}
</code></pre>
<<<<<<< HEAD
=======
<p>Spider还包括一个方法test(String url),该方法只抓取一个单独的页面,用于测试抽取效果。</p>
>>>>>>> 3f4368cf780251a8d9fdd9da8cfff73e1190a637
<h4>
<a name="pageprocessor%E9%A1%B5%E9%9D%A2%E5%88%86%E6%9E%90%E5%8F%8A%E9%93%BE%E6%8E%A5%E6%8A%BD%E5%8F%96" class="anchor" href="#pageprocessor%E9%A1%B5%E9%9D%A2%E5%88%86%E6%9E%90%E5%8F%8A%E9%93%BE%E6%8E%A5%E6%8A%BD%E5%8F%96"><span class="octicon octicon-link"></span></a>PageProcessor(页面分析及链接抽取)</h4>
<p>页面分析是垂直爬虫中需要定制的部分。在webmagic-core里,通过实现**PageProcessor**接口来实现定制爬虫。PageProcessor有两个核心方法:public void process(Page page)和public Site getSite() 。</p>
<ul>
<li>
<p>public void process(Page page)</p>
<p>通过对**Page**对象的操作,实现爬虫逻辑。Page对象包括两个最重要的方法:addTargetRequests()可以添加URL到待抓取队列,put()可以将结果保存供后续处理。
Page的数据可以通过Page.getHtml()和Page.getUrl()获取。</p>
</li>
<li>
<p>public Site getSite()</p>
<p><strong>Site</strong>对象定义了爬虫的域名、起始地址、抓取间隔、编码等信息。</p>
</li>
</ul><p><strong>Selector</strong>是webmagic为了简化页面抽取开发的独立模块,是webmagic-core的主要着力点。这里整合了CSS Selector、XPath和正则表达式,并可以进行链式的抽取。</p>
<pre><code>&lt;!-- lang: java --&gt;
//content是用别的爬虫工具抽取到的正文
List&lt;String&gt; links = page.getHtml()
.$("div.title") //css 选择,Java里虽然很少有$符号出现,不过貌似$作为方法名是合法的
.xpath("//@href") //提取链接
.regex(".*blog.*") //正则匹配过滤
.all(); //转换为string列表
</code></pre>
<p>webmagic包括一个对于页面正文的自动抽取的类**SmartContentSelector**。相信用过Evernote Clearly都会对其自动抽取正文的技术印象深刻。这个技术又叫**Readability**。当然webmagic对Readability的实现还比较粗略,但是仍有一些学习价值。</p>
<p>基于Saxon,webmagic提供了XPath2.0语法的支持。XPath2.0语法支持内部函数、逻辑控制等,是一门完整的语言,如果你熟悉XPath2.0语法,倒是不妨一试(需要引入**webmagic-saxon**包)。</p>
<p><strong>webmagic-samples</strong>包里有一些为某个站点定制的PageProcessor,供学习之用。</p>
<h4>
<a name="downloader%E9%A1%B5%E9%9D%A2%E4%B8%8B%E8%BD%BD" class="anchor" href="#downloader%E9%A1%B5%E9%9D%A2%E4%B8%8B%E8%BD%BD"><span class="octicon octicon-link"></span></a>Downloader(页面下载)</h4>
<p><strong>Downloader</strong>是webmagic中下载页面的接口,主要方法:</p>
<ul>
<li>
<p>public Page download(Request request, Task task) </p>
<p><strong>Request</strong>对象封装了待抓取的URL及其他信息,而Page则包含了页面下载后的Html及其他信息。Task是一个包装了任务对应的Site信息的抽象接口。</p>
</li>
<li>
<p>public void setThread(int thread)</p>
<p>因为Downloader一般会涉及连接池等功能,而这些功能与多线程密切相关,所以定义了此方法。</p>
</li>
</ul><p>目前有几个Downloader的实现:</p>
<ul>
<li>
<p>HttpClientDownloader</p>
<p>集成了**Apache HttpClient**的Downloader。Apache HttpClient(4.0后整合到HttpCompenent项目中)是强大的Java http下载器,它支持自定义HTTP头(对于爬虫比较有用的就是User-agent、cookie等)、自动redirect、连接复用、cookie保留、设置代理等诸多强大的功能。</p>
</li>
<li>
<p>SeleniumDownloader</p>
<p>对于一些Javascript动态加载的网页,仅仅使用http模拟下载工具,并不能取到页面的内容。这方面的思路有两种:一种是抽丝剥茧,分析js的逻辑,再用爬虫去重现它;另一种就是:内置一个浏览器,直接获取最后加载完的页面。**webmagic-selenium**包中整合了Selenium到SeleniumDownloader,可以直接进行动态加载页面的抓取。使用selenium需要安装一些native的工具,具体步骤可以参考作者的博文<a href="http://my.oschina.net/flashsword/blog/147334">使用Selenium来抓取动态加载的页面</a></p>
</li>
</ul><h4>
<a name="schedulerurl%E7%AE%A1%E7%90%86" class="anchor" href="#schedulerurl%E7%AE%A1%E7%90%86"><span class="octicon octicon-link"></span></a>Scheduler(URL管理)</h4>
<p><strong>Scheduler</strong>是webmagic的管理模块,通过实现Scheduler可以定制自己的URL管理器。Scheduler包括两个主要方法:</p>
<ul>
<li>
<p>public void push(Request request,Task task)</p>
<p>将待抓取URL加入Scheduler。Request对象是对URL的一个封装,还包括优先级、以及一个供存储数据的Map。Task仍然用于区分不同任务,在多个任务公用一个Scheduler时可以此进行区分。</p>
</li>
<li>
<p>public Request poll(Task task)</p>
<p>从Scheduler里取出一条请求,并进行后续执行。</p>
</li>
</ul><p>webmagic目前有三个Scheduler的实现:</p>
<ul>
<li>
<p>QueueScheduler</p>
<p>一个简单的内存队列,速度较快,并且是线程安全的。</p>
</li>
<li>
<p>FileCacheQueueScheduler</p>
<p>使用文件保存队列,它可以用于耗时较长的下载任务,在任务中途停止后(手动停止或者程序崩溃),下次执行仍然从中止的URL开始继续爬取。</p>
</li>
<li>
<p>RedisScheduler</p>
<p>使用redis存储URL队列。通过使用同一台redis服务器存储URL,webmagic可以很容易的在多机部署,从而达到分布式爬虫的效果。</p>
</li>
</ul><h4>
<a name="pipeline%E5%90%8E%E7%BB%AD%E5%A4%84%E7%90%86%E5%92%8C%E6%8C%81%E4%B9%85%E5%8C%96" class="anchor" href="#pipeline%E5%90%8E%E7%BB%AD%E5%A4%84%E7%90%86%E5%92%8C%E6%8C%81%E4%B9%85%E5%8C%96"><span class="octicon octicon-link"></span></a>Pipeline(后续处理和持久化)</h4>
<p><strong>Pipeline</strong>是最终抽取结果进行输出和持久化的接口。它只包括一个方法:</p>
<ul>
<li>
<p>public void process(ResultItems resultItems,Task task)</p>
<p><strong>ResultItems</strong>是集成了抽取结果的对象。通过ResultItems.get(key)可以获取抽取结果。Task同样是用于区分不同任务的对象。</p>
</li>
</ul><p>webmagic包括以下几个Pipeline的实现:</p>
<ul>
<li>
<p>ConsolePipeline</p>
<p>直接输出结果到控制台,测试时使用。</p>
</li>
<li>
<p>FilePipeline</p>
<p>输出结果到文件,每个URL单独保存到一个页面,以URL的MD5结果作为文件名。通过构造函数<code>public FilePipeline(String path)</code>定义存储路径,**以下使用文件持久化的类,多数都使用此方法指定路径**。</p>
</li>
<li>
<p>JsonFilePipeline</p>
<p>以JSON输出结果到文件(.json后缀),其他与FilePipeline相同。</p>
</li>
</ul><p>webmagic目前不支持持久化到数据库,但是结合其他工具,持久化到数据库也是很容易的。这里不妨看一下<a href="http://www.oschina.net/code/snippet_190591_23456">webmagic结合JFinal持久化到数据库的一段代码</a>。因为JFinal目前还不支持maven,所以这段代码并没有放到webmagic-samples里来。</p>
<div></div>
<h2>
<a name="webmagic-extension" class="anchor" href="#webmagic-extension"><span class="octicon octicon-link"></span></a>webmagic-extension</h2>
<p>webmagic-extension是为了开发爬虫更方便而实现的一些功能模块。这些功能完全基于webmagic-core的框架,包括注解形式编写爬虫、分页、分布式等功能。</p>
<h3>
<a name="%E6%B3%A8%E8%A7%A3%E6%A8%A1%E5%9D%97" class="anchor" href="#%E6%B3%A8%E8%A7%A3%E6%A8%A1%E5%9D%97"><span class="octicon octicon-link"></span></a>注解模块</h3>
<p>webmagic-extension包括注解模块。为什么会有注解方式?</p>
<p>因为PageProcessor的方式灵活、强大,但是没有解决两个问题:</p>
<ul>
<li>对于一个站点,如果想抓取多种格式的URL,那么必须在PageProcesser中写判断逻辑,代码难以管理。</li>
<li>抓取结果没有对应Model,并不符合Java程序开发习惯,与一些框架也无法很好整合。</li>
</ul><p>注解的核心是Model类,本身是一个POJO,这个Model类用于传递、保存页面最终抓取结果数据。注解方式直接将抽取与数据绑定,以便于编写和维护。</p>
<p>注解方式其实也是通过一个PageProcessor的实现--ModelPageProcessor完成,因此对webmagic-core代码没有任何影响。仍然以抓取OschinaBlog的程序为例:</p>
<pre><code>@TargetUrl("http://my.oschina.net/flashsword/blog/\\d+")
public class OschinaBlog {
@ExtractBy("//title")
private String title;
@ExtractBy(value = "div.BlogContent",type = ExtractBy.Type.Css)
private String content;
@ExtractBy(value = "//div[@class='BlogTags']/a/text()", multi = true)
private List&lt;String&gt; tags;
public static void main(String[] args) {
OOSpider.create(
Site.me().addStartUrl("http://my.oschina.net/flashsword/blog"),
new ConsolePageModelPipeline(), OschinaBlog.class).run();
}
}
</code></pre>
<p>注解部分包括以下内容:</p>
<ul>
<li>
<h4>
<a name="targeturl" class="anchor" href="#targeturl"><span class="octicon octicon-link"></span></a>TargetUrl</h4>
<p>"TargetUrl"表示这个Model对应要抓取的URL,它包含两层意思:符合这个条件的URL会被加入抓取队列;符合这个条件的URL会被这个Model抓取。TargetUrl可以**sourceRegion**指定提取URL的区域(仅支持XPath)。</p>
<p>TargetUrl使用了正则表达式,匹配 "<a href="http://my.oschina.net/flashsword/blog/150039">http://my.oschina.net/flashsword/blog/150039</a>" 格式的URL。webmagic对正则表达式进行了修改,"."仅表示字符"."而不代表任意字符,而"*"则代表了".*",例如"http://*.oschina.net/*"代表了oschina所有的二级域名下的URL。</p>
<p>与TargetUrl相似的还有**HelpUrl**,HelpUrl表示:仅仅抓取该URL用作链接提取,并不对它进行内容抽取。例如博客正文页对应TargetUrl,而列表页则对应HelpUrl。</p>
</li>
<li>
<h4>
<a name="extractby" class="anchor" href="#extractby"><span class="octicon octicon-link"></span></a>ExtractBy</h4>
<ul>
<li>
<h4>
<a name="%E7%94%A8%E4%BA%8E%E5%AD%97%E6%AE%B5" class="anchor" href="#%E7%94%A8%E4%BA%8E%E5%AD%97%E6%AE%B5"><span class="octicon octicon-link"></span></a>用于字段</h4>
<p>"ExtractBy"可用于类以及字段。用于字段时,定义了字段抽取的规则。抽取的规则默认使用<a href="http://www.w3school.com.cn/xpath/"><strong>XPath</strong></a>,也可以选择使用CSS Selector、正则表达式(通过设置type)。</p>
<p>ExtractBy还有几个扩展属性。**multi**表示是否抽取列表,当然,设置为multi时,你需要一个List字段去容纳它。**notnull**则表示,此字段不允许为null,若为null则放弃整个对象。</p>
</li>
<li>
<h4>
<a name="%E7%94%A8%E4%BA%8E%E7%B1%BB" class="anchor" href="#%E7%94%A8%E4%BA%8E%E7%B1%BB"><span class="octicon octicon-link"></span></a>用于类</h4>
<p>"ExtractBy"用于类时,则限定了字段抽取的区域。用于类时仍支持multi,multi则表示一个页面可以抽取到多个对象。</p>
</li>
<li>
<h4>
<a name="extractbyraw--extractbyurl" class="anchor" href="#extractbyraw--extractbyurl"><span class="octicon octicon-link"></span></a>ExtractByRaw &amp; ExtractByUrl</h4>
<p>在类使用"ExtractBy"修饰后,字段的"ExtractBy"使用的是其抽取的结果,如果仍然想要抽取原HTML,可以使用"ExtractByRaw"。与此类似的还有"ExtractByUrl",表示从URL中抽取信息。ExtractByUrl只支持正则表达式。</p>
</li>
<li>
<h4>
<a name="extractby2-extractby3" class="anchor" href="#extractby2-extractby3"><span class="octicon octicon-link"></span></a>ExtractBy2 ExtractBy3</h4>
<p>"ExtractBy"、"ExtractByRaw"支持链式抽取,通过增加注解"ExtractBy2"、"ExtractBy3"实现。</p>
</li>
</ul>
</li>
<li>
<h4>
<a name="afterextractor" class="anchor" href="#afterextractor"><span class="octicon octicon-link"></span></a>AfterExtractor</h4>
<p>AfterExtractor接口是对注解方式抽取能力不足的补充。实现AfterExtractor接口后,会在**使用注解方式填充完字段后**调用**afterProcess()**方法,在这个方法中可以直接访问已抽取的字段、补充需要抽取的字段,甚至做一些简单的输出和持久化操作(并不是很建议这么做)。这部分可以参考<a href="http://www.oschina.net/code/snippet_190591_23456">webmagic结合JFinal持久化到数据库的一段代码</a></p>
</li>
<li>
<h4>
<a name="oospider" class="anchor" href="#oospider"><span class="octicon octicon-link"></span></a>OOSpider</h4>
<p>OOSpider是注解式爬虫的入口,这里调用**create()**方法将OschinaBlog这个类加入到爬虫的抽取中,这里是可以传入多个类的,例如:</p>
<pre><code>OOSpider.create(
Site.me().addStartUrl("http://www.oschina.net"),
new ConsolePageModelPipeline(),
OschinaBlog.clas,OschinaAnswer.class).run();
</code></pre>
<p>OOSpider会根据TargetUrl调用不同的Model进行解析。</p>
</li>
<li>
<h4>
<a name="pagemodelpipeline" class="anchor" href="#pagemodelpipeline"><span class="octicon octicon-link"></span></a>PageModelPipeline</h4>
<<<<<<< HEAD
<p>可以通过定义PageModelPipeline来选择结果输出方式。这里new ConsolePageModelPipeline()是PageModelPipeline的一个实现,会将结果输出到控制台。
PageModelPipeline还有一个实现**JsonFilePageModelPipeline**,可以将对象持久化以JSON格式输出,并持久化到文件。JsonFilePageModelPipeline默认使用对象的MD5值作为文件名,你可以在Model中实现HasKey接口,指定输出的文件名。</p>
=======
<p>可以通过定义PageModelPipeline来选择结果输出方式。这里new ConsolePageModelPipeline()是PageModelPipeline的一个实现,会将结果输出到控制台。</p>
>>>>>>> 3f4368cf780251a8d9fdd9da8cfff73e1190a637
</li>
<li>
<h4>
<a name="%E5%88%86%E9%A1%B5" class="anchor" href="#%E5%88%86%E9%A1%B5"><span class="octicon octicon-link"></span></a>分页</h4>
<p>处理单项数据分页(例如单条新闻多个页面)是爬虫一个比较头疼的问题。webmagic目前对于分页的解决方案是:在注解模式下,Model通过实现**PagedModel**接口,并引入PagedPipeline作为第一个Pipeline来实现。具体可以参考webmagic-samples中抓取网易新闻的代码:**us.codecraft.webmagic.model.samples.News163**。</p>
<p>关于分页,这里有一篇对于webmagic分页实现的详细说明的文章<a href="http://my.oschina.net/flashsword/blog/150039">关于爬虫实现分页的一些思考</a>
<<<<<<< HEAD
目前分页功能还没有分布式实现,如果使用RedisScheduler进行分布式爬取,请不要使用分页功能。</p>
=======
目前分页功能还没有分布式实现,如果实现RedisScheduler进行分布式爬取,请不要使用分页功能。</p>
>>>>>>> 3f4368cf780251a8d9fdd9da8cfff73e1190a637
</li>
</ul><h3>
<a name="%E5%88%86%E5%B8%83%E5%BC%8F" class="anchor" href="#%E5%88%86%E5%B8%83%E5%BC%8F"><span class="octicon octicon-link"></span></a>分布式</h3>
<p>webmagic-extension中,通过redis来管理URL,达到分布式的效果。但是对于分布式爬虫,仅仅程序能够分布式运行,还满足不了大规模抓取的需要,webmagic可能后期会加入一些任务管理和监控的功能,也欢迎各位用户为webmagic提交代码,做出贡献。</p>
<<<<<<< HEAD
<h3>
<a name="%E6%9B%B4%E8%BF%9B%E4%B8%80%E6%AD%A5" class="anchor" href="#%E6%9B%B4%E8%BF%9B%E4%B8%80%E6%AD%A5"><span class="octicon octicon-link"></span></a>更进一步</h3>
<p>如果这篇文档仍然满足不了你的需要,你可以阅读webmagic的<a href="http://code4craft.github.io/webmagic/docs/">Javadoc</a>,或者直接阅读源码。</p>
=======
>>>>>>> 3f4368cf780251a8d9fdd9da8cfff73e1190a637
</section>
</div>
<footer>
<p>Project maintained by <a href="https://github.com/code4craft">code4craft</a></p>
<p>Hosted on GitHub Pages &mdash; Theme by <a href="https://github.com/orderedlist">orderedlist</a></p>
</footer>
<!--[if !IE]><script>fixScale(document);</script><![endif]-->
<script type="text/javascript">
var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www.");
document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/javascript'%3E%3C/script%3E"));
</script>
<script type="text/javascript">
try {
var pageTracker = _gat._getTracker("UA-41279861-1");
pageTracker._trackPageview();
} catch(err) {}
</script>
</body>
</html>
\ No newline at end of file
>webmagic是一个开源的Java垂直爬虫框架,目标是简化爬虫的开发流程,让开发者专注于逻辑功能的开发。webmagic的核心非常简单,但是覆盖爬虫的整个流程,也是很好的学习爬虫开发的材料。作者曾经进行过一年的垂直爬虫的开发,webmagic就是为了解决爬虫开发的一些重复劳动而产生的框架。
>web爬虫是一种技术,webmagic致力于将这种技术的实现成本降低,但是出于对资源提供者的尊重,webmagic不会做反封锁的事情,包括:验证码破解、代理切换、自动登录、抓取静态资源等。
>webmagic的架构和设计参考了以下两个项目,感谢以下两个项目的作者:
>python爬虫 **scrapy** [https://github.com/scrapy/scrapy](https://github.com/scrapy/scrapy)
>Java爬虫 **Spiderman** [https://gitcafe.com/laiweiwei/Spiderman](https://gitcafe.com/laiweiwei/Spiderman)
>webmagic遵循[Apache 2.0协议](http://www.apache.org/licenses/LICENSE-2.0.html),你可以自由进行使用和修改。有使用不便或者问题,欢迎在github[提交issue](https://github.com/code4craft/webmagic/issues),或者在[oschina讨论模块](http://www.oschina.net/question)提问。
<div style="page-break-after:always"></div>
## 快速开始
### 使用maven
webmagic使用maven管理依赖,你可以直接下载webmagic源码进行编译:
git clone https://github.com/code4craft/webmagic.git
mvn clean install
安装后,在项目中添加对应的依赖即可使用webmagic:
<dependency>
<groupId>us.codecraft</groupId>
<artifactId>webmagic-core</artifactId>
<version>0.2.0</version>
</dependency>
<dependency>
<groupId>us.codecraft</groupId>
<artifactId>webmagic-extension</artifactId>
<version>0.2.0</version>
</dependency>
#### 项目结构
webmagic主要包括两个包:
* **webmagic-core**
webmagic核心部分,只包含爬虫基本模块和基本抽取器。webmagic-core的目标是成为网页爬虫的一个教科书般的实现。
* **webmagic-extension**
webmagic的扩展模块,提供一些更方便的编写爬虫的工具。包括注解格式定义爬虫、JSON、分布式等支持。
webmagic还包含两个可用的扩展包,因为这两个包都依赖了比较重量级的工具,所以从主要包中抽离出来:
* **webmagic-saxon**
webmagic与Saxon结合的模块。Saxon是一个XPath、XSLT的解析工具,webmagic依赖Saxon来进行XPath2.0语法解析支持。
* **webmagic-selenium**
webmagic与Selenium结合的模块。Selenium是一个模拟浏览器进行页面渲染的工具,webmagic依赖Selenium进行动态页面的抓取。
在项目中,你可以根据需要依赖不同的包。
### 不使用maven
不使用maven的用户,可以下载这个二进制打包版本(感谢[oschina](http://www.oschina.net/)):
git clone http://git.oschina.net/flashsword20/webmagic-bin.git
**bin/lib**目录下,有项目依赖的所有jar包,直接在IDE里import即可。
### 第一个爬虫
#### 定制PageProcessor
PageProcessor是webmagic-core的一部分,定制一个PageProcessor即可实现自己的爬虫逻辑。以下是抓取osc博客的一段代码:
public class OschinaBlogPageProcesser implements PageProcessor {
private Site site = Site.me().setDomain("my.oschina.net")
.addStartUrl("http://my.oschina.net/flashsword/blog");
@Override
public void process(Page page) {
List<String> links = page.getHtml().links().regex("http://my\\.oschina\\.net/flashsword/blog/\\d+").all();
page.addTargetRequests(links);
page.putField("title", page.getHtml().xpath("//div[@class='BlogEntity']/div[@class='BlogTitle']/h1").toString());
page.putField("content", page.getHtml().$("div.content").toString());
page.putField("tags",page.getHtml().xpath("//div[@class='BlogTags']/a/text()").all());
}
@Override
public Site getSite() {
return site;
}
public static void main(String[] args) {
Spider.create(new OschinaBlogPageProcesser())
.pipeline(new ConsolePipeline()).run();
}
}
这里通过page.addTargetRequests()方法来增加要抓取的URL,并通过page.putField()来保存抽取结果。page.getHtml().xpath()则是按照某个规则对结果进行抽取,这里抽取支持链式调用。调用结束后,toString()表示转化为单个String,all()则转化为一个String列表。
Spider是爬虫的入口类。Pipeline是结果输出和持久化的接口,这里ConsolePipeline表示结果输出到控制台。
执行这个main方法,即可在控制台看到抓取结果。webmagic默认有3秒抓取间隔,请耐心等待。
#### 使用注解
webmagic-extension包括了注解方式编写爬虫的方法,只需基于一个POJO增加注解即可完成一个爬虫。以下仍然是抓取oschina博客的一段代码,功能与OschinaBlogPageProcesser完全相同:
@TargetUrl("http://my.oschina.net/flashsword/blog/\\d+")
public class OschinaBlog {
@ExtractBy("//title")
private String title;
@ExtractBy(value = "div.BlogContent",type = ExtractBy.Type.Css)
private String content;
@ExtractBy(value = "//div[@class='BlogTags']/a/text()", multi = true)
private List<String> tags;
public static void main(String[] args) {
OOSpider.create(
Site.me().addStartUrl("http://my.oschina.net/flashsword/blog"),
new ConsolePageModelPipeline(), OschinaBlog.class).run();
}
}
这个例子定义了一个Model类,Model类的字段'title'、'content'、'tags'均为要抽取的属性。这个类在Pipeline里是可以复用的。
注解的详细使用方式见后文中得webmagic-extension注解模块。
<div style="page-break-after:always"></div>
## webmagic-core
webmagic-core是爬虫的核心框架,只包括一个爬虫各功能模块的核心功能。webmagic-core的目标是成为网页爬虫的一个教科书般的实现。
此节部分内容摘自作者的博文
[webmagic的设计机制及原理-如何开发一个Java爬虫](http://my.oschina.net/flashsword/blog/145796)
### webmagic-core的模块划分
webmagic-core参考了scrapy的模块划分,分为Spider(整个爬虫的调度框架)、Downloader(页面下载)、PageProcessor(链接提取和页面分析)、Scheduler(URL管理)、Pipeline(离线分析和持久化)几部分。只不过scrapy通过middleware实现扩展,而webmagic则通过定义这几个接口,并将其不同的实现注入主框架类Spider来实现扩展。
![image](http://code4craft.github.io/images/posts/webmagic.png)
<div style="page-break-after:always"></div>
#### Spider类(核心调度)
**Spider**是爬虫的入口类,Spider的接口调用采用了链式的API设计,其他功能全部通过接口注入Spider实现,下面是启动一个比较复杂的Spider的例子。
Spider.create(sinaBlogProcessor)
.scheduler(new FileCacheQueueScheduler("/data/temp/webmagic/cache/"))
.pipeline(new FilePipeline())
.thread(10).run();
Spider的核心处理流程非常简单,代码如下:
<!-- lang: java -->
private void processRequest(Request request) {
Page page = downloader.download(request, this);
if (page == null) {
sleep(site.getSleepTime());
return;
}
pageProcessor.process(page);
addRequest(page);
for (Pipeline pipeline : pipelines) {
pipeline.process(page, this);
}
sleep(site.getSleepTime());
}
#### PageProcessor(页面分析及链接抽取)
页面分析是垂直爬虫中需要定制的部分。在webmagic-core里,通过实现**PageProcessor**接口来实现定制爬虫。PageProcessor有两个核心方法:public void process(Page page)和public Site getSite() 。
* public void process(Page page)
通过对**Page**对象的操作,实现爬虫逻辑。Page对象包括两个最重要的方法:addTargetRequests()可以添加URL到待抓取队列,put()可以将结果保存供后续处理。
Page的数据可以通过Page.getHtml()和Page.getUrl()获取。
* public Site getSite()
**Site**对象定义了爬虫的域名、起始地址、抓取间隔、编码等信息。
**Selector**是webmagic为了简化页面抽取开发的独立模块,是webmagic-core的主要着力点。这里整合了CSS Selector、XPath和正则表达式,并可以进行链式的抽取。
<!-- lang: java -->
//content是用别的爬虫工具抽取到的正文
List<String> links = page.getHtml()
.$("div.title") //css 选择,Java里虽然很少有$符号出现,不过貌似$作为方法名是合法的
.xpath("//@href") //提取链接
.regex(".*blog.*") //正则匹配过滤
.all(); //转换为string列表
webmagic包括一个对于页面正文的自动抽取的类**SmartContentSelector**。相信用过Evernote Clearly都会对其自动抽取正文的技术印象深刻。这个技术又叫**Readability**。当然webmagic对Readability的实现还比较粗略,但是仍有一些学习价值。
基于Saxon,webmagic提供了XPath2.0语法的支持。XPath2.0语法支持内部函数、逻辑控制等,是一门完整的语言,如果你熟悉XPath2.0语法,倒是不妨一试(需要引入**webmagic-saxon**包)。
**webmagic-samples**包里有一些为某个站点定制的PageProcessor,供学习之用。
#### Downloader(页面下载)
**Downloader**是webmagic中下载页面的接口,主要方法:
* public Page download(Request request, Task task)
**Request**对象封装了待抓取的URL及其他信息,而Page则包含了页面下载后的Html及其他信息。Task是一个包装了任务对应的Site信息的抽象接口。
* public void setThread(int thread)
因为Downloader一般会涉及连接池等功能,而这些功能与多线程密切相关,所以定义了此方法。
目前有几个Downloader的实现:
* HttpClientDownloader
集成了**Apache HttpClient**的Downloader。Apache HttpClient(4.0后整合到HttpCompenent项目中)是强大的Java http下载器,它支持自定义HTTP头(对于爬虫比较有用的就是User-agent、cookie等)、自动redirect、连接复用、cookie保留、设置代理等诸多强大的功能。
* SeleniumDownloader
对于一些Javascript动态加载的网页,仅仅使用http模拟下载工具,并不能取到页面的内容。这方面的思路有两种:一种是抽丝剥茧,分析js的逻辑,再用爬虫去重现它;另一种就是:内置一个浏览器,直接获取最后加载完的页面。**webmagic-selenium**包中整合了Selenium到SeleniumDownloader,可以直接进行动态加载页面的抓取。使用selenium需要安装一些native的工具,具体步骤可以参考作者的博文[使用Selenium来抓取动态加载的页面](http://my.oschina.net/flashsword/blog/147334)
#### Scheduler(URL管理)
**Scheduler**是webmagic的管理模块,通过实现Scheduler可以定制自己的URL管理器。Scheduler包括两个主要方法:
* public void push(Request request,Task task)
将待抓取URL加入Scheduler。Request对象是对URL的一个封装,还包括优先级、以及一个供存储数据的Map。Task仍然用于区分不同任务,在多个任务公用一个Scheduler时可以此进行区分。
* public Request poll(Task task)
从Scheduler里取出一条请求,并进行后续执行。
webmagic目前有三个Scheduler的实现:
* QueueScheduler
一个简单的内存队列,速度较快,并且是线程安全的。
* FileCacheQueueScheduler
使用文件保存队列,它可以用于耗时较长的下载任务,在任务中途停止后(手动停止或者程序崩溃),下次执行仍然从中止的URL开始继续爬取。
* RedisScheduler
使用redis存储URL队列。通过使用同一台redis服务器存储URL,webmagic可以很容易的在多机部署,从而达到分布式爬虫的效果。
#### Pipeline(后续处理和持久化)
**Pipeline**是最终抽取结果进行输出和持久化的接口。它只包括一个方法:
* public void process(ResultItems resultItems,Task task)
**ResultItems**是集成了抽取结果的对象。通过ResultItems.get(key)可以获取抽取结果。Task同样是用于区分不同任务的对象。
webmagic包括以下几个Pipeline的实现:
* ConsolePipeline
直接输出结果到控制台,测试时使用。
* FilePipeline
输出结果到文件,每个URL单独保存到一个页面,以URL的MD5结果作为文件名。通过构造函数`public FilePipeline(String path)`定义存储路径,**以下使用文件持久化的类,多数都使用此方法指定路径**
* JsonFilePipeline
以JSON输出结果到文件(.json后缀),其他与FilePipeline相同。
webmagic目前不支持持久化到数据库,但是结合其他工具,持久化到数据库也是很容易的。这里不妨看一下[webmagic结合JFinal持久化到数据库的一段代码](http://www.oschina.net/code/snippet_190591_23456)。因为JFinal目前还不支持maven,所以这段代码并没有放到webmagic-samples里来。
<div style="page-break-after:always"></div>
## webmagic-extension
webmagic-extension是为了开发爬虫更方便而实现的一些功能模块。这些功能完全基于webmagic-core的框架,包括注解形式编写爬虫、分页、分布式等功能。
### 注解模块
webmagic-extension包括注解模块。为什么会有注解方式?
因为PageProcessor的方式灵活、强大,但是没有解决两个问题:
* 对于一个站点,如果想抓取多种格式的URL,那么必须在PageProcesser中写判断逻辑,代码难以管理。
* 抓取结果没有对应Model,并不符合Java程序开发习惯,与一些框架也无法很好整合。
注解的核心是Model类,本身是一个POJO,这个Model类用于传递、保存页面最终抓取结果数据。注解方式直接将抽取与数据绑定,以便于编写和维护。
注解方式其实也是通过一个PageProcessor的实现--ModelPageProcessor完成,因此对webmagic-core代码没有任何影响。仍然以抓取OschinaBlog的程序为例:
@TargetUrl("http://my.oschina.net/flashsword/blog/\\d+")
public class OschinaBlog {
@ExtractBy("//title")
private String title;
@ExtractBy(value = "div.BlogContent",type = ExtractBy.Type.Css)
private String content;
@ExtractBy(value = "//div[@class='BlogTags']/a/text()", multi = true)
private List<String> tags;
public static void main(String[] args) {
OOSpider.create(
Site.me().addStartUrl("http://my.oschina.net/flashsword/blog"),
new ConsolePageModelPipeline(), OschinaBlog.class).run();
}
}
注解部分包括以下内容:
* #### TargetUrl
"TargetUrl"表示这个Model对应要抓取的URL,它包含两层意思:符合这个条件的URL会被加入抓取队列;符合这个条件的URL会被这个Model抓取。TargetUrl可以**sourceRegion**指定提取URL的区域(仅支持XPath)。
TargetUrl使用了正则表达式,匹配 "http://my.oschina.net/flashsword/blog/150039" 格式的URL。webmagic对正则表达式进行了修改,"."仅表示字符"."而不代表任意字符,而"\*"则代表了".\*",例如"http://\*.oschina.net/\*"代表了oschina所有的二级域名下的URL。
与TargetUrl相似的还有**HelpUrl**,HelpUrl表示:仅仅抓取该URL用作链接提取,并不对它进行内容抽取。例如博客正文页对应TargetUrl,而列表页则对应HelpUrl。
* #### ExtractBy
* #### 用于字段
"ExtractBy"可用于类以及字段。用于字段时,定义了字段抽取的规则。抽取的规则默认使用[**XPath**](http://www.w3school.com.cn/xpath/),也可以选择使用CSS Selector、正则表达式(通过设置type)。
ExtractBy还有几个扩展属性。**multi**表示是否抽取列表,当然,设置为multi时,你需要一个List字段去容纳它。**notnull**则表示,此字段不允许为null,若为null则放弃整个对象。
* #### 用于类
"ExtractBy"用于类时,则限定了字段抽取的区域。用于类时仍支持multi,multi则表示一个页面可以抽取到多个对象。
* #### ExtractByRaw & ExtractByUrl
在类使用"ExtractBy"修饰后,字段的"ExtractBy"使用的是其抽取的结果,如果仍然想要抽取原HTML,可以使用"ExtractByRaw"。与此类似的还有"ExtractByUrl",表示从URL中抽取信息。ExtractByUrl只支持正则表达式。
* #### ExtractBy2 ExtractBy3
"ExtractBy"、"ExtractByRaw"支持链式抽取,通过增加注解"ExtractBy2"、"ExtractBy3"实现。
* #### AfterExtractor
AfterExtractor接口是对注解方式抽取能力不足的补充。实现AfterExtractor接口后,会在**使用注解方式填充完字段后**调用**afterProcess()**方法,在这个方法中可以直接访问已抽取的字段、补充需要抽取的字段,甚至做一些简单的输出和持久化操作(并不是很建议这么做)。这部分可以参考[webmagic结合JFinal持久化到数据库的一段代码](http://www.oschina.net/code/snippet_190591_23456)
* #### OOSpider
OOSpider是注解式爬虫的入口,这里调用**create()**方法将OschinaBlog这个类加入到爬虫的抽取中,这里是可以传入多个类的,例如:
OOSpider.create(
Site.me().addStartUrl("http://www.oschina.net"),
new ConsolePageModelPipeline(),
OschinaBlog.clas,OschinaAnswer.class).run();
OOSpider会根据TargetUrl调用不同的Model进行解析。
* #### PageModelPipeline
可以通过定义PageModelPipeline来选择结果输出方式。这里new ConsolePageModelPipeline()是PageModelPipeline的一个实现,会将结果输出到控制台。
PageModelPipeline还有一个实现**JsonFilePageModelPipeline**,可以将对象持久化以JSON格式输出,并持久化到文件。JsonFilePageModelPipeline默认使用对象的MD5值作为文件名,你可以在Model中实现HasKey接口,指定输出的文件名。
* #### 分页
处理单项数据分页(例如单条新闻多个页面)是爬虫一个比较头疼的问题。webmagic目前对于分页的解决方案是:在注解模式下,Model通过实现**PagedModel**接口,并引入PagedPipeline作为第一个Pipeline来实现。具体可以参考webmagic-samples中抓取网易新闻的代码:**us.codecraft.webmagic.model.samples.News163**
关于分页,这里有一篇对于webmagic分页实现的详细说明的文章[关于爬虫实现分页的一些思考](http://my.oschina.net/flashsword/blog/150039)
目前分页功能还没有分布式实现,如果使用RedisScheduler进行分布式爬取,请不要使用分页功能。
### 分布式
webmagic-extension中,通过redis来管理URL,达到分布式的效果。但是对于分布式爬虫,仅仅程序能够分布式运行,还满足不了大规模抓取的需要,webmagic可能后期会加入一些任务管理和监控的功能,也欢迎各位用户为webmagic提交代码,做出贡献。
### 更进一步
如果这篇文档仍然满足不了你的需要,你可以阅读webmagic的[Javadoc](http://code4craft.github.io/webmagic/docs/),或者直接阅读源码。
\ No newline at end of file
{"name":"Webmagic","tagline":"一个网络爬虫工具包","body":">webmagic是一个开源的Java垂直爬虫框架,目标是简化爬虫的开发流程,让开发者专注于逻辑功能的开发。webmagic的核心非常简单,但是覆盖爬虫的整个流程,也是很好的学习爬虫开发的材料。作者曾经进行过一年的垂直爬虫的开发,webmagic就是为了解决爬虫开发的一些重复劳动而产生的框架。\r\n\r\n>web爬虫是一种技术,webmagic致力于将这种技术的实现成本降低,但是出于对资源提供者的尊重,webmagic不会做反封锁的事情,包括:验证码破解、代理切换、自动登录、抓取静态资源等。\r\n\r\n>webmagic的架构和设计参考了以下两个项目,感谢以下两个项目的作者:\r\n\r\n>python爬虫 **scrapy** [https://github.com/scrapy/scrapy](https://github.com/scrapy/scrapy)\r\n\r\n>Java爬虫 **Spiderman** [https://gitcafe.com/laiweiwei/Spiderman](https://gitcafe.com/laiweiwei/Spiderman)\r\n\r\n>webmagic遵循[Apache 2.0协议](http://www.apache.org/licenses/LICENSE-2.0.html),你可以自由进行使用和修改。有使用不便或者问题,欢迎在github[提交issue](https://github.com/code4craft/webmagic/issues),或者在[oschina讨论模块](http://www.oschina.net/question)提问。\r\n\r\n<div style=\"page-break-after:always\"></div>\r\n\r\n\r\n## 快速开始\r\n\r\n### 使用maven\r\n\r\nwebmagic使用maven管理依赖,你可以直接下载webmagic源码进行编译:\r\n\r\n\tgit clone https://github.com/code4craft/webmagic.git\r\n\tmvn clean install\r\n\r\n安装后,在项目中添加对应的依赖即可使用webmagic:\r\n\r\n\t\t<dependency>\r\n <groupId>us.codecraft</groupId>\r\n <artifactId>webmagic-core</artifactId>\r\n <version>0.2.0</version>\r\n </dependency>\r\n\t\t<dependency>\r\n <groupId>us.codecraft</groupId>\r\n <artifactId>webmagic-extension</artifactId>\r\n <version>0.2.0</version>\r\n </dependency>\r\n\r\n#### 项目结构\r\n\t\r\nwebmagic主要包括两个包:\r\n\r\n* **webmagic-core**\r\n\t\r\n\twebmagic核心部分,只包含爬虫基本模块和基本抽取器。webmagic-core的目标是成为网页爬虫的一个教科书般的实现。\r\n\t\r\n* **webmagic-extension**\r\n\t\r\n\twebmagic的扩展模块,提供一些更方便的编写爬虫的工具。包括注解格式定义爬虫、JSON、分布式等支持。\r\n\t\r\nwebmagic还包含两个可用的扩展包,因为这两个包都依赖了比较重量级的工具,所以从主要包中抽离出来:\r\n\r\n* **webmagic-saxon**\r\n\r\n\twebmagic与Saxon结合的模块。Saxon是一个XPath、XSLT的解析工具,webmagic依赖Saxon来进行XPath2.0语法解析支持。\r\n\r\n* **webmagic-selenium**\r\n\r\n\twebmagic与Selenium结合的模块。Selenium是一个模拟浏览器进行页面渲染的工具,webmagic依赖Selenium进行动态页面的抓取。\r\n\t\r\n在项目中,你可以根据需要依赖不同的包。\r\n\r\n### 不使用maven\r\n\r\n不使用maven的用户,可以下载这个二进制打包版本(感谢[oschina](http://www.oschina.net/)):\r\n\r\n\tgit clone http://git.oschina.net/flashsword20/webmagic-bin.git\r\n\r\n在**bin/lib**目录下,有项目依赖的所有jar包,直接在IDE里import即可。\r\n\r\n### 第一个爬虫\r\n\r\n#### 定制PageProcessor\r\n\r\nPageProcessor是webmagic-core的一部分,定制一个PageProcessor即可实现自己的爬虫逻辑。以下是抓取osc博客的一段代码:\r\n\r\n public class OschinaBlogPageProcesser implements PageProcessor {\r\n\r\n private Site site = Site.me().setDomain(\"my.oschina.net\")\r\n .addStartUrl(\"http://my.oschina.net/flashsword/blog\");\r\n\r\n @Override\r\n public void process(Page page) {\r\n List<String> links = page.getHtml().links().regex(\"http://my\\\\.oschina\\\\.net/flashsword/blog/\\\\d+\").all();\r\n page.addTargetRequests(links);\r\n page.putField(\"title\", page.getHtml().xpath(\"//div[@class='BlogEntity']/div[@class='BlogTitle']/h1\").toString());\r\n page.putField(\"content\", page.getHtml().$(\"div.content\").toString());\r\n page.putField(\"tags\",page.getHtml().xpath(\"//div[@class='BlogTags']/a/text()\").all());\r\n }\r\n\r\n @Override\r\n public Site getSite() {\r\n return site;\r\n\r\n }\r\n\r\n public static void main(String[] args) {\r\n Spider.create(new OschinaBlogPageProcesser())\r\n .pipeline(new ConsolePipeline()).run();\r\n }\r\n }\r\n\r\n这里通过page.addTargetRequests()方法来增加要抓取的URL,并通过page.putField()来保存抽取结果。page.getHtml().xpath()则是按照某个规则对结果进行抽取,这里抽取支持链式调用。调用结束后,toString()表示转化为单个String,all()则转化为一个String列表。\r\n\r\nSpider是爬虫的入口类。Pipeline是结果输出和持久化的接口,这里ConsolePipeline表示结果输出到控制台。\r\n\r\n执行这个main方法,即可在控制台看到抓取结果。webmagic默认有3秒抓取间隔,请耐心等待。\r\n\r\n#### 使用注解\r\n\r\nwebmagic-extension包括了注解方式编写爬虫的方法,只需基于一个POJO增加注解即可完成一个爬虫。以下仍然是抓取oschina博客的一段代码,功能与OschinaBlogPageProcesser完全相同:\r\n\r\n\t@TargetUrl(\"http://my.oschina.net/flashsword/blog/\\\\d+\")\r\n\tpublic class OschinaBlog {\r\n\r\n\t @ExtractBy(\"//title\")\r\n\t private String title;\r\n\r\n\t @ExtractBy(value = \"div.BlogContent\",type = ExtractBy.Type.Css)\r\n\t private String content;\r\n\r\n\t @ExtractBy(value = \"//div[@class='BlogTags']/a/text()\", multi = true)\r\n\t private List<String> tags;\r\n\r\n\t public static void main(String[] args) {\r\n\t OOSpider.create(\r\n\t \tSite.me().addStartUrl(\"http://my.oschina.net/flashsword/blog\"),\r\n\t\t\t\tnew ConsolePageModelPipeline(), OschinaBlog.class).run();\r\n\t }\r\n\t}\r\n\r\n这个例子定义了一个Model类,Model类的字段'title'、'content'、'tags'均为要抽取的属性。这个类在Pipeline里是可以复用的。\r\n\r\n注解的详细使用方式见后文中得webmagic-extension注解模块。\r\n\r\n<div style=\"page-break-after:always\"></div>\r\n\r\n\r\n## webmagic-core\r\n\r\nwebmagic-core是爬虫的核心框架,只包括一个爬虫各功能模块的核心功能。webmagic-core的目标是成为网页爬虫的一个教科书般的实现。\r\n\r\n此节部分内容摘自作者的博文\r\n[webmagic的设计机制及原理-如何开发一个Java爬虫](http://my.oschina.net/flashsword/blog/145796)。\r\n\r\n### webmagic-core的模块划分\r\n\r\nwebmagic-core参考了scrapy的模块划分,分为Spider(整个爬虫的调度框架)、Downloader(页面下载)、PageProcessor(链接提取和页面分析)、Scheduler(URL管理)、Pipeline(离线分析和持久化)几部分。只不过scrapy通过middleware实现扩展,而webmagic则通过定义这几个接口,并将其不同的实现注入主框架类Spider来实现扩展。\r\n\r\n![image](http://code4craft.github.io/images/posts/webmagic.png)\r\n<div style=\"page-break-after:always\"></div>\r\n\r\n#### Spider类(核心调度)\r\n\r\n**Spider**是爬虫的入口类,Spider的接口调用采用了链式的API设计,其他功能全部通过接口注入Spider实现,下面是启动一个比较复杂的Spider的例子。\r\n\r\n Spider.create(sinaBlogProcessor)\r\n\t.scheduler(new FileCacheQueueScheduler(\"/data/temp/webmagic/cache/\"))\r\n\t.pipeline(new FilePipeline())\r\n\t.thread(10).run();\t\r\n\r\n\r\nSpider的核心处理流程非常简单,代码如下:\r\n\r\n <!-- lang: java -->\r\n private void processRequest(Request request) {\r\n Page page = downloader.download(request, this);\r\n if (page == null) {\r\n sleep(site.getSleepTime());\r\n return;\r\n }\r\n pageProcessor.process(page);\r\n addRequest(page);\r\n for (Pipeline pipeline : pipelines) {\r\n pipeline.process(page, this);\r\n }\r\n sleep(site.getSleepTime());\r\n }\r\n \r\n#### PageProcessor(页面分析及链接抽取)\r\n\r\n页面分析是垂直爬虫中需要定制的部分。在webmagic-core里,通过实现**PageProcessor**接口来实现定制爬虫。PageProcessor有两个核心方法:public void process(Page page)和public Site getSite() 。\r\n\r\n* public void process(Page page)\r\n\r\n\t通过对**Page**对象的操作,实现爬虫逻辑。Page对象包括两个最重要的方法:addTargetRequests()可以添加URL到待抓取队列,put()可以将结果保存供后续处理。\r\n\tPage的数据可以通过Page.getHtml()和Page.getUrl()获取。\r\n\r\n* public Site getSite()\r\n\t\r\n\t**Site**对象定义了爬虫的域名、起始地址、抓取间隔、编码等信息。\r\n\r\n**Selector**是webmagic为了简化页面抽取开发的独立模块,是webmagic-core的主要着力点。这里整合了CSS Selector、XPath和正则表达式,并可以进行链式的抽取。\r\n\t\t\r\n <!-- lang: java -->\r\n //content是用别的爬虫工具抽取到的正文\r\n List<String> links = page.getHtml()\r\n .$(\"div.title\") //css 选择,Java里虽然很少有$符号出现,不过貌似$作为方法名是合法的\r\n .xpath(\"//@href\") //提取链接\r\n .regex(\".*blog.*\") //正则匹配过滤\r\n .all(); //转换为string列表\r\n\r\nwebmagic包括一个对于页面正文的自动抽取的类**SmartContentSelector**。相信用过Evernote Clearly都会对其自动抽取正文的技术印象深刻。这个技术又叫**Readability**。当然webmagic对Readability的实现还比较粗略,但是仍有一些学习价值。\r\n\r\n基于Saxon,webmagic提供了XPath2.0语法的支持。XPath2.0语法支持内部函数、逻辑控制等,是一门完整的语言,如果你熟悉XPath2.0语法,倒是不妨一试(需要引入**webmagic-saxon**包)。\r\n\r\n**webmagic-samples**包里有一些为某个站点定制的PageProcessor,供学习之用。\r\n\r\n#### Downloader(页面下载)\r\n\r\n**Downloader**是webmagic中下载页面的接口,主要方法:\r\n\r\n* public Page download(Request request, Task task) \r\n\t\r\n\t**Request**对象封装了待抓取的URL及其他信息,而Page则包含了页面下载后的Html及其他信息。Task是一个包装了任务对应的Site信息的抽象接口。\r\n\t\r\n* public void setThread(int thread)\r\n\t\r\n\t因为Downloader一般会涉及连接池等功能,而这些功能与多线程密切相关,所以定义了此方法。\r\n\r\n目前有几个Downloader的实现:\r\n\r\n* HttpClientDownloader\r\n\t\r\n\t集成了**Apache HttpClient**的Downloader。Apache HttpClient(4.0后整合到HttpCompenent项目中)是强大的Java http下载器,它支持自定义HTTP头(对于爬虫比较有用的就是User-agent、cookie等)、自动redirect、连接复用、cookie保留、设置代理等诸多强大的功能。\r\n\r\n* SeleniumDownloader\r\n\t\r\n\t对于一些Javascript动态加载的网页,仅仅使用http模拟下载工具,并不能取到页面的内容。这方面的思路有两种:一种是抽丝剥茧,分析js的逻辑,再用爬虫去重现它;另一种就是:内置一个浏览器,直接获取最后加载完的页面。**webmagic-selenium**包中整合了Selenium到SeleniumDownloader,可以直接进行动态加载页面的抓取。使用selenium需要安装一些native的工具,具体步骤可以参考作者的博文[使用Selenium来抓取动态加载的页面](http://my.oschina.net/flashsword/blog/147334)\r\n\r\n#### Scheduler(URL管理)\r\n\r\n**Scheduler**是webmagic的管理模块,通过实现Scheduler可以定制自己的URL管理器。Scheduler包括两个主要方法:\r\n\r\n* public void push(Request request,Task task)\r\n\t\r\n\t将待抓取URL加入Scheduler。Request对象是对URL的一个封装,还包括优先级、以及一个供存储数据的Map。Task仍然用于区分不同任务,在多个任务公用一个Scheduler时可以此进行区分。\r\n\r\n* public Request poll(Task task)\r\n\t\r\n\t从Scheduler里取出一条请求,并进行后续执行。\r\n\r\nwebmagic目前有三个Scheduler的实现:\r\n\r\n* QueueScheduler\r\n\t\r\n\t一个简单的内存队列,速度较快,并且是线程安全的。\r\n\t\r\n* FileCacheQueueScheduler\r\n\t\r\n\t使用文件保存队列,它可以用于耗时较长的下载任务,在任务中途停止后(手动停止或者程序崩溃),下次执行仍然从中止的URL开始继续爬取。\r\n\t\r\n* RedisScheduler\r\n\t\r\n\t使用redis存储URL队列。通过使用同一台redis服务器存储URL,webmagic可以很容易的在多机部署,从而达到分布式爬虫的效果。\r\n\r\n#### Pipeline(后续处理和持久化)\r\n\r\n**Pipeline**是最终抽取结果进行输出和持久化的接口。它只包括一个方法:\r\n\r\n* public void process(ResultItems resultItems,Task task)\r\n\t\r\n\t**ResultItems**是集成了抽取结果的对象。通过ResultItems.get(key)可以获取抽取结果。Task同样是用于区分不同任务的对象。\r\n\t\r\nwebmagic包括以下几个Pipeline的实现:\r\n\r\n* ConsolePipeline\r\n\t\r\n\t直接输出结果到控制台,测试时使用。\r\n\t\r\n* FilePipeline\r\n\t\r\n\t输出结果到文件,每个URL单独保存到一个页面,以URL的MD5结果作为文件名。通过构造函数`public FilePipeline(String path)`定义存储路径,**以下使用文件持久化的类,多数都使用此方法指定路径**。\r\n\t\r\n* JsonFilePipeline\r\n\t\r\n\t以JSON输出结果到文件(.json后缀),其他与FilePipeline相同。\r\n\r\nwebmagic目前不支持持久化到数据库,但是结合其他工具,持久化到数据库也是很容易的。这里不妨看一下[webmagic结合JFinal持久化到数据库的一段代码](http://www.oschina.net/code/snippet_190591_23456)。因为JFinal目前还不支持maven,所以这段代码并没有放到webmagic-samples里来。\r\n\r\n<div style=\"page-break-after:always\"></div>\r\n\r\n## webmagic-extension\r\n\r\nwebmagic-extension是为了开发爬虫更方便而实现的一些功能模块。这些功能完全基于webmagic-core的框架,包括注解形式编写爬虫、分页、分布式等功能。\r\n\r\n### 注解模块\r\n\r\nwebmagic-extension包括注解模块。为什么会有注解方式?\r\n\r\n因为PageProcessor的方式灵活、强大,但是没有解决两个问题:\r\n\r\n* 对于一个站点,如果想抓取多种格式的URL,那么必须在PageProcesser中写判断逻辑,代码难以管理。\r\n* 抓取结果没有对应Model,并不符合Java程序开发习惯,与一些框架也无法很好整合。\r\n\r\n注解的核心是Model类,本身是一个POJO,这个Model类用于传递、保存页面最终抓取结果数据。注解方式直接将抽取与数据绑定,以便于编写和维护。\r\n\r\n注解方式其实也是通过一个PageProcessor的实现--ModelPageProcessor完成,因此对webmagic-core代码没有任何影响。仍然以抓取OschinaBlog的程序为例:\r\n\r\n\t@TargetUrl(\"http://my.oschina.net/flashsword/blog/\\\\d+\")\r\n\tpublic class OschinaBlog {\r\n\r\n\t @ExtractBy(\"//title\")\r\n\t private String title;\r\n\r\n\t @ExtractBy(value = \"div.BlogContent\",type = ExtractBy.Type.Css)\r\n\t private String content;\r\n\r\n\t @ExtractBy(value = \"//div[@class='BlogTags']/a/text()\", multi = true)\r\n\t private List<String> tags;\r\n\r\n\t public static void main(String[] args) {\r\n\t OOSpider.create(\r\n\t \tSite.me().addStartUrl(\"http://my.oschina.net/flashsword/blog\"),\r\n\t\t\t\tnew ConsolePageModelPipeline(), OschinaBlog.class).run();\r\n\t }\r\n\t}\r\n\r\n注解部分包括以下内容:\r\n\r\n* #### TargetUrl\r\n\r\n\t\"TargetUrl\"表示这个Model对应要抓取的URL,它包含两层意思:符合这个条件的URL会被加入抓取队列;符合这个条件的URL会被这个Model抓取。TargetUrl可以**sourceRegion**指定提取URL的区域(仅支持XPath)。\r\n\t\r\n\tTargetUrl使用了正则表达式,匹配 \"http://my.oschina.net/flashsword/blog/150039\" 格式的URL。webmagic对正则表达式进行了修改,\".\"仅表示字符\".\"而不代表任意字符,而\"\\*\"则代表了\".\\*\",例如\"http://\\*.oschina.net/\\*\"代表了oschina所有的二级域名下的URL。\r\n\t\r\n\t与TargetUrl相似的还有**HelpUrl**,HelpUrl表示:仅仅抓取该URL用作链接提取,并不对它进行内容抽取。例如博客正文页对应TargetUrl,而列表页则对应HelpUrl。\r\n\r\n* #### ExtractBy\t\r\n\r\n\t* #### 用于字段\r\n\r\n\t\t\"ExtractBy\"可用于类以及字段。用于字段时,定义了字段抽取的规则。抽取的规则默认使用[**XPath**](http://www.w3school.com.cn/xpath/),也可以选择使用CSS Selector、正则表达式(通过设置type)。\r\n\t\r\n\t\tExtractBy还有几个扩展属性。**multi**表示是否抽取列表,当然,设置为multi时,你需要一个List字段去容纳它。**notnull**则表示,此字段不允许为null,若为null则放弃整个对象。\r\n\r\n\t* #### 用于类\t\r\n\t\t\r\n\t\t\"ExtractBy\"用于类时,则限定了字段抽取的区域。用于类时仍支持multi,multi则表示一个页面可以抽取到多个对象。\r\n\r\n\t* #### ExtractByRaw & ExtractByUrl\r\n\t\r\n\t\t在类使用\"ExtractBy\"修饰后,字段的\"ExtractBy\"使用的是其抽取的结果,如果仍然想要抽取原HTML,可以使用\"ExtractByRaw\"。与此类似的还有\"ExtractByUrl\",表示从URL中抽取信息。ExtractByUrl只支持正则表达式。\r\n\r\n\t* #### ExtractBy2 ExtractBy3\t\r\n\t\t\r\n\t\t\"ExtractBy\"\"ExtractByRaw\"支持链式抽取,通过增加注解\"ExtractBy2\"\"ExtractBy3\"实现。\r\n\t\t\r\n* #### AfterExtractor\r\n\r\n\tAfterExtractor接口是对注解方式抽取能力不足的补充。实现AfterExtractor接口后,会在**使用注解方式填充完字段后**调用**afterProcess()**方法,在这个方法中可以直接访问已抽取的字段、补充需要抽取的字段,甚至做一些简单的输出和持久化操作(并不是很建议这么做)。这部分可以参考[webmagic结合JFinal持久化到数据库的一段代码](http://www.oschina.net/code/snippet_190591_23456)。\r\n\r\n* #### OOSpider\r\n\t\r\n\tOOSpider是注解式爬虫的入口,这里调用**create()**方法将OschinaBlog这个类加入到爬虫的抽取中,这里是可以传入多个类的,例如:\r\n\t\r\n\t\tOOSpider.create(\r\n\t\t\tSite.me().addStartUrl(\"http://www.oschina.net\"),\r\n\t\t\tnew ConsolePageModelPipeline(),\r\n\t\t\tOschinaBlog.clas,OschinaAnswer.class).run();\r\n\t\t\r\n\tOOSpider会根据TargetUrl调用不同的Model进行解析。\r\n\r\n* #### PageModelPipeline\r\n\t\r\n\t可以通过定义PageModelPipeline来选择结果输出方式。这里new ConsolePageModelPipeline()是PageModelPipeline的一个实现,会将结果输出到控制台。\r\n\tPageModelPipeline还有一个实现**JsonFilePageModelPipeline**,可以将对象持久化以JSON格式输出,并持久化到文件。JsonFilePageModelPipeline默认使用对象的MD5值作为文件名,你可以在Model中实现HasKey接口,指定输出的文件名。\r\n\t\r\n* #### 分页\r\n\r\n\t处理单项数据分页(例如单条新闻多个页面)是爬虫一个比较头疼的问题。webmagic目前对于分页的解决方案是:在注解模式下,Model通过实现**PagedModel**接口,并引入PagedPipeline作为第一个Pipeline来实现。具体可以参考\u001Dwebmagic-samples中抓取网易新闻的代码:**us.codecraft.webmagic.model.samples.News163**。\r\n\t\r\n\t关于分页,这里有一篇对于webmagic分页实现的详细说明的文章[关于爬虫实现分页的一些思考](http://my.oschina.net/flashsword/blog/150039)。\r\n\t目前分页功能还没有分布式实现,如果使用RedisScheduler进行分布式爬取,请不要使用分页功能。\r\n\t\r\n### 分布式\r\n\r\nwebmagic-extension中,通过redis来管理URL,达到分布式的效果。但是对于分布式爬虫,仅仅程序能够分布式运行,还满足不了大规模抓取的需要,webmagic可能后期会加入一些任务管理和监控的功能,也欢迎各位用户为webmagic提交代码,做出贡献。\r\n\t\r\n### 更进一步\r\n\r\n如果这篇文档仍然满足不了你的需要,你可以阅读webmagic的[Javadoc](http://code4craft.github.io/webmagic/docs/),或者直接阅读源码。","google":"UA-41279861-1","note":"Don't delete this file! It's used internally to help with page regeneration."}
\ No newline at end of file
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment