`

Heritrix 抓取 高级篇

阅读更多
使用Heritrix进行抓取网页,有半天阅读我之前博客的话,很容易就能够顺利的进行抓取任务,但在抓取过程中可能会遇到:
1 想抓取特定格式/特定要求 的网页
这个要根据具体的网站,才能采取具体的措施。这主要是根据网站编写的时候,它的出度的具体格式。如果是类似<a href="http://www.xxx.xxx.xx...." ..>这样的可以直接指向某个具体的URL,那么添加到URI中的应该是这个完整的URL,如果是去掉了http://www等的前面的内容,而只是简单指向本网站下的某个网页,那么在加入到URI中的时候,要记得加上头使得它是一个完整的网页的URL。根据CCER网站下的网页内容,自己写了个CCERExtractor.java来进行过滤,只抓取符合条件的URL。
package org.archive.crawler.extractor;

import java.io.IOException;
import java.util.regex.Matcher;
import java.util.regex.Pattern;

import org.apache.commons.httpclient.URIException;
import org.archive.crawler.datamodel.CrawlURI;
import org.archive.io.ReplayCharSequence;
import org.archive.util.HttpRecorder;

/**
 * I ignore the log information.
 * @author Administrator
 *
 */
public class CCERExtractor extends Extractor{
	
	/**
	 * if the url starts with http			----		if it is under http://www.pku.edu.cn, not then "not"
	 * else if matches mailto or javascript	----		"not"
	 * else									----		"yes"
	 */
	public static final String pattern_ahref = "<[aA] href=\"([^\"]+)\"";// group(1)
	
	public CCERExtractor(String name){
		super(name,"CCER Extractor");
	}
	
	public CCERExtractor(String name, String description) {
		super(name, description);
	}

	@Override
	protected void extract(CrawlURI curi) {
		HttpRecorder hr = curi.getHttpRecorder();
		ReplayCharSequence cs = null;
		try {
			cs = hr.getReplayCharSequence();
		} catch (IOException e) {
			e.printStackTrace();
		}
		if(cs == null){
			return;
		}
		
		String content = cs.toString();
		Matcher matcher = Pattern.compile(CCERExtractor.pattern_ahref).matcher(content);
		while(matcher.find()){
			String newUrl = matcher.group(1);
			if(newUrl.startsWith("http")){//find the ccer website
				if(newUrl.startsWith("http://www.pku.edu.cn")){// case 1 that matches
					createAndAddLinkRelativeToBase(curi, newUrl, Link.NAVLINK_HOP);
				}
			}else if(!newUrl.toLowerCase().startsWith("mailto") && !newUrl.toLowerCase().startsWith("javascript")){//case 2 that matches. Ignore the mailto and javascript href. 
				if(newUrl.trim().startsWith("/")){
					newUrl = newUrl.trim().substring(1).trim();
				}
				newUrl = "http://www.ccer.pku.edu.cn/cn/" + newUrl;//" http://www.ccer.pku.edu.cn/cn/ " should be added to the first
				createAndAddLinkRelativeToBase(curi, newUrl, Link.NAVLINK_HOP);// make sure that the newUrl is available.
			}
		}
	}

	private void createAndAddLinkRelativeToBase(CrawlURI curi, String newUrl, char hopType){
		try {
			curi.createAndAddLinkRelativeToBase(newUrl, "", hopType);
		} catch (URIException e) {
			e.printStackTrace();
		}
	}
}


在modules下的Processor.options下将这个新的解析器加入进去,那么在配置的时候便可以出现这个选项。但是必须注意:Crawler是严格按照配置的信息来进行抓取的,所以CCERExtractor必须在ExtractorHttp后面。在options里面的位置无所谓,只要放到extractor中即可,没有先后顺序。



2 单线程的困扰(我之前的博客http://hanyuanbo.iteye.com/blog/788177)

3 机器内存的限制(在run configuration中,设置VM-arguments为-Xmx512m。见附件)

4 robots.txt的限制
这个是“君子协定”的内容,如果不考虑这个限制的话,可以提高抓取的效率(虽然某些网站可能不希望你这样肆无忌惮的抓取它的网站)。这个很简单,只需要把
org.archive.crawler.prefetch.PreconditionEnforcer
中将
private boolean considerRobotsPreconditions(CrawlURI curi) {
         ...
}
改成
private boolean considerRobotsPreconditions(CrawlURI curi) {
        return false;//无论如何都不考虑robots.txt的限制
}

5 有时候配置的时候,那个可选项的下拉菜单没有了!!(在Heritrix的run configuration中,classpath中的user entries中选择右边的advanced,然后选择external folder,选择conf目录即可。见附件)


至此,便开始抓取啦,还是按照之前博客里所说的配置,记得在选择extractor的时候,选择CCERExtractor,并且这个要放在ExtractorHtml后面。抓取过程如下:









  • 大小: 100.3 KB
  • 大小: 40.3 KB
  • 大小: 130.3 KB
  • 大小: 78.6 KB
  • 大小: 92.1 KB
  • 大小: 90.7 KB
  • 大小: 56.6 KB
  • 大小: 187.7 KB
分享到:
评论

相关推荐

    heritrix抓取指南

    heritrix抓取指南heritrix抓取指南 heritrix抓取指南

    heritrix抓取的操作和扩展

    对heritrix抓取的操作和扩展 里面有MirrorWriterProcessor扩展的类文件修改

    Heritrix使用详解与高级开发应用

    Heritrix使用详解与高级开发应用 Heritrix开发应用详细

    web爬虫Heritrix.zip

    Heritrix是按多线程方式抓取的爬虫,主线程把任务分配给Teo线程(处理线程),每个Teo线程每次处理一个URL。Teo线程对每个URL执行一遍URL处理器链。URL处理器链包括如下5个处理步骤。整个流程都在图2.1中。 (1)预取链...

    Heritrix3手册翻译

    Heritrix User Manual https://webarchive.jira.com/wiki/display/Heritrix/Heritrix3 Heritrix3(或简称H3)指Heritrix的3.0发布。 目前官方的Heritrix 3.0.0版已经发布(2009年12月)。 后续的发行H3将是3.0.1...

    heritrix正确完整的配置heritrix正确完整的配置

    heritrix正确完整的配置heritrix正确完整的配置heritrix正确完整的配置heritrix正确完整的配置heritrix正确完整的配置

    Heritrix安装详细过程

    按照这个步骤安装绝对会让你安装成功的。步骤非常的清晰。Heritrix是一个不错的选择。网络爬虫,更快更好的帮你捕捉到你想要的网页

    heritrix 配置

    Heritrix 是一个由 java 开发的、开源的网络爬虫,用户可以使用它来从网上抓取想要的资源。其最出色之处在于它良好的可扩展性,方便用户实现自己的抓取逻辑。本文详细介绍了 Heritrix 在 Eclipse 中的配置、运行。

    网络爬虫Heritrix1.14.4可直接用

    在/Heritrix1/src/org/archive/crawler/Heritrix.java启动之后,访问https://localhost:8089登录admin密码admin直接用

    heritrix系统使用.ppt

    heritrix系统使用、一个ppt 介绍heritrix的基本概念、以及原理知识

    Heritrix(windows版)

    包含: heritrix-3.1.0-dist.zip heritrix-3.1.0-src.zip 官网下载地址。

    heritrix网络爬虫

    Heritrix是一个开源,可扩展的web爬虫项目。用户可以使用它来从网上抓取想要的资源。Heritrix设计成严格按照robots.txt文件的排除指示和META robots标签。其最出色之处在于它良好的可扩展性,方便用户实现自己的抓取...

    heritrix-3.4.0-SNAPSHOT-src.zip

    Heritrix 是一个由 java 开发的、开源的网络爬虫,用户可以使用它来从网上抓取想要的资源。官网下载好像要翻墙,我下下来方便大家使用,这是3.4版本,配合heritrix-3.4.0-SNAPSHOT-dist.zip使用

    Heritrix爬虫框架 完整版

    Heritrix 是一个由 java 开发的、开源的网络爬虫,用户可以使用它来从网上抓取想要的资源。其最出色之处在于它良好的可扩展性,方便用户实现自己的抓取逻辑

    heritrix-3.1.0 最新jar包

    heritrix-3.1.0 最新官网jar包。包括heritrix-3.1.0-dist.zip包与heritrix-3.1.0-src.zip包。是爬虫神器

    heritrix1.14.4源码包

    heritrix1.14.4的源码包,包含heritrix1.14.4.zip和heritrix1.14.4-src.zip。heritrix是一种开源的网络爬虫,用于爬去互联网中的网页。如何配置和使用heritrix爬虫,请移步:...

    heritrix源码

    heritrix学习源码和资料

    heritrix1.14.0jar包

    爬虫时我们会使用heritrix,搭建工程时要导入这些jar包,该jar包是1.14.0版本的。

    Heritrix—开发自己的搜索引擎

    开发自己的搜索引擎,Heritrix是一种网页抓取的有效工具

    heritrix-1.14.2.zip

    heritrix-1.14.2.zip是一个开源项目

Global site tag (gtag.js) - Google Analytics