Nutch 深入浅出-程序员宅基地

技术标签: Java开发学习  

首先了解一下什么是Nutch。

    Nutch是一个开源Java实现的搜索引擎。它提供了我们运行自己的搜索引擎所需的全部工具。包括全文搜索和Web爬虫。


Nutch的组成:
    爬虫crawler和查询searcher。Crawler主要用于从网络上抓取网页并为这些网页建立索引。Searcher主要利用这些索引检索用户的查找关键词来产生查找结果。两者之间的接口是索引,所以除去索引部分,两者之间的耦合度很低。

    Crawler和Searcher两部分尽量分开的目的主要是为了使两部分可以分布式配置在硬件平台上,例如将Crawler和Searcher分别放在两个主机上,这样可以提升性能


Nutch的目标:

Nutch 致力于让每个人能很容易,同时花费很少就可以配置世界一流的Web搜索引擎。为了完成这个宏伟的目标,nutch必须能够做到:
• 每个月取几十亿网页
• 为这些网页维护一个索引
• 对搜引文件进行每秒上千次的搜索
• 提供高质量的搜索结果
• 以最小的成本运作

这将是一个巨大的挑战


Nutch的安装:

首先获取nutch2.3

wget https://archive.apache.org/dist/nutch/2.3/apache-nutch-2.3-src.tar.gz

解压nutch 2.3

tar -zxvf apache-nutch-2.3-src.tar.gz

重名字nutch

mv apache-nutch-2.3 nutch


 nutch的配置:

第一步:进入conf/nutch-site.xml

<!-- 指定gora 后端 ,指定存储位置为Hbase-->
<property>
     <name>storage.data.store.class</name>
     <value>org.apache.gora.hbase.store.HBaseStore</value>
     <description>Default class for storing data</description>
</property> 

<!-- 指定nutch插件 -->
<property>
      <name>plugin.includes</name> 
<value>protocol-httpclient|urlfilter-regex|index-(basic|more)|
query-(basic|site|url|lang)|indexer-solr|nutch-extensionpoints|
protocol-httpclient|urlfilter-regex|parse-(text|html|msexcel|msword
|mspowerpoint|pdf)|summary-basic|scoring-opic|urlnormalizer-(pass
|regex|basic)protocol-http|urlfilter-regex|parse-(html|tika|metatags)
|index-(basic|anchor|more|metadata)</value>
</property>
第二步:进入ivy/ivy.xml
<!--取消这个批注,使用hbase做为gora的后端 -->
<dependency org="org.apache.gora" name="gora-hbase" 
   rev="0.5" conf="*->default" />
第三步:进入 conf/gora.properties增加如下一行
<--将HbaseStore设为默认的存储 -->
gora.datastore.default=org.apache.gora.hbase.store.HBaseStore

第四步:进入nutch 的目录下

监测ant的版本输入ant –version

输入ant runtime 命令

这个命令将构建你的apache nutch,在nutch的家目录下面将创建相应的目录(runtime)。这个步骤是必须的,因为nutch2.3仅仅作为源码进行了发布。所有的目录里面最重要的是runtime,包含了所有需要爬行的脚本

ant之后:

第五步:进入runtime/local/conf中,打开nutch-site,加入Http代理的名字。

<property>
   <name>http.agent.name</name>
   <value>My Nutch Spider</value>
</property>
<!--同时指定gora后端,以及指定插件。
<property>
      <name>storage.data.store.class</name>
       <value>org.apache.gora.hbase.store.HBaseStore</value>
        <description>Default class for storing data</description>
</property>

<!-- 指定nutch插件 -->
<property>
      <name>plugin.includes</name> <value>protocol-httpclient|urlfilter-regex|index-(basic|more)|query-(basic|site|url|lang)|indexer-solr|nutch-extensionpoints|protocol-httpclient|urlfilter-regex|parse-(text|html|msexcel|msword|mspowerpoint|pdf)|summary-basic|scoring-opic|urlnormalizer-(pass|regex|basic)protocol-http|urlfilter-regex|parse-(html|tika|metatags)|index-(basic|anchor|more|metadata)</value>
</property>
第六步:

在 runtime/local目录下,创建一个urls目录。
mkdir urls
进入urls目录
vi seed.txt
在seed.txt中加入需要抓取的网址。
第七步:

测试:前提是在你的本机上已经安装好了Solr

bin/crawl <seedDir> <crawlID> <solrURL><numberOfRounds>

bin/crawl urls/seed.txt alan http://192.168.14.151:8983/solr/  2 


Nutch抓取过程:


1) 建立初始 URL 集 
2) 将 URL 集注入 crawldb 数据库---inject 

crawldb中存放的是url地址,第一次根据所给url::http://blog.csdn.net/shuaigexiaobo/进行注入,然后updatecrawldb 保存第一次抓取的url地址,下一次即depth=2的时候就会从crawldb中获取新的url地址集,进行新一轮的抓取。

crawldb中有两个文件夹:current 和old. current就是当前url地址集,old是上一次的一个备份。每一次生成新的,都会把原来的改为old。


3) 根据 crawldb 数据库创建抓取列表---generate 
4) 执行抓取,获取网页信息---fetch

5) 解析抓取的内容---parse segment  
6) 更新数据库,把获取到的页面信息存入数据库中---updatedb 
7) 重复进行 3~5 的步骤,直到预先设定的抓取深度。

     ---这个循环过程被称为“产生/抓取/更新”循环 
8) 根据 sengments 的内容更新 linkdb 数据库---invertlinks 

可以看到,一个segment包括以下子目录(多是二进制格式):

content:包含每个抓取页面的内容

crawl_fetch:包含每个抓取页面的状态 
crawl_generate:包含所抓取的网址列表 
crawl_parse:包含网址的外部链接地址,用于更新crawldb数据库 
parse_data:包含每个页面的外部链接和元数据 
parse_text:包含每个抓取页面的解析文本

 

每个文件的生成时间

1.crawl_generate在Generator的时候生成; 
2.content,crawl_fetch在Fetcher的时候生成; 
3.crawl_parse,parse_data,parse_text在Parse segment的时候生成。

 

linkdb: 链接数据库,用来存储每个网址的链接地址,包括源地址和链接地址。


9) 建立索引---index

感谢:http://www.cnblogs.com/huligong1234/p/3515214.html


Nutch的 过滤

在Nutch的conf目录中有automaton-urlfilter.txt、regex-urlfilter.txt、suffix-urlfilter.txt、prefix-urlfilter.txt、domain-urlfilter.txt几个文件用于实现过滤抓取数据,比如不抓取后缀为gif、exe的文件等,通过修改其中的值可以达到只抓取感兴趣的内容的目的,在一定程度上也有助于提高抓取速度。

在抓取过程中,这几个文件不是都起作用的,默认情况下只有regex-urlfilter.txt会达到过滤目的,这一点可以从Nutch-default.xml确认。在进行过滤规则的修改之前,先说明Nutch的过滤器原理。在Nutch中,过滤器是通过插件的方式实现的,插件在nutch-default.xml中定义,具体如下:

<!-- pluginproperties -->

<property>

  <name>plugin.folders</name>

  <value>plugins</value>

</property>

<property>

 <name>plugin.auto-activation</name>

  <value>true</value>

</property>

<property>

  <name>plugin.includes</name>

 <value>protocol-http|urlfilter-regex|parse-(html|tika)|index-(basic|anchor)|urlnormalizer-(pass|regex|basic)|scoring-opic</value>

</property>

<property>

  <name>plugin.excludes</name>

  <value></value>

</property>

其中plugin.folders定义了插件放置的位置,该值可以为绝对路径或者相对路径,若为相对路径则会在classpath中搜索,默认值为plugins,编译后的Nutch,会包含该文件夹。plugin.includes以正则表达式的方式定义了哪些插件将被包含在Nutch中,可以根据属性值查看plugins中的目录来确定默认值,比如urlfilter-regex,则说明默认情况下,过滤器插件使用的是urlfilter-regex,也即regex-urlfilter.txt文件。plugin.excludes属性以正则表达式的方式定义了哪些插件将被排除在Nutch之外定义了。

在了解了插件的定义后,具体看看过滤器分几种以及如何定义的。过滤器在nutch-default.xml中的定义如下:

<!-- urlfilterplugin properties -->

<property>

  <name>urlfilter.domain.file</name>

 <value>domain-urlfilter.txt</value>

</property>

<property>

  <name>urlfilter.regex.file</name>

 <value>regex-urlfilter.txt</value>

</property>

<property>

 <name>urlfilter.automaton.file</name>

 <value>automaton-urlfilter.txt</value>

</property>

<property>

 <name>urlfilter.prefix.file</name>

 <value>prefix-urlfilter.txt</value>

</property>

<property>

 <name>urlfilter.suffix.file</name>

 <value>suffix-urlfilter.txt</value>

</property>

<property>

  <name>urlfilter.order</name>

  <value></value>

</property>

通过上面的代码可知,过滤器可以分为5种,分别为:DomainURLFilter、RegexURLFilter、AutomatonURLFilter 、PrefixURLFilter、SuffixURLFilter,这5中过滤器的配置过滤规则的文件分别为:domain-urlfilter.txt、regex-urlfilter.txt、automaton-urlfilter.txt、prefix-urlfilter.txt、suffix-urlfilter.txt。属性urlfilter.order则定义了过滤器的应用顺序,所有过滤器都是与的关系。

了解了Nutch中是如何定义过滤器之后,再来看看具体的过滤规则文件,以regex-urlfilter.txt(默认情况下即按照该文件中的规则抓取数据)为例。该文件中定义的规则如下:

# skip file: ftp:and mailto: urls

-^(file|ftp|mailto):

 

# skip image andother suffixes we can't yet parse

# for a moreextensive coverage use the urlfilter-suffix plugin

-\.(gif|GIF|jpg|JPG|png|PNG|ico|ICO|css|CSS|sit|SIT|eps|EPS|wmf|WMF|zip|ZIP|ppt|PPT|mpg|MPG|xls|XLS|gz|GZ|rpm|RPM|tgz|TGZ|mov|MOV|exe|EXE|jpeg|JPEG|bmp|BMP|js|JS)$

 

# skip URLscontaining certain characters as probable queries, etc.

-[?*!@=]

 

# skip URLs withslash-delimited segment that repeats 3+ times, to break loops

-.*(/[^/]+)/[^/]+\1/[^/]+\1/

 

# accept anythingelse

+.

 

其中#表示注释内容,-表示忽略,+表示包含。若待抓取的url匹配该文件中的一个模式,则根据该模式前面的加号或者减号来判断该url是否抓取或者忽略,若url跟该文件中定义的规则都不匹配,则忽略该url。

感谢:http://blog.csdn.net/skywalker_only/article/details/17562543


Nutch 性能优化

读Nutch-site.xml

在nutch-site.xml中:

<name>fetcher.threads.fetch</name>

<value>10</value>

最大抓取线程数量

<name>fetcher.threads.per.queue</name>  

<value>1</value>

同一时刻抓取网站的最大线程数量

配置这两个参数,扩大10至50倍,可以极大的加大抓取的性能。


更多关于Nutch-default.xml内容:参考 http://blog.csdn.net/xxx0624_/article/details/45703525

更多关于Nucth-site.xml文件,请 参考:http://www.cnblogs.com/zhjsll/p/4704371.html











版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/shuaigexiaobo/article/details/78457127

智能推荐

稀疏编码的数学基础与理论分析-程序员宅基地

文章浏览阅读290次,点赞8次,收藏10次。1.背景介绍稀疏编码是一种用于处理稀疏数据的编码技术,其主要应用于信息传输、存储和处理等领域。稀疏数据是指数据中大部分元素为零或近似于零的数据,例如文本、图像、音频、视频等。稀疏编码的核心思想是将稀疏数据表示为非零元素和它们对应的位置信息,从而减少存储空间和计算复杂度。稀疏编码的研究起源于1990年代,随着大数据时代的到来,稀疏编码技术的应用范围和影响力不断扩大。目前,稀疏编码已经成为计算...

EasyGBS国标流媒体服务器GB28181国标方案安装使用文档-程序员宅基地

文章浏览阅读217次。EasyGBS - GB28181 国标方案安装使用文档下载安装包下载,正式使用需商业授权, 功能一致在线演示在线API架构图EasySIPCMSSIP 中心信令服务, 单节点, 自带一个 Redis Server, 随 EasySIPCMS 自启动, 不需要手动运行EasySIPSMSSIP 流媒体服务, 根..._easygbs-windows-2.6.0-23042316使用文档

【Web】记录巅峰极客2023 BabyURL题目复现——Jackson原生链_原生jackson 反序列化链子-程序员宅基地

文章浏览阅读1.2k次,点赞27次,收藏7次。2023巅峰极客 BabyURL之前AliyunCTF Bypassit I这题考查了这样一条链子:其实就是Jackson的原生反序列化利用今天复现的这题也是大同小异,一起来整一下。_原生jackson 反序列化链子

一文搞懂SpringCloud,详解干货,做好笔记_spring cloud-程序员宅基地

文章浏览阅读734次,点赞9次,收藏7次。微服务架构简单的说就是将单体应用进一步拆分,拆分成更小的服务,每个服务都是一个可以独立运行的项目。这么多小服务,如何管理他们?(服务治理 注册中心[服务注册 发现 剔除])这么多小服务,他们之间如何通讯?这么多小服务,客户端怎么访问他们?(网关)这么多小服务,一旦出现问题了,应该如何自处理?(容错)这么多小服务,一旦出现问题了,应该如何排错?(链路追踪)对于上面的问题,是任何一个微服务设计者都不能绕过去的,因此大部分的微服务产品都针对每一个问题提供了相应的组件来解决它们。_spring cloud

Js实现图片点击切换与轮播-程序员宅基地

文章浏览阅读5.9k次,点赞6次,收藏20次。Js实现图片点击切换与轮播图片点击切换<!DOCTYPE html><html> <head> <meta charset="UTF-8"> <title></title> <script type="text/ja..._点击图片进行轮播图切换

tensorflow-gpu版本安装教程(过程详细)_tensorflow gpu版本安装-程序员宅基地

文章浏览阅读10w+次,点赞245次,收藏1.5k次。在开始安装前,如果你的电脑装过tensorflow,请先把他们卸载干净,包括依赖的包(tensorflow-estimator、tensorboard、tensorflow、keras-applications、keras-preprocessing),不然后续安装了tensorflow-gpu可能会出现找不到cuda的问题。cuda、cudnn。..._tensorflow gpu版本安装

随便推点

物联网时代 权限滥用漏洞的攻击及防御-程序员宅基地

文章浏览阅读243次。0x00 简介权限滥用漏洞一般归类于逻辑问题,是指服务端功能开放过多或权限限制不严格,导致攻击者可以通过直接或间接调用的方式达到攻击效果。随着物联网时代的到来,这种漏洞已经屡见不鲜,各种漏洞组合利用也是千奇百怪、五花八门,这里总结漏洞是为了更好地应对和预防,如有不妥之处还请业内人士多多指教。0x01 背景2014年4月,在比特币飞涨的时代某网站曾经..._使用物联网漏洞的使用者

Visual Odometry and Depth Calculation--Epipolar Geometry--Direct Method--PnP_normalized plane coordinates-程序员宅基地

文章浏览阅读786次。A. Epipolar geometry and triangulationThe epipolar geometry mainly adopts the feature point method, such as SIFT, SURF and ORB, etc. to obtain the feature points corresponding to two frames of images. As shown in Figure 1, let the first image be ​ and th_normalized plane coordinates

开放信息抽取(OIE)系统(三)-- 第二代开放信息抽取系统(人工规则, rule-based, 先抽取关系)_语义角色增强的关系抽取-程序员宅基地

文章浏览阅读708次,点赞2次,收藏3次。开放信息抽取(OIE)系统(三)-- 第二代开放信息抽取系统(人工规则, rule-based, 先关系再实体)一.第二代开放信息抽取系统背景​ 第一代开放信息抽取系统(Open Information Extraction, OIE, learning-based, 自学习, 先抽取实体)通常抽取大量冗余信息,为了消除这些冗余信息,诞生了第二代开放信息抽取系统。二.第二代开放信息抽取系统历史第二代开放信息抽取系统着眼于解决第一代系统的三大问题: 大量非信息性提取(即省略关键信息的提取)、_语义角色增强的关系抽取

10个顶尖响应式HTML5网页_html欢迎页面-程序员宅基地

文章浏览阅读1.1w次,点赞6次,收藏51次。快速完成网页设计,10个顶尖响应式HTML5网页模板助你一臂之力为了寻找一个优质的网页模板,网页设计师和开发者往往可能会花上大半天的时间。不过幸运的是,现在的网页设计师和开发人员已经开始共享HTML5,Bootstrap和CSS3中的免费网页模板资源。鉴于网站模板的灵活性和强大的功能,现在广大设计师和开发者对html5网站的实际需求日益增长。为了造福大众,Mockplus的小伙伴整理了2018年最..._html欢迎页面

计算机二级 考试科目,2018全国计算机等级考试调整,一、二级都增加了考试科目...-程序员宅基地

文章浏览阅读282次。原标题:2018全国计算机等级考试调整,一、二级都增加了考试科目全国计算机等级考试将于9月15-17日举行。在备考的最后冲刺阶段,小编为大家整理了今年新公布的全国计算机等级考试调整方案,希望对备考的小伙伴有所帮助,快随小编往下看吧!从2018年3月开始,全国计算机等级考试实施2018版考试大纲,并按新体系开考各个考试级别。具体调整内容如下:一、考试级别及科目1.一级新增“网络安全素质教育”科目(代..._计算机二级增报科目什么意思

conan简单使用_apt install conan-程序员宅基地

文章浏览阅读240次。conan简单使用。_apt install conan