设为首页收藏本站

EPS数据狗论坛

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 2579|回复: 2

定向爬虫及网页结构解析

  [复制链接]

254

主题

1万

金钱

2万

积分

资深用户

发表于 2016-9-18 14:57:11 | 显示全部楼层 |阅读模式
作者:76er

我们大致把爬虫分为两类:一类是用于搜索引擎的搜索爬虫,抓取目标是整个互联网;一类则是各种定向爬虫,抓取目标是所有网站中的一个特定子集,甚至就是某一个网站。

聚焦爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL,并重复上述过程,直到达到系统的某一条件时停止。另外,所有被爬虫抓取的网页将会被系统存贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索;对于聚焦爬虫来说,这一过程所得到的分析结果还可能对以后的抓取过程给出反馈和指导。

相对于通用网络爬虫,聚焦爬虫还需要解决三个主要问题:
  • 对抓取目标的描述或定义;
  • 对网页或数据的分析与过滤;
  • 对URL的搜索策略。


抓取目标的描述和定义是决定网页分析算法与URL搜索策略如何制订的基础。而网页分析算法和候选URL排序算法是决定搜索引擎所提供的服务形式和爬虫网页抓取行为的关键所在。这两个部分的算法又是紧密相关的。

基于目标网页特征的爬虫所抓取、存储并索引的对象一般为网站或网页。具体的方法根据种子样本的获取方式可以分为:
  • (1)预先给定的初始抓取种子样本;
  • (2)预先给定的网页分类目录和与分类目录对应的种子样本,如Yahoo!分类结构等;
  • (3)通过用户行为确定的抓取目标样例。其中,网页特征可以是网页的内容特征,也可以是网页的链接结构特征,等等。


解析网站内容,就要提到robots.txt。robots.txt是一个协议,而不是一个命令。robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。robots.txt文件告诉spider在服务器上什么文件是可以被查看的。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。

下面大概说一下我们这个项目的采集工作。

采集的目的就是把对方网站上网页中的某块文字或者图片等资源下载到自己的数据库或其他的存储形式,这个过程需要做下面几个工作:下载网页,解析网页,修正结果,存储数据。如果数据符合自己要求,修正结果这步可省略。把配置过程分解为这几个步骤。

配置主要分四个步骤:
  • 第一步网页爬虫,配置网页爬虫规则,用来把需要采集的网页批量保存到本地。这套规则成为一个网页爬虫。
  • 第二步网页采集,设置采集规则,找一个网页为模板例子,设置要采集的数据块。其他符合此模板的网页将被按照这个规则解析。这套规则成为一个网页采集。
  • 第三步采集任务,配置采集任务,对网页爬虫和网页采集进行组合,一个网页爬虫可以对应多个网页采集,组合后保存为一个采集任务。这个步骤中可以对结果的修正和存储(既输出)进行配置
  • 第四步任务发布,对采集任务进行发布,可以发布到指定服务器的某个采集队列中。采集到的资源为下一个项目组同学所用。


268

主题

1万

金钱

1万

积分

资深用户

发表于 2016-11-24 15:47:29 | 显示全部楼层
回复

使用道具 举报

236

主题

3879

金钱

7173

积分

高级用户

发表于 2017-1-16 13:34:15 | 显示全部楼层
感谢楼主分享
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

客服中心
关闭
在线时间:
周一~周五
8:30-17:30
QQ群:
653541906
联系电话:
010-85786021-8017
在线咨询
客服中心

意见反馈|网站地图|手机版|小黑屋|EPS数据狗论坛 ( 京ICP备09019565号-3 )   

Powered by BFIT! X3.4

© 2008-2028 BFIT Inc.

快速回复 返回顶部 返回列表