设为首页收藏本站

EPS数据狗论坛

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 3666|回复: 2

基于Scrapy网络爬虫的搭建

  [复制链接]

10

主题

96

金钱

160

积分

入门用户

发表于 2019-6-25 14:16:31 | 显示全部楼层 |阅读模式


GitHub:https://github.com/lining0806/PythonSpiderNotes/tree/master/WechatSearchProjects

有很多开源的网络爬虫,如果我们掌握某一种或多种开源的爬虫工具,再我们获取数据的道路上会如虎添翼,事半功倍。这里我介绍一下我对于Scrapy网络爬虫的学习和搭建。
Scrapy使用了Twisted异步网络库来处理网络通讯。整体架构大致如下:
1.png

Scrapy要包括了以下组件:
引擎,用来处理整个系统的数据流处理,触发事务。
调度器,用来接受引擎发过来的请求,压入队列中,并在引擎再次请求的时候返回。
下载器,用于下载网页内容,并将网页内容返回给蜘蛛。
蜘蛛,蜘蛛是主要干活的,用它来制订特定域名或网页的解析规则。
项目管道,负责处理有蜘蛛从网页中抽取的项目,他的主要任务是清晰、验证和存储数据。当页面被蜘蛛解析后,将被发送到项目管道,并经过几个特定的次序处理数据。
调度中间件,介于Scrapy引擎和调度之间的中间件,从Scrapy引擎发送到调度的请求和响应。
下载器中间件,位于Scrapy引擎和下载器之间的钩子框架,主要是处理Scrapy引擎与下载器之间的请求及响应。
蜘蛛中间件,介于Scrapy引擎和蜘蛛之间的钩子框架,主要工作是处理蜘蛛的响应输入和请求输出。
首先安装Scrapy。在Windows和Linux下各有不同的办法,推荐在Linux下使用。一句话搞定:
  1. pip install scrapy
复制代码


1、首先搭建工程:比如说我要建立一个工程,名字叫Wechatproject
输入命令:scrapy startproject Wechatproject(project名称)
那么生成的工程目录如下:
  1. Wechatproject
  2. ├── Wechatproject
  3. │ ├── __init__.py
  4. │ ├── items.py
  5. │ ├── pipelines.py
  6. │ ├── settings.py
  7. │ └── spiders
  8. │ └── __init__.py
  9. └── scrapy.cfg
复制代码

scrapy.cfg 是整个项目的设置,主要用于部署scrapy的服务,一般不会涉及。
items.py 定义抓取结果中单个项所需要包含的所有内容。【目标】
settings.py 是scrapy的设置文件,可对其行为进行调整。【设置】
在配置文件中开启pipline插件,添加
  1. ITEM_PIPELINES = ['Wechatproject.pipelines.WechatprojectPipeline'] # add settings
复制代码

如果需要下载images,添加
  1. ITEM_PIPELINES = {'Wechatproject.pipelines.WechatprojectPipeline':1, 'Wechatproject.pipelines.MyImagesPipeline':2} # add settings
  2. IMAGES_STORE = './images'
复制代码

pipelines.py 定义如何对抓取到的内容进行再处理,例如输出文件、写入数据库等。【处理】
只有一个需要实现的方法:process_item。如果输出文件、写入数据库等,需要设置settings.py文件。

如果需要下载images,添加:
  1. '''if you want to download images'''
  2. # from scrapy.http.request import Request
  3. # from scrapy.contrib.pipeline.images import ImagesPipeline
  4. # class MyImagesPipeline(ImagesPipeline):
  5. # #@TODO
  6. # def get_media_requests(self, item, info):
  7. # for image_url in item['image_urls']: # item['image_urls'] contains the image urls
  8. # # yield Request(image_url)
  9. # yield Request(image_url, meta={'name': item['name']}) # item['name'] contains the images name
  10. # def item_completed(self, results, item, info):
  11. # return super(MyImagesPipeline, self).item_completed(results, item, info)
  12. # def file_path(self, request, response=None, info=None):
  13. # f_path = super(MyImagesPipeline, self).file_path(request, response, info)
  14. # f_path = f_path.replace('full', request.meta['name'])
  15. # return f_path
  16. # ##########################################################
  17. # # import hashlib
  18. # # image_guid = hashlib.sha1(request.url).hexdigest() # change to request.url after deprecation
  19. # # return '%s/%s.jpg' % (request.meta['name'], image_guid)
  20. # pass
  21. # # from scrapy.contrib.pipeline.media import MediaPipeline
  22. # # class MyMediaPipeline(MediaPipeline):
  23. # # #@TODO
  24. # # pass
复制代码

spiders 目录下存放写好的spider,也即是实际抓取逻辑。【工具】
parse()方法可以返回两种值:BaseItem,或者Request。通过Request可以实现递归抓取(from scrapy.http import Request)。
如果要抓取的数据在当前页,可以直接解析返回item。
例如:yield item
如果要抓取的数据在当前页指向的页面,则返回Request并指定parse2作为callback。
如果要抓取的数据当前页有一部分,指向的页面有一部分.这种情况需要用Request的meta参数把当前页面解析到的数据传到parse2,后者继续解析item剩下的数据。

2、将来上述文件加入工程,便于文件管理
在Wechatproject工程目录下,新建Spider_Main.py,内容如下:
  1. from scrapy.cmdline import execute
  2. import sys
  3. sys.argv = ["scrapy", "crawl", "wechat"]
  4. execute()
复制代码


3、在spider文件夹下定义spider。
spider定义三个主要的、强制的属性:
  1. name【spider的标识】;
  2. start_urls【一个需要爬取的链接起始列表】;
  3. parse()【调用时传入每一个url传回的Response对象作为参数,Response是传入这个方法的唯一参数】。
复制代码

Scrapy为爬虫的start_urls属性中的每个url创建了一个scrapy.http.Request对象,这些scrapy.http.Request首先被调度,然后被执行,之后通过爬虫的parse()方法作为回调函数,scapy.http.Response对象被返回,结果也被反馈给爬虫。

parse()方法是用来处理Response对象,返回爬取的数据,并且获得更多等待爬取的链接。

可以使用其他分析方法如正则表达式或者BeautifulSoup对response.body进行分析,不局限于xpath()方法。
  1. from scrapy.selector import Selector
  2. sel = Selector(response) # sel是一个selector
复制代码

sel.xpath()返回selectors列表,每一个selector表示一个xpath参数表达式选择的节点这样就可以更快的获取需要的数据。

使用sel.xpath().extract()取出节点下面的文本数据或者使用sel.xpath().re(r”(\w+)”)来正则匹配其中元素。
同理,
  1. from scrapy.selector import HtmlXPathSelector
  2. hxs = HtmlXPathSelector(response)
复制代码


使用hxs.select()返回htmlxpathselectors列表,和hxs.select().extract()取出数据或者hxs.select().re(r”(\w+)”)来正则匹配。

4、网络抓取:scrapy crawl wechat(spider名称) 或 scrapy crawl wechat -o results\items.json -t json

7

主题

368

金钱

3140

积分

中级用户

发表于 2020-1-2 20:46:03 | 显示全部楼层
wonderful,
ximenyan
回复

使用道具 举报

7

主题

368

金钱

3140

积分

中级用户

发表于 2020-1-2 20:46:27 | 显示全部楼层
谢谢分享,
ximenyan
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

客服中心
关闭
在线时间:
周一~周五
8:30-17:30
QQ群:
653541906
联系电话:
010-85786021-8017
在线咨询
客服中心

意见反馈|网站地图|手机版|小黑屋|EPS数据狗论坛 ( 京ICP备09019565号-3 )   

Powered by BFIT! X3.4

© 2008-2028 BFIT Inc.

快速回复 返回顶部 返回列表