PySpider框架简介及安装

35 sec read

PySpider:一个国人编写的强大的网络爬虫系统并带有强大的WebUI。采用Python语言编写,分布式架构,支持多种数据库后端,强大的WebUI支持脚本编辑器,任务监视器,项目管理器以及结果查看器。

PySpider功能简介

PySpider带有强大的WebUI、脚本编辑器、任务监控器、项目管理器以及结果处理器,它支持多种数据库后端、多种消息队列、Javascript渲染页面的爬取,使用起来非常的方便。

PySpider的基本功能:

  • 提供方便易用的 WebUI 系统,可视化地编写和调式爬虫
  • 提供爬取进度监控、爬取结果查看、爬虫项目管理等功能。
  • 支持多种后端数据库,如 MySQL、MongoDB、Reids、SQLite、Elasticsearch、PostgreSQL。
  • 支持多种消息队列、如 RabbitMQ、Beanstalk、Redis、Kombu。
  • 提供优先级控制、失败重试、定时抓取等功能。
  • 对接了 PhantomJS、可以抓取 JavaScript 渲染的页面。
  • 支持单机和分布式部署、支持 Docker 部署。

PySpider的设计基础是:

  • 以python脚本驱动的抓取环模型爬虫
  • 通过python脚本进行结构化信息的提取,follow链接调度抓取控制,实现最大的灵活性
  • 通过web化的脚本编写、调试环境。web展现调度状态
  • 抓取环模型成熟稳定,模块间相互独立,通过消息队列连接,从单进程到多机分布式灵活拓展

PySpider与Scrapy的比较:

  • PySpider提供了WebUI,爬虫的编写、调试都是再WebUI中进行。而Scrapy原生是不具备这些功能的,它采取的是代码和命令行操作,但是可通过Portia实现可视化配置。
  • PySpider调试非常的方便。WebUI操作便捷直观。Scrapy则是使用parse命令进行调试,其方便程度不及PySpider。
  • PySpider支持PhantomJS来进行Javascript渲染也买你的额采集。Scrapy可以对接Scrapy-Splash组件,这需要额外配置。
  • PySpider内置了PyQuery作为选择器,Scrapy对接了XPath、CSS选择器和正则匹配。
  • PySpider的可扩展程度不足,可配置化程度不高。Scrapy可通过对接Middleware、Pipeline、Extension等组件实现非常强大的功能,模块之间的耦合程度低,可扩展程度极高。

如果想要快速方便地实现一个页面的抓取,使用 pyspider 不失为一个好的选择。如快速抓取某个普通新闻网站的新闻内容。但如果应对反爬程度很强、超大规模的抓取、推荐使用 Scrapy、如抓取封 IP、封账号、高频验证的网站的大规模数据采集。

PySpider 的架构

PySpider 的架构主要分为 Scheduler(调度器)、Fetcher(抓取器)、Processer(处理器)三个部分。整个爬取过程受到 Monitor(监控器)的监控,抓取的结果被 Result Worker(结果处理器)处理。

Scheduler 发起任务调度,Fetcher 负责抓取网页内容,Processer 负责解析网页内容,然后将新生成的 Request 发给 Scheduler 进行调度,将生成的提取结果输出保存。

模块 功能
WebUI web的可视化任务监控

web脚本编写,单步调试

异常捕获,log捕获,print捕获等

Scheduler 任务优先级

周期定时任务

流量控制

基于时间周期 或 前链标签(例如更新时间)的重抓取调度

Fetcher dataurl支持,用于假抓取模拟传递

method, header, cookie, proxy, etag, last_modified, timeout等抓取调度控制

通过适配类似 phantomjs 的webkit引擎支持渲染

Processer 内置的pyquery,以jQuery解析页面

在脚本中完全控制调度抓取的各项参数,

向后链传递信息

异常捕获

PySpider 的任务执行流程的逻辑很清晰,具体过程如下所示:

  • 每个 PySpider项目对应一个 Python 脚本,该脚本定义了一个 Handler 类,它有一个 on_start() 方法。爬取首先调用 on_start() 方法生成最初的抓取任务,然后发送给 Scheduler。
  • Scheduler 将抓取任务分发给 Fetcher 进行抓取,Fetcher 执行并得到响应、随后将响应发送给 Processer。
  • Processer 处理响应并提取出新的 URL 生成新的抓取任务,然后通过消息队列的方式通知 Scheduler 当前抓取任务执行情况,并将新生成的抓取任务发送给 Scheduler。如果生成了新的提取结果,则将其发送到结果队列等待 Result Worker 处理。
  • Scheduler 接收到新的抓取任务,然后查询数据库,判断其如果是新的抓取任务或者是需要重试的任务就继续进行调度,然后将其发送回 Fetcher 进行抓取。
  • 不断重复以上工作、直到所有的任务都执行完毕,抓取结束。
  • 抓取结束后、程序会回调 on_finished() 方法,这里可以定义后处理过程。

PySpider的安装

PySpider的安装非常的简单,只需执行: pip install pyspider  即可,但是执行过程中可能会报如下错误:

发生报错的原因是pycurl没有被正确安装,中间出现了编译错误,解决方案是:到https://www.lfd.uci.edu/~gohlke/pythonlibs/

下载对应的 .whl文件,并进项安装即可。

安装完成后再命令行执行 pyspider  打开 http://localhost:5000/ 即可访问控制台

参考链接:

打赏作者
微信支付标点符 wechat qrcode
支付宝标点符 alipay qrcode

Hive SQL中的datediff、current_dat…

Hive SQL中的datediff函数返回的是2个日期的天数。在使用过程中发现了一个比较有趣的坑: SELE
2 min read

使用Python进行相关性分析

在数据分析时,经常会针对两个变量进行相关性分析。在Python中主要用到的方法是pandas中的corr()方
42 sec read

动态规划之背包问题

2 min read

发表评论

电子邮件地址不会被公开。 必填项已用*标注