大数据采集之scrapy的使用
沉沙 2019-10-14 来源 : 阅读 1343 评论 0

摘要:本篇文章探讨了大数据采集之scrapy的使用,希望阅读本篇文章以后大家有所收获,帮助大家对相关内容的理解更加深入。

本篇文章探讨了大数据采集之scrapy的使用,希望阅读本篇文章以后大家有所收获,帮助大家对相关内容的理解更加深入。

大数据采集之scrapy的使用

"

  • scrapy的安装使用

  • scrapy架构

  • 爬虫概念流程

  • scrapy项目开发流程

  • scrapy常用设置


  • scrapy的安装使用
    scrapy的基本使用资料网站:https://scrapy-chs.readthedocs.io/zh_CN/1.0/topics/shell.html

    • 本文使用环境配置:win7+pycharm+python3.7

    • 在安装scrapy过程中遇到了比较多的坑,scrapy基于twisted开发,直接安装scrapy无法安装,提示pip版本问题以及各种error,pip install --upgrade pip升级,安装zope.interface-->pyOpenSSL-->Twisted-->scrapy由于源是国外的站点,可能访问失败,下载过程也比较慢,推荐直接访问官方网站直接把.whl包直接下载下来,通过terminal安装更便捷。运行过程还需要win32api,直接安装pypiwin32

    • 使用命令

1.在终端输入scrapy命令可以查看可用命令
    Usage:
  scrapy <command> [options] [args]
  Available commands:
  bench         Run quick benchmark test
  fetch         Fetch a URL using the Scrapy downloader
  genspider     Generate new spider using pre-defined templates
  runspider     Run a self-contained spider (without creating a project)
  settings      Get settings values
  shell         Interactive scraping console
  startproject  Create new project
  version       Print Scrapy version
  view          Open URL in browser, as seen by Scrapy
  • scrapy架构

    • 架构图
      各组件功能:
       Scrapy Engine(引擎):负责SpiderDownloader、Schedule、ItemPipeline之间通信、信号、数据传递等。
       Scgeduler:负责接收引擎发送过来的Request请求,并按照一定的方法进行整理排列,入队,当引擎需要时交还给引擎。
       Downloader负责下载引擎发送过来的所有请求,并将其获取到的Response交还给Scrapy引擎,有引擎交还给Spider处理。
       Spider:负责处理所有Response,从中分析提取数据,获取Item字段需要的数据,并将需要跟进的URL提交给引擎,再次进入schedule。
       ItemPipeline:负责处理Spider中获取到的Item,并进行后期处理(详细分析、过滤、存储等)
       DownloaderMiddlewares:当作是一个可以自定义扩展下载功能的组件
       SpiderMiddlewares:自定扩展和操作引擎和Spider中间通信的功能组件(比如进入Spider的Responses;和从Spider出去的Requests)

    • 大数据采集之scrapy的使用

  • 爬虫概念流程
    概念:亦可以称为网络蜘蛛或网络机器人,是一个模拟浏览器请求网站行为的程序,可以自动请求网页,把数据抓取下来,然后使用一定规则提取有价值的数据。
    基本流程:
    发起请求-->获取响应内容-->解析内容-->保存处理

  • scrapy项目开发流程
    1.建立项目scrapy startproject xxx
    2.编写item.py:明确想要抓取的信息
    3.直至爬虫(spider.py)
    4.存储内容(pipeline.py)

    • 爬取豆瓣电影信息:
      1.创建项目后>scrapy startproject tuorial,会创建一个目录并生产相关配置文件。
      2.分析需求,查看网站网页信息,编写item.py文件用于保存爬取到的数据容器,其方法与字典类似,定义类型为 scrapy.Field 的类属性来定义一个 Item。

      import scrapy
      class DoubanItem(scrapy.Item):#序号serial_number=scrapy.Field()#名称movie_name=scrapy.Field()#介绍introduce=scrapy.Field()#星级star=scrapy.Field()#评论evalute=scrapy.Field()#描述desc=scrapy.Field()

      3.编写Spider文件,爬虫主要是该文件实现
       进到根目录,执行命令:scrapy genspider spider_name ""domains"" : spider_name为爬虫名称唯一,""domains"",指定爬取域范围,即可创建spider文件,当然这个文件可以自己手动创建。
       进程scrapy.Spider类,里面的方法可以覆盖。

      import scrapy
      from ..items import DoubanItem
      class DoubanSpider(scrapy.Spider):
      name='douban_mv'allowed_domains=['movie.douban.com']
      start_urls=['https://movie.douban.com/top250']
      def parse(self, response):        
      movie_list=response.xpath(""//div[@class='article']//ol[@class='grid_view']//li//div[@class='item']"")     
      for movie in movie_list:
          items=DoubanItem()
          items['serial_number']=movie.xpath('.//div[@class=""pic""]/em/text()').extract_first()
          items['movie_name']=movie.xpath('.//div[@class=""hd""]/a/span/text()').extract_first()
          introduce=movie.xpath('.//div[@class=""bd""]/p/text()').extract()
          items['introduce']="";"".join(introduce).replace(' ','').replace('\n','').strip(';')
          items['star']=movie.xpath('.//div[@class=""star""]/span[@class=""rating_num""]/text()').extract_first()
          items['evalute']=movie.xpath('.//div[@class=""star""]/span[4]/text()').extract_first()
          items['desc']=movie.xpath('.//p[@class=""quote""]/span[@class=""inq""]/text()').extract_first()
          yield items""next-page""实现翻页操作
      link=response.xpath('//span[@class=""next""]/link/@href').extract_first()
      if link:
           yield response.follow(link,callback=self.parse)

      4.编写pipelines.py文件
       清理html数据、验证爬虫数据,去重并丢弃,文件保存csv,json,db.,每个item pipeline组件生效需要在setting中开启才生效,且要调用process_item(self,item,spider)方法。
       open_spider(self,spider) :当spider被开启时,这个方法被调用
       close_spider(self, spider) :当spider被关闭时,这个方法被调用

      # -*- coding: utf-8 -*-# Define your item pipelines here# Don't forget to add your pipeline to the ITEM_PIPELINES setting# See: https://doc.scrapy.org/en/latest/topics/item-pipeline.htmlimport json
      import csvclass TutorialPipeline(object):def open_spider(self,spider):
      passdef __init__(self):self.file=open('item.json','w',encoding='utf-8')def process_item(self, item, spider):
      line=json.dumps(dict(item),ensure_ascii=False)+""\n""self.file.write(line)return itemclass DoubanPipeline(object):def open_spider(self,spider):self.csv_file=open('movies.csv','w',encoding='utf8',newline='')self.writer=csv.writer(self.csv_file)self.writer.writerow([""serial_number"",""movie_name"",""introduce"",""star"",""evalute"",""desc""])def process_item(self,item,spider):self.writer.writerow([v for v in item.values()])def close_spider(self,spider):self.csv_file.close()

      5.开始运行爬虫
       scrapy  crawl  ""spider_name"" 即可爬取在terminal中显示信息,注spider_name为spider文件中name名称。
       在命令行也可以直接输出文件并保存,步骤4可以不开启:

      scrapy crawl demoz -o items.jsonscrapy crawl itcast -o teachers.csvscrapy crawl itcast -o teachers.xml
    • 大数据采集之scrapy的使用

    • 大数据采集之scrapy的使用

  • scrapy常用设置
    修改配置文件:setting.py
    每个pipeline后面有一个数值,这个数组的范围是0-1000,这个数值确定了他们的运行顺序,数字越小越优先
    DEPTH_LIMIT :爬取网站最大允许的深度(depth)值。如果为0,则没有限制
    FEED_EXPORT_ENCODING = 'utf-8' 设置编码
    DOWNLOAD_DELAY=1:防止过于频繁,误认为爬虫
    USAGE_AGENT:设置代理
    LOG_LEVEL = 'INFO':设置日志级别,资源
    COOKIES_ENABLED = False:禁止cookie
    CONCURRENT_REQUESTS = 32:并发数量
    设置请求头:DEFAULT_REQUEST_HEADERS={...}

"      本文由职坐标整理发布,学习更多的相关知识,请关注职坐标IT知识库!

本文由 @沉沙 发布于职坐标。未经许可,禁止转载。
喜欢 | 0 不喜欢 | 0
看完这篇文章有何感觉?已经有0人表态,0%的人喜欢 快给朋友分享吧~
评论(0)
后参与评论

您输入的评论内容中包含违禁敏感词

我知道了

助您圆梦职场 匹配合适岗位
验证码手机号,获得海同独家IT培训资料
选择就业方向:
人工智能物联网
大数据开发/分析
人工智能Python
Java全栈开发
WEB前端+H5

请输入正确的手机号码

请输入正确的验证码

获取验证码

您今天的短信下发次数太多了,明天再试试吧!

提交

我们会在第一时间安排职业规划师联系您!

您也可以联系我们的职业规划师咨询:

小职老师的微信号:z_zhizuobiao
小职老师的微信号:z_zhizuobiao

版权所有 职坐标-一站式IT培训就业服务领导者 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
 沪公网安备 31011502005948号    

©2015 www.zhizuobiao.com All Rights Reserved

208小时内训课程