最简单的单个网页爬取流程是spiders > scheduler > downloader > spiders > item pipeline
pip install Scrapy复制
注:windows平台需要依赖pywin32
ModuleNotFoundError: No module named 'win32api'复制
pip install pypiwin32
运行命令:scrapy startproject myfrist(your_project_name)
文件说明:
名称 | 作用 |
---|---|
scrapy.cfg | 项目的配置信息,主要为Scrapy命令行工具提供一个基础的配置信息。(真正爬虫相关的配置信息在settings.py文件中) |
items.py | 设置数据存储模板,用于结构化数据,如:Django的Model |
pipelines | 数据处理行为,如:一般结构化的数据持久化 |
settings.py | 配置文件,如:递归的层数、并发数,延迟下载等 |
spiders | 爬虫目录,如:创建文件,编写爬虫规则 |
注意:一般创建爬虫文件时,以网站域名命名
在spiders目录中新建 daidu_spider.py 文件
在这里可以告诉 scrapy 。要如何查找确切数据,这里必须要定义一些属性
下面的代码演示了spider蜘蛛代码的样子:
import scrapyclass DoubanSpider(scrapy.Spider): name = 'douban' allwed_url = 'douban.com' start_urls = [ 'https://movie.douban.com/top250/' ] def parse(self, response): movie_name = response.xpath("//div[@class='item']//a/span[1]/text()").extract() movie_core = response.xpath("//div[@class='star']/span[2]/text()").extract() yield { 'movie_name':movie_name, 'movie_core':movie_core }复制