目录:

  • 1. CrawlSpider的引入:
    • (1)首先:观察之前创建spider爬虫文件时
    • (2)然后:通过命令scrapy genspider获取帮助:
    • (3)最后:使用模板crawl创建一个爬虫文件:
  • 2.CrawlSpider的正式讲解
    • 2.1 我们通过爬取ZH小说来深入了解它!
      • 规划我们的目标:
    • 2.2 先获取目标URL第一页的书籍信息!!!
      • ①第一步:通过解析start_urls的响应,获取所有书籍URL
      • ②第二步:通过解析书籍URL获取到的响应,获取以下数据:
      • ③第三步:通过解析书籍URL获取的响应里解析得到的每个小说章节列表页的所有URL,并发送请求获得响应:
      • ④第四步:通