文章目录

    • ⛳️ 实战场景
    • ⛳️ 实战编码

⛳️ 实战场景

这次实战的目标是一个叫做猫肯的字体站点,该站点所有的字体都是免费可商用的,所以为什么还要去下载呢?

答案是练手,借免费站点学习爬虫,

目标站点地址:https://www.maoken.com/all-fonts
目标页截图如下所示:

使用的模块是 requests + lxml,用最少的代码,学习最纯粹的爬虫。

⛳️ 实战编码

基于捕获到的页面源码,直接提取内容。

import requestsfrom lxml import etreedef get_html():    headers = {        "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/106.0.0.0 Safari/537.36"    }    res = requests.get('https://www.maoken.com/all-fonts', headers=headers)    ele = etree.HTML(res.text)    div_list = ele.xpath("//div[@class='basetabcon']")    for div in div_list:        tr_list = div.xpath(".//tr")        for tr in tr_list:            print(tr.xpath("./td/text()"))if __name__ == '__main__':    get_html()

本部分代码中,可以看到优先提取了 class='basetabcon'div,然后遍历其所有节点,提取 tr 元素,并且打印了其子节点 td 中的文本内容,输出如下:

['字体系列', '字体名称', 'PS中名称', '开发者', '发布时间', '最新版本', '分类', '字重数', '简体字数', '繁体字数', '授权方式', '下载'][]['字体圈系列', '字体圈伟君黑', '字体圈Design', '2022年10月', 'v1.00 ', '黑体', '1', '★★★★★', '★']['字体圈欣意吉祥宋', '字体圈Design', '2021年01月', 'v1.00 ', '宋体', '1', '★★★★★', '★']['字体圈欣意冠黑体', '字体圈Design', '2020年04月', 'v4.000 ', '创意体', '1', '★★★★★', '★★★★★']

此时发现出现了数据问题,第一行和第二行属于冗余数据,需要清理。

def get_html():    headers = {        "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/106.0.0.0 Safari/537.36"    }    res = requests.get('https://www.maoken.com/all-fonts', headers=headers)    ele = etree.HTML(res.text)    div_list = ele.xpath("//div[@class='basetabcon']")    for div in div_list:        tr_list = div.xpath(".//tr")        # 去除第一行冗余 tr        for tr in tr_list[1:]:            # 去除空数据            if len(tr.xpath("./td/text()")) == 0:                continue            print(tr.xpath("./td/text()"))

按照上述内容对数据进行处理之后,得到下述信息:

['字体圈系列', '字体圈伟君黑', '字体圈Design', '2022年10月', 'v1.00 ', '黑体', '1', '★★★★★', '★']['字体圈欣意吉祥宋', '字体圈Design', '2021年01月', 'v1.00 ', '宋体', '1', '★★★★★', '★']['字体圈欣意冠黑体', '字体圈Design', '2020年04月', 'v4.000 ', '创意体', '1', '★★★★★', '★★★★★']

下面要处理的是合并单元格问题,在正式编码前优先核对一下界面显示规则。

其中字体圈系列 显示被合并了,从内容输出看,单元格字体圈系列所在的行多一个单元格,即列表多一个元素,如下所示。


接下来我们对数据进行再次整理,当单元格数量等于 13 的时候,新增一个字典 KEY,后续的字体都追加到该字典项中。

def get_html():    headers = {        "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) ……"    }    res = requests.get('https://www.maoken.com/all-fonts', headers=headers)    ele = etree.HTML(res.text)    div_list = ele.xpath("//div[@class='basetabcon']")    for div in div_list:        tr_list = div.xpath(".//tr")        # 去除第一行冗余 tr        result = {}        for tr in tr_list[1:8]:            td_content = tr.xpath("./td//text()")            # 去除空数据            if len(td_content) < 4:                continue            # 合并单元格            if len(td_content)==13:                head = td_content[0]                td_list = td_content[1:]                result[head] = [] # 建立一个空字典                result[head].append(td_list[:-2]) # 字典的值增加项            else:                result[head].append(td_content)        print(result)

此时运行代码就可以获取到完整的表格数据了,效果如下所示,与网页对比之后,无数据丢失问题。

该案例实战中最需要学习的部分是单元格的解析,其中用到了差异对比,在实践中最大的风险是需要保证数据是完整的,即数据量中无缺项,否则无法进行硬编码解析数据。

本次实战通过 div 进行了首次提取,最终输出的数据是基于单元格位置进行拆分的,学习的时候重点掌握该解题方法。

你正在阅读 【梦想橡皮擦】 的博客
阅读完毕,可以点点小手赞一下
发现错误,直接评论区中指正吧
橡皮擦的第 737 篇原创博客

从订购之日起,案例 5 年内保证更新

  • ⭐️ Python 爬虫 120,点击订购 ⭐️
  • ⭐️ 爬虫 100 例教程,点击订购 ⭐️