本章主要讲的是基于Python语言的数据采集,该功能要讲起来可以单独作为一门课程来学习,因为这是一门很重要的课程,一般运用在大数据处理和人工智能上,该应用提供大量的数据。

12.1 urllib模块的学习

urllib模块是python提供给我们操作互联网的模块。接下来我们可以简单的操作一下,爬取一个网页的源代码,其实就是审查元素的操作。urllib中分为四部分:1.request 2.error 3.parse 4.robotparser

request是urllib中最重要的也是最复杂的。

# 网络爬虫# 导入模块import urllib.request as req# 爬取该地址的网页源码res=req.urlopen(r"https://www.baidu.com")# 从爬取的内容中读取信息html=res.read()# 读取的信息是字节,需要通过编码格式的转换,才能获得和网页上审查元素的源代码一致html=html.decode("UTF-8")print(html)

输出结果:

12.2 实战

12.2.1 爬取图片

这里我们来访问一下百度图片,其网站效果如图:

那我们一般想要某张图片,需要把鼠标移动到图片上点击右键,然后图片另存为……到我们电脑的指定的磁盘路径下。接下来看看我们python怎么通过代码来爬取想要的图片。我们先来看看这个图片对应的访问地址,右键复制图片访问地址,粘贴到地址上访问一下,是否能正常访问

即通过地址的访问,可以查看某一张图片,那么我们来通过python爬虫来爬取这张图片。

# 导入模块import urllib.request as req#指定猫的访问地址res=req.urlopen("https://gimg2.baidu.com/image_search/src=http%3A%2F%2Fimg.jj20.com%2Fup%2Fallimg%2F1113%2F052420110515%2F200524110515-2-1200.jpg&refer=http%3A%2F%2Fimg.jj20.com&app=2002&size=f9999,10000&q=a80&n=0&g=0n&fmt=auto" />

12.2.2 在线文本翻译

打开浏览器访问有道翻译的网站在线翻译_有道

接着我们右键审查元素,切换到network,查看其网络的请求和响应信息

单击这个响应请求,查看其翻译信息

查看响应头信息

浏览器一般通过以下信息来判断是否是机器访问,而非人为正常操作。

如果使用python访问的该地址的话,User-Agent会被定义为Python-urllib/版本号

刚通过观察浏览器的返回结果:{"errorCode":0,"translateResult":[[{"tgt":"I'm a teacher","src":"我是一名老师"}]],"type":"zh-CHS2en"}

那么这个格式是json格式,由{}和[]混合使用构建成,中间形成键值对并以冒号隔开key和value。

# -*- coding:utf-8 -*-'''使用 POST 方式抓取 有道翻译urllib2.Request(requestURL, data=data, headers=headerData)Request 方法中的 data 参数不为空,则默认是 POST 请求方式如果 data 为空则是 Get 请求方式{"errorCode":50}错误:有道翻译做了一个反爬虫机制,就是在参数中添加了 salt 和 sign 验证,具体操作说明参考:http://www.tendcode.com/article/youdao-spider/'''import urllib.requestimport urllib.parseimport timeimport randomimport hashlibimport sys# 字符串转 utf-8 需要重新设置系统的编码格式def reload(sys):    sys.setdefaultencoding('utf8')# 目标语言targetLanguage = 'Auto'# 源语言sourceLanguage = 'Auto'headerData = {'Cookie': 'OUTFOX_SEARCH_USER_ID=-2022895048@10.168.8.76;','Referer': 'fanyi.youdao.com','User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'}# 语言类型缩写languageTypeSacronym = {'1': 'zh-CHS 》 en','2': 'zh-CHS 》 ru','3': 'en 》 zh-CHS','4': 'ru 》 zh-CHS',}# 翻译类型translateTypes = ['中文 》 英语','中文 》 俄语','英语 》 中文','俄语 》 中文']def startRequest(tanslateWd):    requestURL = 'http://fanyi.youdao.com/translate_o?smartresult=dict&smartresult=rule'    client = 'fanyideskweb'    timeStamp = getTime()    key = 'ebSeFb%=XZ%T[KZ)c(sy!'    sign = getSign(client, tanslateWd, timeStamp, key)    data = { 'i': tanslateWd,'from':sourceLanguage,'to':targetLanguage,'client':client,'doctype':'json','version':'2.1','salt':timeStamp,'sign':sign,'keyfrom':'fanyi.web','action':'FY_BY_REALTIME','typoResult':'true','smartresult':'dict'}    data = urllib.parse.urlencode(data).encode(encoding="utf-8")    request = urllib.request.Request(requestURL, data=data, headers=headerData)    resonse = urllib.request.urlopen(request)    print(resonse.read().decode("utf-8"))# 生成时间戳def getTime():    return str(int(time.time() * 1000) + random.randint(0, 10))# 生成 Signdef getSign(client, tanslateWd, time, key):    s = client + tanslateWd + time + key    m = hashlib.md5()    m.update(s.encode('utf-8'))    return m.hexdigest()def getTranslateType(translateType):    global sourceLanguage, targetLanguage    try:        if translateType:            l = languageTypeSacronym[translateType].split(' 》 ')            sourceLanguage = l[0]            targetLanguage = l[1]    except:        print('翻译类型选择有误,程序将使用 Auto 模式为您翻译')if __name__ == '__main__':    print('翻译类型:')    for i, data in enumerate(translateTypes):        print('%d: %s' %(i + 1, data))        translateType = input('请选择翻译类型:')        getTranslateType(translateType)        tanslateWd = input('请输入要翻译的消息:')        startRequest(tanslateWd)