激情久久久_欧美视频区_成人av免费_不卡视频一二三区_欧美精品在欧美一区二区少妇_欧美一区二区三区的

腳本之家,腳本語言編程技術(shù)及教程分享平臺(tái)!
分類導(dǎo)航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務(wù)器之家 - 腳本之家 - Python - Python實(shí)戰(zhàn)練習(xí)之終于對(duì)肯德基下手

Python實(shí)戰(zhàn)練習(xí)之終于對(duì)肯德基下手

2022-01-23 22:40Bitdancing Python

讀萬卷書不如行萬里路,學(xué)的扎不扎實(shí)要通過實(shí)戰(zhàn)才能看出來,本篇文章手把手帶你爬下肯德基的官網(wǎng),大家可以在過程中查缺補(bǔ)漏,看看自己掌握程度怎么樣

Python實(shí)戰(zhàn)練習(xí)之終于對(duì)肯德基下手

 

準(zhǔn)備工作

查看肯德基官網(wǎng)的請(qǐng)求方法:post請(qǐng)求。

Python實(shí)戰(zhàn)練習(xí)之終于對(duì)肯德基下手

X-Requested-With: XMLHttpRequest 判斷得肯德基官網(wǎng)是ajax請(qǐng)求

Python實(shí)戰(zhàn)練習(xí)之終于對(duì)肯德基下手

通過這兩個(gè)準(zhǔn)備步驟,明確本次爬蟲目標(biāo):
ajax的post請(qǐng)求肯德基官網(wǎng) 獲取上海肯德基地點(diǎn)前10頁。

 

分析

獲取上海肯德基地點(diǎn)前10頁,那就需要先對(duì)每頁的url進(jìn)行分析。

第一頁

# page1
# http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=cname
# POST
# cname: 上海
# pid:
# pageIndex: 1
# pageSize: 10

第二頁

# page2
# http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=cname
# POST
# cname: 上海
# pid:
# pageIndex: 2
# pageSize: 10

第三頁依次類推。

 

程序入口

首先回顧urllib爬取的基本操作:

# 使用urllib獲取百度首頁的源碼
import urllib.request

# 1.定義一個(gè)url,就是你要訪問的地址
url = 'http://www.baidu.com'

# 2.模擬瀏覽器向服務(wù)器發(fā)送請(qǐng)求 response響應(yīng)
response = urllib.request.urlopen(url)

# 3.獲取響應(yīng)中的頁面的源碼 content內(nèi)容
# read方法 返回的是字節(jié)形式的二進(jìn)制數(shù)據(jù)
# 將二進(jìn)制數(shù)據(jù)轉(zhuǎn)換為字符串
# 二進(jìn)制-->字符串  解碼 decode方法
content = response.read().decode('utf-8')

# 4.打印數(shù)據(jù)
print(content)
  • 定義一個(gè)url,就是你要訪問的地址
  • 模擬瀏覽器向服務(wù)器發(fā)送請(qǐng)求 response響應(yīng)
  • 獲取響應(yīng)中的頁面的源碼 content內(nèi)容
if __name__ == '__main__':
  start_page = int(input('請(qǐng)輸入起始頁碼: '))
  end_page = int(input('請(qǐng)輸入結(jié)束頁碼: '))

  for page in range(start_page, end_page+1):
      # 請(qǐng)求對(duì)象的定制
      request = create_request(page)
      # 獲取網(wǎng)頁源碼
      content = get_content(request)
      # 下載數(shù)據(jù)
      down_load(page, content)

對(duì)應(yīng)的,我們?cè)谥骱瘮?shù)中也類似聲明方法。

 

url組成數(shù)據(jù)定位

Python實(shí)戰(zhàn)練習(xí)之終于對(duì)肯德基下手

爬蟲的關(guān)鍵在于找接口。對(duì)于這個(gè)案例,在預(yù)覽頁可以找到頁面對(duì)應(yīng)的json數(shù)據(jù),說明這是我們要的數(shù)據(jù)。

Python實(shí)戰(zhàn)練習(xí)之終于對(duì)肯德基下手

 

構(gòu)造url

不難發(fā)現(xiàn),肯德基官網(wǎng)的url的一個(gè)共同點(diǎn),我們把它保存為base_url。

base_url = 'http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=cname'

 

參數(shù)

老樣子,找規(guī)律,只有'pageIndex'和頁碼有關(guān)。

  data = {
      'cname': '上海',
      'pid': '',
      'pageIndex': page,
      'pageSize': '10'
  }

 

post請(qǐng)求

  • post請(qǐng)求的參數(shù) 必須要進(jìn)行編碼

data = urllib.parse.urlencode(data).encode('utf-8')

  • 編碼之后必須調(diào)用encode方法
  • 參數(shù)放在請(qǐng)求對(duì)象定制的方法中:post的請(qǐng)求的參數(shù),是不會(huì)拼接在url后面的,而是放在請(qǐng)求對(duì)象定制的參數(shù)中

所以將data進(jìn)行編碼

data = urllib.parse.urlencode(data).encode('utf-8')

 

標(biāo)頭獲取(防止反爬的一種手段)

Python實(shí)戰(zhàn)練習(xí)之終于對(duì)肯德基下手

Python實(shí)戰(zhàn)練習(xí)之終于對(duì)肯德基下手

即 響應(yīng)頭中UA部分。

User Agent,用戶代理,特殊字符串頭,使得服務(wù)器能夠識(shí)別客戶使用的操作系統(tǒng)及版本,CPU類型,瀏覽器及版本,瀏覽器內(nèi)核,瀏覽器渲染引擎,瀏覽器語言,瀏覽器插件等。

headers = {
      'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.71 Safari/537.36 Edg/94.0.992.38'
  }

 

請(qǐng)求對(duì)象定制

參數(shù),base_url,請(qǐng)求頭都準(zhǔn)備得當(dāng)后,就可以進(jìn)行請(qǐng)求對(duì)象定制了。

request = urllib.request.Request(base_url,
headers=headers, data=data)

 

獲取網(wǎng)頁源碼

把request請(qǐng)求作為參數(shù),模擬瀏覽器向服務(wù)器發(fā)送請(qǐng)求 獲得response響應(yīng)。

response = urllib.request.urlopen(request)
  content = response.read().decode('utf-8')

 

獲取響應(yīng)中的頁面的源碼,下載數(shù)據(jù)

使用 read()方法,得到字節(jié)形式的二進(jìn)制數(shù)據(jù),需要使用 decode進(jìn)行解碼,轉(zhuǎn)換為字符串。

content = response.read().decode('utf-8')

然后我們將下載得到的數(shù)據(jù)寫進(jìn)文件,使用 with open() as fp 的語法,系統(tǒng)自動(dòng)關(guān)閉文件。

def down_load(page, content):
  with open('kfc_' + str(page) + '.json', 'w', encoding='utf-8') as fp:
      fp.write(content)

 

全部代碼

# ajax的post請(qǐng)求肯德基官網(wǎng) 獲取上海肯德基地點(diǎn)前10頁

# page1
# http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=cname
# POST
# cname: 上海
# pid:
# pageIndex: 1
# pageSize: 10

# page2
# http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=cname
# POST
# cname: 上海
# pid:
# pageIndex: 2
# pageSize: 10

import urllib.request, urllib.parse

def create_request(page):
  base_url = 'http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=cname'

  data = {
      'cname': '上海',
      'pid': '',
      'pageIndex': page,
      'pageSize': '10'
  }

  data = urllib.parse.urlencode(data).encode('utf-8')

  headers = {
      'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.71 Safari/537.36 Edg/94.0.992.38'
  }

  request = urllib.request.Request(base_url, headers=headers, data=data)
  return request

def get_content(request):
  response = urllib.request.urlopen(request)
  content = response.read().decode('utf-8')
  return content

def down_load(page, content):
  with open('kfc_' + str(page) + '.json', 'w', encoding='utf-8') as fp:
      fp.write(content)

if __name__ == '__main__':
  start_page = int(input('請(qǐng)輸入起始頁碼: '))
  end_page = int(input('請(qǐng)輸入結(jié)束頁碼: '))

  for page in range(start_page, end_page+1):
      # 請(qǐng)求對(duì)象的定制
      request = create_request(page)
      # 獲取網(wǎng)頁源碼
      content = get_content(request)
      # 下載數(shù)據(jù)
      down_load(page, content)

爬取后結(jié)果

Python實(shí)戰(zhàn)練習(xí)之終于對(duì)肯德基下手

鞠躬!!!其實(shí)還爬過Lisa的照片,想看爬蟲代碼的歡迎留言 !!!

到此這篇關(guān)于Python實(shí)戰(zhàn)練習(xí)之終于對(duì)肯德基下手的文章就介紹到這了,更多相關(guān)Python 肯德基官網(wǎng)內(nèi)容請(qǐng)搜索服務(wù)器之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持服務(wù)器之家!

原文鏈接:https://blog.csdn.net/Joy_Cheung666/article/details/120710070

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 亚洲午夜久久久精品一区二区三区 | 国产精品成人免费一区久久羞羞 | 免费视频一区 | 奶子吧naiziba.cc免费午夜片在线观看 | 久久九九热re6这里有精品 | 91网站链接 | 91在线观看| 亚洲欧美日韩久久精品第一区 | 国产色妞影院wwwxxx | 久久精品国产精品亚洲 | 看免费黄色一级片 | 草莓视频久久 | 色婷婷久久久久久 | 草久在线 | 午夜网站视频 | 中文字幕在线观看免费 | 18欧美性xxxx极品hd | 成人免费观看在线视频 | 色播久久| 欧美一级免费高清 | v片在线看 | 天堂成人国产精品一区 | 久久久麻豆 | 国产精品久久久久久久久粉嫩 | 欧美福利视频一区二区三区 | 国产精品久久久久久久午夜片 | 久久久久久麻豆 | 久久网国产 | 一级黄色影片在线观看 | 天天色宗合 | 欧美一级免费高清 | 999久久久国产999久久久 | 日本精品黄色 | 国产欧美日韩视频在线观看 | 欧美成人免费电影 | 鲁一鲁一鲁一鲁一曰综合网 | av资源在线天堂 | 鲁丝片一区二区三区免费入口 | 国产一区二区三区在线免费观看 | 国产午夜精品一区二区三区免费 | 免费在线一区二区 |