激情久久久_欧美视频区_成人av免费_不卡视频一二三区_欧美精品在欧美一区二区少妇_欧美一区二区三区的

腳本之家,腳本語言編程技術(shù)及教程分享平臺!
分類導(dǎo)航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務(wù)器之家 - 腳本之家 - Python - python 爬取古詩文存入mysql數(shù)據(jù)庫的方法

python 爬取古詩文存入mysql數(shù)據(jù)庫的方法

2020-05-05 11:12go_flush Python

這篇文章主要介紹了python 爬取古詩文存入mysql數(shù)據(jù)庫的方法,本文通過實例代碼給大家介紹的非常詳細,具有一定的參考借鑒價值,需要的朋友可以參考下

使用正則提取數(shù)據(jù),請求庫requests,看代碼,在存入數(shù)據(jù)庫時,報錯ERROR 1054 (42S22): Unknown column ‘title' in ‘field list'。原來是我寫sql 有問題,sql = “insert into poem(title,author,content,create_time) values({},{},{},{})”.format(title, author,content,crate_time)
應(yīng)該寫成sql = “insert into poem(title,author,content,create_time) values('{}','{}','{}','{}')”.format(title, author,content,crate_time)

把插入的值放入引號中。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
import datetime
import re
import pymysql
import requests
url = "https://www.gushiwen.org/"
headers = {
 'User-Agent': "Mozilla/5.0 (Macintosh; U; Intel Mac OS X 10_6_8; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50"}
class Spiderpoem(object):
 conn = pymysql.Connect(host="localhost", port=3306, user="root", password='mysql', database='poem_data',
       charset="utf8")
 cs1 = conn.cursor()
 def get_requests(self, url, headers=None):
  """發(fā)送請求"""
  resp = requests.get(url, headers=headers)
  if resp.status_code == 200:
   # print(resp.request.headers)
   return resp.text
  return None
 def get_parse(self, response):
  """解析網(wǎng)頁"""
  re_data = {
   "title": r'<div\sclass="sons">.*?<b>(.*?)</b>.*?</div>',
   "author": r'<p>.*?class="source">.*?<a.*?>(.*?)</a>.*?<a.*?>(.*?)</a>.*?</p>',
   "content": r'<div\sclass="contson".*?>(.*?)</div>'
  }
  titles = self.reg_con(re_data["title"], response)
  authors = self.reg_con(re_data["author"], response)
  poems_list = self.reg_con(re_data["content"], response)
  contents = list()
  for item in poems_list:
   ite = re.sub(r'<.*?>|\s', "", item)
   contents.append(ite.strip())
  for value in zip(titles, authors, contents):
   title, author, content = value
   author = "".join([author[0], '.', author[1]])
   poem = {
    "title": title,
    "author": author,
    "content": content
   }
   yield poem
 def reg_con(self, params, response):
  """正則匹配"""
  if not response:
   return "請求錯誤"
  param = re.compile(params, re.DOTALL) # re.DOTALL 匹配換行等價于re.S
  result = re.findall(param, response)
  return result
 @classmethod
 def save_data(cls, poem):
  title = poem.get("title")
  author = poem.get("author")
  content = poem.get("content")
  crate_time = datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")
  sql = "insert into poem(title,author,content,create_time) values('{}','{}','{}','{}')".format(title, author,
                          content,
                          crate_time)
  count = cls.cs1.execute(sql)
  print(count)
  cls.conn.commit()
 def main(self):
  resp = self.get_requests(url, headers)
  for it in self.get_parse(resp):
   self.save_data(it)
  self.cs1.close()
  self.conn.close()
if __name__ == '__main__':
 Spiderpoem().main()

總結(jié)

以上所述是小編給大家介紹的python 爬取古詩文存入mysql數(shù)據(jù)庫的方法,希望對大家有所幫助,如果大家有任何疑問請給我留言,小編會及時回復(fù)大家的。在此也非常感謝大家對服務(wù)器之家網(wǎng)站的支持!
如果你覺得本文對你有幫助,歡迎轉(zhuǎn)載,煩請注明出處,謝謝!

原文鏈接:https://blog.csdn.net/weixin_44224529/article/details/103841355

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 一级外国毛片 | 经典三级在线视频 | 在线观看日本中文字幕 | 亚洲一级电影在线观看 | 97超级碰碰人国产在线观看 | 国产精品av久久久久久久久久 | 欧美日韩中文字幕在线视频 | 日产精品久久久一区二区开放时间 | 加勒比综合 | 久久精品在这里 | 国产中出视频 | 成人爱爱电影 | 视频一区二区三区中文字幕 | 在线播放黄色网址 | 羞羞视频在线免费 | 精品国产乱码久久久久久久久 | 精品国产99久久久久久宅男i | 激情97 | 被摁着灌浓精囚禁高h1v1 | 亚洲情在线 | 日韩精品一区二区在线 | 激情小说激情图片激情电影 | 国产成年人视频网站 | 久久精品性视频 | xp123精品视频 | 欧美亚洲一区二区三区四区 | 夜夜b| 亚洲精品成人在线视频 | 国产亚洲精品久久久久5区 日韩一级片一区二区三区 国产精品久久久久av | 国产九九在线视频 | 亚洲天堂中文字幕在线观看 | 天天看成人免费毛片视频 | 久久综合给合久久狠狠狠97色69 | 日韩av一区二区三区在线观看 | 97久色 | av成人一区二区 | 草操影院 | 国产一级毛片在线看 | 日韩午夜一区二区三区 | 怦然心动50免费完整版 | 91精品国产综合久久久动漫日韩 |