一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務器之家 - 腳本之家 - Python - 如何使用python爬取知乎熱榜Top50數據

如何使用python爬取知乎熱榜Top50數據

2022-01-12 00:20小狐貍夢想去童話鎮 Python

主要是爬取知乎熱榜的問題及點贊數比較高的答案,通過requests請求庫進行爬取,對大家的學習或工作具有一定的價值,需要的朋友可以參考下

1、導入第三方庫

import urllib.request,urllib.error  #請求網頁
from bs4 import BeautifulSoup  # 解析數據
import sqlite3  # 導入數據庫
import re # 正則表達式
import time # 獲取當前時間

 

2、程序的主函數

def main():
  # 聲明爬取網頁
  baseurl = "https://www.zhihu.com/hot"
  # 爬取網頁
  datalist = getData(baseurl)
  #保存數據
  dbname = time.strftime("%Y-%m-%d", time.localtime()) # 
  dbpath = "zhihuTop50  " + dbname
  saveData(datalist,dbpath)

 

3、正則表達式匹配數據

#正則表達式
findlink = re.compile(r'<a class="css-hi1lih" href="(.*?)" rel="external nofollow"  rel="external nofollow" ') #問題鏈接
findid = re.compile(r'<div class="css-blkmyu">(.*?)</div>') #問題排名
findtitle = re.compile(r'<h1 class="css-3yucnr">(.*?)</h1>') #問題標題
findintroduce = re.compile(r'<div class="css-1o6sw4j">(.*?)</div>') #簡要介紹
findscore = re.compile(r'<div class="css-1iqwfle">(.*?)</div>') #熱門評分
findimg = re.compile(r'<img class="css-uw6cz9" src="(.*?)"/>') #文章配圖

 

4、程序運行結果

如何使用python爬取知乎熱榜Top50數據

如何使用python爬取知乎熱榜Top50數據

 

5、程序源代碼

import urllib.request,urllib.error
from bs4 import BeautifulSoup
import sqlite3
import re
import time

def main():
  # 聲明爬取網頁
  baseurl = "https://www.zhihu.com/hot"
  # 爬取網頁
  datalist = getData(baseurl)
  #保存數據
  dbname = time.strftime("%Y-%m-%d", time.localtime())
  dbpath = "zhihuTop50  " + dbname
  saveData(datalist,dbpath)
  print()
#正則表達式
findlink = re.compile(r'<a class="css-hi1lih" href="(.*?)" rel="external nofollow"  rel="external nofollow" ') #問題鏈接
findid = re.compile(r'<div class="css-blkmyu">(.*?)</div>') #問題排名
findtitle = re.compile(r'<h1 class="css-3yucnr">(.*?)</h1>') #問題標題
findintroduce = re.compile(r'<div class="css-1o6sw4j">(.*?)</div>') #簡要介紹
findscore = re.compile(r'<div class="css-1iqwfle">(.*?)</div>') #熱門評分
findimg = re.compile(r'<img class="css-uw6cz9" src="(.*?)"/>') #文章配圖

def getData(baseurl):
  datalist = []
  html = askURL(baseurl)
  # print(html)

  soup = BeautifulSoup(html,'html.parser')
  for item in soup.find_all('a',class_="css-hi1lih"):
      # print(item)
      data = []
      item = str(item)

      Id = re.findall(findid,item)
      if(len(Id) == 0):
          Id = re.findall(r'<div class="css-mm8qdi">(.*?)</div>',item)[0]
      else: Id = Id[0]
      data.append(Id)
      # print(Id)

      Link = re.findall(findlink,item)[0]
      data.append(Link)
      # print(Link)

      data.append(Title)
      # print(Title)

      Introduce = re.findall(findintroduce,item)
      if(len(Introduce) == 0):
          Introduce = " "
      else:Introduce = Introduce[0]
      data.append(Introduce)
      # print(Introduce)

      Score = re.findall(findscore,item)[0]
      data.append(Score)
      # print(Score)

      Img = re.findall(findimg,item)
      if (len(Img) == 0):
          Img = " "
      else: Img = Img[0]
      data.append(Img)
      # print(Img)
      datalist.append(data)
  return datalist
def askURL(baseurl):
  # 設置請求頭
  head = {
      # "User-Agent": "Mozilla/5.0 (Windows NT 10.0;Win64;x64) AppleWebKit/537.36(KHTML, likeGecko) Chrome/80.0.3987.163Safari/537.36"
      "User-Agent": "Mozilla / 5.0(iPhone;CPUiPhoneOS13_2_3likeMacOSX) AppleWebKit / 605.1.15(KHTML, likeGecko) Version / 13.0.3Mobile / 15E148Safari / 604.1"
  }
  request = urllib.request.Request(baseurl, headers=head)
  html = ""
  try:
      response = urllib.request.urlopen(request)
      html = response.read().decode("utf-8")
      # print(html)
  except urllib.error.URLError as e:
      if hasattr(e, "code"):
          print(e.code)
      if hasattr(e, "reason"):
          print(e.reason)
  return html
  print()
def saveData(datalist,dbpath):
  init_db(dbpath)
  conn = sqlite3.connect(dbpath)
  cur = conn.cursor()

  for data in datalist:
      sql = '''
      insert into Top50(
      id,info_link,title,introduce,score,img)
      values("%s","%s","%s","%s","%s","%s")'''%(data[0],data[1],data[2],data[3],data[4],data[5])
      print(sql)
      cur.execute(sql)
      conn.commit()
  cur.close()
  conn.close()
def init_db(dbpath):
  sql = '''
  create table Top50
  (
  id integer primary key autoincrement,
  info_link text,
  title text,
  introduce text,
  score text,
  img text
  )
  '''
  conn = sqlite3.connect(dbpath)
  cursor = conn.cursor()
  cursor.execute(sql)
  conn.commit()
  conn.close()

if __name__ =="__main__":
  main()

到此這篇關于如何使用python爬取知乎熱榜Top50數據的文章就介紹到這了,更多相關python 爬取知乎內容請搜索服務器之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持服務器之家!

原文鏈接:https://blog.csdn.net/gets_s/article/details/115096619

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 国产精品亚洲午夜不卡 | 久久久久伊人 | 久久五月综合婷婷中文云霸高清 | 91精品国产色综合久久不卡蜜 | 色综合伊人色综合网亚洲欧洲 | 国产成人夜色91 | 日本久久免费大片 | 免费岛国片 | xxxxxx性受 | 成人在线观看免费视频 | 亚洲图片一区二区三区 | 欧美草逼网 | 乳女教师欲乱动漫无修版动画3d | 色天天综合网色鬼综合 | 亚洲高清在线天堂精品 | 欧美一级高清片免费一级 | 色婷婷综合久久久中文字幕 | 国产91精品在线观看 | 午夜国产 | 男人操美女逼视频 | ckinese中国男同gay男男 | 天天舔天天干天天操 | 亚洲香蕉网久久综合影院3p | 日韩欧美一区二区三区视频 | 欧美伦乱| 精品AV无码一二三区视频 | 唯美 清纯 另类 亚洲制服 | 亚洲国产精品第一区二区三区 | 四虎欧美| 国产好痛疼轻点好爽的视频 | 欧美色图日韩色图 | 欧美专区综合 | 九九精品热 | 加勒比伊人 | 国产一精品一av一免费爽爽 | 国产网站免费在线观看 | 亚洲国产一区二区a毛片 | 男男同gayxxx | 人与动人物人a级特片 | 99在线视频精品费观看视 | 97香蕉超级碰碰碰久久兔费 |