一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

腳本之家,腳本語(yǔ)言編程技術(shù)及教程分享平臺(tái)!
分類導(dǎo)航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務(wù)器之家 - 腳本之家 - Python - Python制作豆瓣圖片的爬蟲

Python制作豆瓣圖片的爬蟲

2020-12-29 00:50是與非 Python

本文給大家分享的是作者制作的爬取豆瓣首頁(yè)圖片的爬蟲代碼,代碼很簡(jiǎn)單,大家可以參考下思路,希望可以幫到大家

  前段時(shí)間自學(xué)了一段時(shí)間的Python,想著濃一點(diǎn)項(xiàng)目來(lái)練練手。看著大佬們一說(shuō)就是爬了100W+的數(shù)據(jù)就非常的羨慕,不過(guò)對(duì)于我這種初學(xué)者來(lái)說(shuō),也就爬一爬圖片。

  我相信很多人的第一個(gè)爬蟲程序都是爬去貼吧的圖片,嗯,我平時(shí)不玩貼吧,加上我覺得豆瓣挺良心的,我就爬了豆瓣首頁(yè)上面的圖片。其實(shí)最剛開始是想爬全站,后來(lái)一想我這簡(jiǎn)直是腦子犯抽,全站的圖片爬下來(lái)得有多少,再說(shuō)這個(gè)只是練一下手,所以就只爬取了首頁(yè)上的圖片。廢話不多說(shuō) 開始代碼。

  首先是主文件的代碼:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
import re
from html_downloder import HtmlDownloader
from html_downloder import Image
 
"'起始URL'"
url = "https://www.douban.com"
"'保存目錄'"
image_path = "F:\source\Python\爬蟲\ImageGet\Image%s.jpg"
"'定義實(shí)體類'"
downloader = HtmlDownloader()
html = downloader.download(url)
"'SaveFile(html, html_path)'"
html = html.decode('utf-8')
"'正則表達(dá)式'"
reg1 = r'="(https://img[\S]*?[jpg|png])"'
"'提取圖片的URL'"
dbdata = re.findall(reg1, html)
imgsave = Image()
 
"'下載保存圖片'"
imgsave.ImageGet(dbdata, image_path)

我們打開豆瓣首頁(yè)然后看一下里面圖片的url會(huì)發(fā)現(xiàn)

Python制作豆瓣圖片的爬蟲

Python制作豆瓣圖片的爬蟲

都是以“=”等號(hào)開頭,后面接雙引號(hào),中間都是https://img,末尾以雙引號(hào)結(jié)束。

因此我們的正則表達(dá)式可以寫成 reg1 = r'="(https://img[\S]*?[jpg|png])"'

在這個(gè)表達(dá)式中"[]"中括號(hào)里面的東西會(huì)作為一個(gè)整體,其中[\S]表示大小寫字母和數(shù)字,[jpg|png]表示以png結(jié)尾或者jpg結(jié)尾(在這次爬蟲中并沒有包括gif,因?yàn)榇蜷_gif的url發(fā)現(xiàn)是空白)。

 

然后是html_downloder.py的代碼:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
# file: html_downloader.py
 
import urllib.request
import urllib.error
import time
 
class HtmlDownloader(object):
 def download(self, url):
  if url is None:
   return None
  try:
   header = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64)'}
   "'發(fā)出請(qǐng)求'"
   request = urllib.request.Request(url=url, headers=header)
   "'獲取結(jié)果'"
   response = urllib.request.urlopen(url)
  except urllib.error.URLError as e:
   if hasattr(e, "code"):
    print(e.code)
   if hasattr(e, "reason"):
    print(e.reason)
  if response.getcode() != 200:
   return None
  html = response.read()
  response.close()
  return html
 
class Image (object):
 def ImageGet(self, imageurl, image_path):
  x = 0
  for li in imageurl:
   urllib.request.urlretrieve(li, image_path % x)
   x = x + 1
   "'休眠5s以免給服務(wù)器造成嚴(yán)重負(fù)擔(dān)'"
   time.sleep(5)
這個(gè)文件的代碼主要是負(fù)責(zé)下載html網(wǎng)頁(yè)和下載具體的圖片。

接下來(lái)就可以在保存路徑對(duì)應(yīng)的文件夾中中看到下載的圖片了

Python制作豆瓣圖片的爬蟲

至此,爬蟲告一段落,離大佬的路還遠(yuǎn)得很,繼續(xù)加油!!

原文鏈接:http://www.cnblogs.com/establish/p/8127784.html

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 免费视频左左视频 | 欧美国产精品 | 国产一级大片免费看 | 3p文两男一女办公室高h | 幸福草电视剧演员表介绍 | 国产精品免费观在线 | 亚洲欧美成人综合 | 男人的j放进女人的p全黄 | 国产精品久久久久影视不卡 | 国产在线乱子伦一区二区 | 成年人免费观看的视频 | 免费激情小视频 | 国产区成人综合色在线 | 娇妻与公陈峰姚瑶小说在线阅读 | 亚洲国产日韩欧美mv | 亚洲邪恶天堂影院在线观看 | 国产欧美日韩专区毛茸茸 | www.四虎影| 色橹| 99色在线观看 | 亚洲 欧美 国产 综合 播放 | 色噜噜国产精品视频一区二区 | 国产毛片在线观看 | 无码AV熟妇素人内射V在线 | 日本高清在线精品一区二区三区 | 国产成人一区二区三区视频免费蜜 | 国产情侣自拍网 | 激情艳妇 | 国产精品久久久久毛片真精品 | 乳环调教| 国产精品久久久久这里只有精品 | 天天色综合色 | 99国产热 | 啪啪免费网址 | 亚洲 制服 欧美 中文字幕 | 日本高清在线看免费观看 | 99爱免费 | 2022超帅男同gayxxx | 国产精品久久国产三级国电话系列 | 二次元美女内裤凹陷太深 | 99视频在线国产 |