Urllib3是一個功能強大,條理清晰,用于HTTP客戶端的Python庫。許多Python的原生系統已經開始使用urllib3。Urllib3提供了很多python標準庫urllib里所沒有的重要特性:
- 線程安全
- 連接池
- 客戶端SSL/TLS驗證
- 文件分部編碼上傳
- 協助處理重復請求和HTTP重定位
- 支持壓縮編碼
- 支持HTTP和SOCKS代理
一、get請求
urllib3主要使用連接池進行網絡請求的訪問,所以訪問之前我們需要創建一個連接池對象,如下所示:
1
2
3
4
5
6
7
8
9
10
11
|
import urllib3 url = "http://httpbin.org" http = urllib3.PoolManager(); r = http.request( 'GET' ,url + "/get" ) print (r.data.decode()) print (r.status) 帶參數的get r = http.request( 'get' , 'http://www.baidu.com/s' ,fields = { 'wd' : '周杰倫' }) print (r.data.decode()) |
經查看源碼:
1
|
def request( self , method, url, fields = None , headers = None , * * urlopen_kw): |
- 第一個參數method 必選,指定是什么請求,'get'、'GET'、'POST'、'post'、'PUT'、'DELETE'等,不區分大小寫。
- 第二個參數url,必選
- 第三個參數fields,請求的參數,可選
- 第四個參數headers 可選
request請求的返回值是<urllib3.response.HTTPResponse object at 0x000001B3879440B8>
我們可以通過dir()查看其所有的屬性和方法。
dir(r)
直截取了一部分
1
2
3
4
5
6
|
#'data', 'decode_content', 'enforce_content_length', 'fileno', 'flush', 'from_httplib', # 'get_redirect_location', 'getheader', 'getheaders', 'headers', 'info', 'isatty', # 'length_remaining', 'read', 'read_chunked', 'readable', 'readinto', 'readline', # 'readlines', 'reason', 'release_conn', 'retries', 'seek', 'seekable', 'status', # 'stream', 'strict', 'supports_chunked_reads', 'tell', 'truncate', 'version', 'writable', # 'writelines'] |
二、post請求
1
2
3
4
5
6
7
8
|
import urllib3 url = "http://httpbin.org" fields = { 'name' : 'xfy' } http = urllib3.PoolManager() r = http.request( 'post' ,url + "/post" ,fields = fields) print (r.data.decode()) |
可以看到很簡單,只是第一個參數get換成了post。
并且參數不需要再像urllib一樣轉換成byte型了。
三、設置headers
1
2
3
4
5
6
7
|
import urllib3 headers = { 'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36' } http = urllib3.PoolManager(); r = http.request( 'get' ,url + "/get" ,headers = headers) print (r.data.decode()) |
四、設置代理
1
2
3
4
5
6
7
8
|
import urllib3 url = "http://httpbin.org" headers = { 'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36' } proxy = urllib3.ProxyManager( 'http://101.236.19.165:8866' ,headers = headers) r = proxy.request( 'get' ,url + "/ip" ) print (r.data.decode()) |
五、當請求的參數為json
在發起請求時,可以通過定義body 參數并定義headers的Content-Type參數來發送一個已經過編譯的JSON數據
1
2
3
4
5
6
7
8
9
10
|
import urllib3 url = "http://httpbin.org" import json data = { 'name' : '徐繁韻' } json_data = json.dumps(data) http = urllib3.PoolManager() r = http.request( 'post' ,url + "/post" ,body = json_data,headers = { 'Content-Type' : 'application/json' }) print (r.data.decode( 'unicode_escape' )) |
六、上傳文件
1
2
3
4
5
6
7
8
9
10
11
|
#元組形式 with open ( 'a.html' , 'rb' ) as f: data = f.read() http = urllib3.PoolManager() r = http.request( 'post' , 'http://httpbin.org/post' ,fields = { 'filefield' :( 'a.html' ,data, 'text/plain' )}) print (r.data.decode()) #二進制形式 r = http.request( 'post' , 'http://httpbin.org/post' ,body = data,headers = { 'Content-Type' : 'image/jpeg' }) print (r.data.decode()) |
七、超時設置
1
2
3
4
|
# 1全局設置超時 # http = urllib3.PoolManager(timeout = 3) # 2在request里設置 # http.request('post','http://httpbin.org/post',timeout = 3) |
八、重試和重定向
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
import urllib3 http = urllib3.PoolManager() #重試 r = http.request( 'post' , 'http://httpbin.org/post' ,retries = 5 ) #請求重試測次數為5次 ,默認為3ci print (r.retries) #Retry(total=5, connect=None, read=None, redirect=0, status=None) #關閉重試 http.request( 'post' , 'http://httpbin.org/post' ,retries = False ) #請求重試測次數為5次 ,默認為3ci r = http.request( 'get' , 'http://httpbin.org/redirect/1' ,redirect = False ) print (r.retries) # Retry(total=3, connect=None, read=None, redirect=None, status=None) print (r.status) print (r.data.decode()) print ( "--------------------" ) print (r.get_redirect_location()) #302不是異常 |
九、urllib3 本身設置了https的處理,但是有警告
雖然可以請求,但是報如下警告:
InsecureRequestWarning: Unverified HTTPS request is being made. Adding certificate verification is strongly advised. See: https://urllib3.readthedocs.io/en/latest/advanced-usage.html#ssl-warnings
InsecureRequestWarning)
禁用警告:
1
2
3
4
5
6
|
import urllib3 urllib3.disable_warnings() #禁用各種警告 url = "https://www.12306.cn/mormhweb/" http = urllib3.PoolManager() r = http.request( 'get' ,url) print (r.data.decode()) |
urllib3很強大,但是并沒有requests好用。了解為主。
以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持服務器之家。
原文鏈接:https://www.jianshu.com/p/cc2b9e9ef28a