一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務器之家 - 腳本之家 - Python - 7個提升PyTorch性能的技巧

7個提升PyTorch性能的技巧

2021-05-12 01:23機器學習算法與Python學習 Python

本文主要為大家介紹7個提升PyTorch性能的技巧,有需要的朋友可以參考下

7個提升PyTorch性能的技巧

在過去的10個月里,在PyTorch Lightning工作期間,團隊和我已經接觸過許多結構PyTorch代碼的風格,我們已經發現了一些人們無意中引入瓶頸的關鍵地方。

我們非常小心地確保PyTorch Lightning不會對我們為你自動編寫的代碼犯任何這些錯誤,我們甚至會在檢測到這些錯誤時為用戶糾正這些錯誤。然而,由于Lightning只是結構化的PyTorch,而你仍然控制所有的PyTorch,因此在許多情況下,我們不能為用戶做太多事情。

此外,如果不使用Lightning,可能會在無意中將這些問題引入代碼。

為了幫助你訓練得更快,這里有8個技巧,你應該知道它們可能會減慢你的代碼。

在DataLoaders中使用workers

7個提升PyTorch性能的技巧

第一個錯誤很容易糾正。PyTorch允許同時在多個進程上加載數據。

在這種情況下,PyTorch可以通過處理8個批次繞過GIL鎖,每個批次在一個單獨的進程上。你應該使用多少workers?一個好的經驗法則是:

  1. num_worker = 4 * num_GPU 

https://discuss.pytorch.org/t/guidelines-for-assigning-num-workers-to-dataloader/813/7這里對此有一個很好的討論。

警告:缺點是你的內存使用也會增加

Pin memory

 

7個提升PyTorch性能的技巧

你知道有時候你的GPU內存顯示它是滿的但你很確定你的模型沒有使用那么多?這種開銷稱為pinned memory。這個內存被保留為一種“working allocation”類型。

當你在一個DataLoader中啟用pinned_memory時,它“自動將獲取的數據張量放在pinned memory中,并使數據更快地傳輸到CUDA-enabled的gpu”

7個提升PyTorch性能的技巧

這意味著你不應該不必要的去調用:

  1. torch.cuda.empty_cache() 

避免CPU到GPU的傳輸,反之亦然

  1. # bad.cpu()  
  2. .item()  
  3. .numpy() 

我看到大量使用.item()或.cpu()或.numpy()調用。這對于性能來說是非常糟糕的,因為每個調用都將數據從GPU傳輸到CPU,從而極大地降低了性能。

如果你試圖清除附加的計算圖,請使用.detach()。

  1. # good.detach() 

這不會將內存轉移到GPU,它會刪除任何附加到該變量的計算圖。

直接在GPUs上構建張量

 

大多數人都是這樣在GPUs上創建張量的

  1. t = tensor.rand(2,2).cuda() 

然而,這首先創建CPU張量,然后將其轉移到GPU……這真的很慢。相反,直接在想要的設備上創建張量。

  1. t = tensor.rand(2,2, device=torch.device('cuda:0')) 

如果你正在使用Lightning,我們會自動把你的模型和批處理放到正確的GPU上。但是,如果你在代碼的某個地方創建了一個新的張量(例如:為一個VAE采樣隨機噪聲,或類似的東西),那么你必須自己放置張量。

  1. t = tensor.rand(2,2, device=self.device) 

每個LightningModule都有一個方便的self.device調用,無論你是在CPU上,多 GPUs上,還是在TPUs上,lightning會為那個張量選擇正確的設備。

使用DistributedDataParallel不要使用DataParallel

 

PyTorch有兩個主要的模式用于在多 GPUs訓練。第一種是DataParallel,它將一批數據分割到多個GPUs上。但這也意味著模型必須復制到每個GPU上,一旦在GPU 0上計算出梯度,它們必須同步到其他GPU。

這需要大量昂貴的GPU傳輸!相反,DistributedDataParallel在每個GPU(在它自己的進程中)上創建模型副本,并且只讓數據的一部分對該GPU可用。這就像是讓N個獨立的模型進行訓練,除了一旦每個模型都計算出梯度,它們就會在模型之間同步梯度……這意味著我們在每批處理中只在GPUs之間傳輸一次數據。

在Lightning中,你可以在兩者之間輕松切換

  1. Trainer(distributed_backend='ddp'gpus=8 
  2. Trainer(distributed_backend='dp'gpus=8

請注意,PyTorch和Lightning都不鼓勵使用DP。

使用16-bit精度

 

這是另一種加快訓練速度的方法,我們沒有看到很多人使用這種方法。在你的模型進行16bit訓練的部分,數據從32位變到到16位。這有幾個優點:

  1.  你使用了一半的內存(這意味著你可以將batch大小翻倍,并將訓練時間減半)。
  2.  某些GPU(V100, 2080Ti)可以自動加速(3 -8倍),因為它們針對16位計算進行了優化。

在Lightning中,這很簡單:

  1. Trainer(precision=16

注意:在PyTorch 1.6之前,你還必須安裝Nvidia Apex,現在16位是PyTorch的原生版本。但如果你使用的是Lightning,它同時支持這兩種功能,并根據檢測到的PyTorch版本自動切換。

對你的代碼進行Profile

 

如果沒有Lightning,最后一條建議可能很難實現,但你可以使用cprofiler這樣的工具來實現。然而,在Lightning中,你可以通過兩種方式獲得所有在訓練期間所做的調用的總結:

首先,內置的basic profiler

  1. Trainer(profile=True

可以給出這樣的輸出:

7個提升PyTorch性能的技巧

或者是高級的profiler:

  1. profiler = AdvancedProfiler()  
  2. trainer = Trainer(profilerprofiler=profiler) 

得到更小粒度的結果:

7個提升PyTorch性能的技巧

原文鏈接:https://mp.weixin.qq.com/s/FcjMmm0EtWrMtKkYbkh5xQ

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 禁止的爱善良的未删减版hd | yw在线观看成人免费 | 成人欧美一区二区三区 | 亚洲haose在线观看 | 日韩性大片免费 | 亚洲男人第一天堂 | 人人爱天天做夜夜爽88 | 俄罗斯freeⅹ性欧美 | 久久国产加勒比精品无码 | 久99视频精品免费观看福利 | 脱jk裙的美女露小内内无遮挡 | 性色AV一区二区三区V视界影院 | 久久精品美女 | 欧美日韩精品一区二区三区视频播放 | 任我鲁精品视频精品 | 成人久久18免费网站 | 视频二区 素人 制服 国产 | 精品性影院一区二区三区内射 | bnb998八度免费影院丫意浓 | 国产黄频在线观看 | 超级乱淫伦短篇在车上 | 成人亚洲欧美日韩中文字幕 | 亚洲国产自拍在线 | 99pao在线视频精品免费 | 日本888 xxxx| 成人影院免费看 | 久久国产视频网 | 热伊人99re久久精品最新地 | 暖暖免费观看高清在线 | 亚洲电影成人 成人影院 | 好大好硬好紧太深了受不了 | 校园纯肉H教室第一次 | 国产精品主播在线 | 日本久久热 | 男人亚洲天堂 | 40分钟在线观看免费 | 五月色综合婷婷综合俺来也 | 亚洲精品 欧美 | 双性总裁(h) | 91国内精品久久久久怡红院 | 236宅宅2021最新理论 |