一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務器之家 - 腳本之家 - Python - Pytorch 如何加速Dataloader提升數據讀取速度

Pytorch 如何加速Dataloader提升數據讀取速度

2021-11-16 10:41MKFMIKU Python

這篇文章主要介紹了Pytorch 加速Dataloader提升數據讀取速度的操作,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教

在利用DL解決圖像問題時,影響訓練效率最大的有時候是GPU,有時候也可能是CPU和你的磁盤。

很多設計不當的任務,在訓練神經網絡的時候,大部分時間都是在從磁盤中讀取數據,而不是做 Backpropagation 。

這種癥狀的體現是使用 Nividia-smi 查看 GPU 使用率時,Memory-Usage 占用率很高,但是 GPU-Util 時常為 0% ,如下圖所示:

Pytorch 如何加速Dataloader提升數據讀取速度

如何解決這種問題呢?

在 Nvidia 提出的分布式框架 Apex 里面,我們在源碼里面找到了一個簡單的解決方案:

https://github.com/NVIDIA/apex/blob/f5cd5ae937f168c763985f627bbf850648ea5f3f/examples/imagenet/main_amp.py#L256 ?

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
class data_prefetcher():
    def __init__(self, loader):
        self.loader = iter(loader)
        self.stream = torch.cuda.Stream()
        self.mean = torch.tensor([0.485 * 255, 0.456 * 255, 0.406 * 255]).cuda().view(1,3,1,1)
        self.std = torch.tensor([0.229 * 255, 0.224 * 255, 0.225 * 255]).cuda().view(1,3,1,1)
        # With Amp, it isn't necessary to manually convert data to half.
        # if args.fp16:
        #     self.mean = self.mean.half()
        #     self.std = self.std.half()
        self.preload()
 
    def preload(self):
        try:
            self.next_input, self.next_target = next(self.loader)
        except StopIteration:
            self.next_input = None
            self.next_target = None
            return
        with torch.cuda.stream(self.stream):
            self.next_input = self.next_input.cuda(non_blocking=True)
            self.next_target = self.next_target.cuda(non_blocking=True)
            # With Amp, it isn't necessary to manually convert data to half.
            # if args.fp16:
            #     self.next_input = self.next_input.half()
            # else:
            self.next_input = self.next_input.float()
            self.next_input = self.next_input.sub_(self.mean).div_(self.std)

我們能看到 Nvidia 是在讀取每次數據返回給網絡的時候,預讀取下一次迭代需要的數據,

那么對我們自己的訓練代碼只需要做下面的改造:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
training_data_loader = DataLoader(
    dataset=train_dataset,
    num_workers=opts.threads,
    batch_size=opts.batchSize,
    pin_memory=True,
    shuffle=True,
)
for iteration, batch in enumerate(training_data_loader, 1):
    # 訓練代碼
 
#-------------升級后---------
 
data, label = prefetcher.next()
iteration = 0
while data is not None:
    iteration += 1
    # 訓練代碼
    data, label = prefetcher.next()

這樣子我們的 Dataloader 就像打了雞血一樣提高了效率很多,如下圖:

Pytorch 如何加速Dataloader提升數據讀取速度

當然,最好的解決方案還是從硬件上,把讀取速度慢的機械硬盤換成 NVME 固態吧~

補充:Pytorch設置多線程進行dataloader時影響GPU運行

使用PyTorch設置多線程(threads)進行數據讀取時,其實是假的多線程,他是開了N個子進程(PID是連續的)進行模擬多線程工作。

以載入cocodataset為例

DataLoader

?
1
2
3
4
5
dataloader = torch.utils.data.DataLoader(COCODataset(config["train_path"],
                                                     (config["img_w"], config["img_h"]),
                                                     is_training=True),
                                         batch_size=config["batch_size"],
                                         shuffle=True, num_workers=32, pin_memory=True)

numworkers就是指定多少線程的參數,原為32。

檢查GPU是否運行該程序

查看運行在gpu上的所有程序:

?
1
fuser -v /dev/nvidia*

如果沒有返回,則該程序并沒有在GPU上運行

指定GPU運行

將num_workers改成0即可

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持服務器之家。

原文鏈接:https://zhuanlan.zhihu.com/p/66145913

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 99热这里只有精品在线 | 日韩精品欧美 | 丰满艳妇亲伦视频 | 肉色欧美久久久久久久蜜桃 | 国产成人激烈叫床视频 | 美女草b| 99久久综合久中文字幕 | 国产精品免费 | 日韩欧美成末人一区二区三区 | 国产精品视频在线观看 | 欧美精品久久一区二区三区 | 精品综合一区二区三区 | chinesespank打屁股| 秋霞黄色大片 | 亚洲人成在线观看一区二区 | gayrb免费漫画入口 | 国产一区二区精品久久91 | 亚洲国产精品婷婷久久久久 | 亚洲国产精久久久久久久 | 俄罗斯美女毛茸茸bbwbbw | 18捆绑调教在线高清 | 粗了大了 整进去好爽视频 刺激一区仑乱 | 2021精品国夜夜天天拍拍 | 18无删减羞羞网站动漫 | 2018高清国产一道国产 | 日本精品久久久久中文字幕 1 | 国产高清国内精品福利 | 亚洲精品久久玖玖玖玖 | 久久久久青草大香线综合精品 | 无码精品一区二区三区免费视频 | 国产午夜精品不卡视频 | 亚洲精品国产精麻豆久久99 | 亚洲人成在线播放 | 日韩国产欧美成人一区二区影院 | 日本-区二区三区免费精品 日本破处 | 闺蜜高h| 国产永久一区二区三区 | 校园全黄h全肉细节文 | 秀婷程仪公欲息肉婷在线观看 | 色菇凉天天综合网 | 男人j桶进女人p桶爽 |