濮阳杆衣贸易有限公司

主頁 > 知識庫 > pytorch DataLoader的num_workers參數(shù)與設(shè)置大小詳解

pytorch DataLoader的num_workers參數(shù)與設(shè)置大小詳解

熱門標(biāo)簽:河北防封卡電銷卡 400電話辦理哪種 開封自動外呼系統(tǒng)怎么收費 電銷機器人的風(fēng)險 手機網(wǎng)頁嵌入地圖標(biāo)注位置 天津電話機器人公司 開封語音外呼系統(tǒng)代理商 地圖標(biāo)注線上如何操作 應(yīng)電話機器人打電話違法嗎

Q:在給Dataloader設(shè)置worker數(shù)量(num_worker)時,到底設(shè)置多少合適?這個worker到底怎么工作的?

    train_loader = torch.utils.data.DataLoader(train_dataset,
                                               batch_size=batch_size, shuffle=True,
                                               num_workers=4)

參數(shù)詳解:

1、每次dataloader加載數(shù)據(jù)時:dataloader一次性創(chuàng)建num_worker個worker,(也可以說dataloader一次性創(chuàng)建num_worker個工作進(jìn)程,worker也是普通的工作進(jìn)程),并用batch_sampler將指定batch分配給指定worker,worker將它負(fù)責(zé)的batch加載進(jìn)RAM。

然后,dataloader從RAM中找本輪迭代要用的batch,如果找到了,就使用。如果沒找到,就要num_worker個worker繼續(xù)加載batch到內(nèi)存,直到dataloader在RAM中找到目標(biāo)batch。一般情況下都是能找到的,因為batch_sampler指定batch時當(dāng)然優(yōu)先指定本輪要用的batch。

2、num_worker設(shè)置得大,好處是尋batch速度快,因為下一輪迭代的batch很可能在上一輪/上上一輪...迭代時已經(jīng)加載好了。壞處是內(nèi)存開銷大,也加重了CPU負(fù)擔(dān)(worker加載數(shù)據(jù)到RAM的進(jìn)程是CPU復(fù)制的嘛)。num_workers的經(jīng)驗設(shè)置值是自己電腦/服務(wù)器的CPU核心數(shù),如果CPU很強、RAM也很充足,就可以設(shè)置得更大些。

3、如果num_worker設(shè)為0,意味著每一輪迭代時,dataloader不再有自主加載數(shù)據(jù)到RAM這一步驟(因為沒有worker了),而是在RAM中找batch,找不到時再加載相應(yīng)的batch。缺點當(dāng)然是速度更慢。

設(shè)置大小建議:

1、Dataloader的num_worker設(shè)置多少才合適,這個問題是很難有一個推薦的值。有以下幾個建議:

2、num_workers=0表示只有主進(jìn)程去加載batch數(shù)據(jù),這個可能會是一個瓶頸。

3、num_workers = 1表示只有一個worker進(jìn)程用來加載batch數(shù)據(jù),而主進(jìn)程是不參與數(shù)據(jù)加載的。這樣速度也會很慢。

num_workers>0 表示只有指定數(shù)量的worker進(jìn)程去加載數(shù)據(jù),主進(jìn)程不參與。增加num_works也同時會增加cpu內(nèi)存的消耗。所以num_workers的值依賴于 batch size和機器性能。

4、一般開始是將num_workers設(shè)置為等于計算機上的CPU數(shù)量

5、最好的辦法是緩慢增加num_workers,直到訓(xùn)練速度不再提高,就停止增加num_workers的值。

補充:pytorch中Dataloader()中的num_workers設(shè)置問題

如果num_workers的值大于0,要在運行的部分放進(jìn)__main__()函數(shù)里,才不會有錯:

import numpy as np
import torch
from torch.autograd import Variable
import torch.nn.functional
import matplotlib.pyplot as plt
import torch.utils.data as Data 
 
BATCH_SIZE=5
 
x=torch.linspace(1,10,10)
y=torch.linspace(10,1,10)
torch_dataset=Data.TensorDataset(x,y)
loader=Data.DataLoader(
    dataset=torch_dataset,
    batch_size=BATCH_SIZE,
    shuffle=True,
    num_workers=2,
) 
 
def main():
    for epoch in range(3):
        for step,(batch_x,batch_y) in enumerate(loader):
            # training....
            print('Epoch:',epoch,'| step:',step,'| batch x:',batch_x.numpy(),
                  '| batch y:',batch_y.numpy()) 
 
if __name__=="__main__":
    main() 
 
'''
# 下面這樣直接運行會報錯:
 for epoch in range(3):
     for step,(batch_x,batch_y) in enumerate(loader):
         # training....
          print('Epoch:',epoch,'| step:',step,'| batch x:',batch_x.numpy(),
                  '| batch y:',batch_y.numpy()
'''

以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • pytorch鎖死在dataloader(訓(xùn)練時卡死)
  • pytorch Dataset,DataLoader產(chǎn)生自定義的訓(xùn)練數(shù)據(jù)案例
  • 解決Pytorch dataloader時報錯每個tensor維度不一樣的問題
  • pytorch中DataLoader()過程中遇到的一些問題
  • Pytorch dataloader在加載最后一個batch時卡死的解決
  • Pytorch 如何加速Dataloader提升數(shù)據(jù)讀取速度
  • pytorch 實現(xiàn)多個Dataloader同時訓(xùn)練

標(biāo)簽:宿遷 駐馬店 常州 山東 成都 六盤水 江蘇 蘭州

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《pytorch DataLoader的num_workers參數(shù)與設(shè)置大小詳解》,本文關(guān)鍵詞  pytorch,DataLoader,的,num,workers,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《pytorch DataLoader的num_workers參數(shù)與設(shè)置大小詳解》相關(guān)的同類信息!
  • 本頁收集關(guān)于pytorch DataLoader的num_workers參數(shù)與設(shè)置大小詳解的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    堆龙德庆县| 介休市| 兴国县| 靖宇县| 平顺县| 苏尼特左旗| 永清县| 桃园市| 德钦县| 武隆县| 寿阳县| 长武县| 龙泉市| 镇原县| 伊春市| 镇康县| 台州市| 武穴市| 雷山县| 铜川市| 涞源县| 柳林县| 嘉定区| 正镶白旗| 漳浦县| 望江县| 成安县| 建瓯市| 阳城县| 遵义市| 黄山市| 酉阳| 孟津县| 景宁| 博爱县| 左权县| 青阳县| 靖江市| 凤阳县| 舞阳县| 濮阳市|