濮阳杆衣贸易有限公司

主頁 > 知識庫 > pytorch 兩個GPU同時訓(xùn)練的解決方案

pytorch 兩個GPU同時訓(xùn)練的解決方案

熱門標(biāo)簽:市場上的電銷機(jī)器人 朝陽手機(jī)外呼系統(tǒng) 北京電銷外呼系統(tǒng)加盟 所得系統(tǒng)電梯怎樣主板設(shè)置外呼 儋州電話機(jī)器人 地圖標(biāo)注面積 北瀚ai電銷機(jī)器人官網(wǎng)手機(jī)版 小蘇云呼電話機(jī)器人 佛山400電話辦理

使用場景

我有兩個GPU卡。我希望我兩個GPU能并行運(yùn)行兩個網(wǎng)絡(luò)模型。

代碼

錯誤代碼1:

#對于0號GPU
os.environ['CUDA_VISIBLE_DEVICES']='0,1'
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
#對于1號GPU
os.environ['CUDA_VISIBLE_DEVICES']='0,1'
device = torch.device("cuda:1" if torch.cuda.is_available() else "cpu")

0號GPU不報錯,1號GPU報錯。錯誤如下

RuntimeError: Expected tensor for argument #1 ‘input' to have the same device as tensor for argument #2 ‘weight'; but device 0 does not equal 1 (while checking arguments for cudnn_convolution)

錯誤代碼2:

#對于0號GPU
os.environ['CUDA_VISIBLE_DEVICES']='0'
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
#對于1號GPU
os.environ['CUDA_VISIBLE_DEVICES']='1'
device = torch.device("cuda:1" if torch.cuda.is_available() else "cpu")

0號GPU不報錯,1號GPU報錯。錯誤如下

CUDA: invalid device ordinal

正確代碼如下:

#對于0號GPU
os.environ['CUDA_VISIBLE_DEVICES']='0'
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
#對于1號GPU
os.environ['CUDA_VISIBLE_DEVICES']='1'
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

pytorch 多個gpu遇到的問題

目前所在學(xué)校的計算機(jī)系自己搭建了個GPU Farm,設(shè)備是GTX 1080 Ti的,看起來還算ok,但其實細(xì)究起來還挺雞肋的。但是總對于數(shù)據(jù)量巨大的項目,還是需要跑代碼吧,將就著用了。因為資源有限,分配到超過1個gpu需要排隊,所以從來沒嘗試過使用多個gpu。最近由于數(shù)據(jù)量變大,也急于取得進(jìn)展,因此開始嘗試分配多個gpu。使用的過程中出現(xiàn)的問題,在此做個記錄。

首先,因為不同平臺的GPU Farm搭建的規(guī)則不一樣,如何分配到多個gpu在此就不做記錄了。不得不說,學(xué)校的GPU Farm資源少的可憐,分配到2個gpu常常要排隊半小時。

以下羅列遇到的問題。

torch.nn.DataParallel()

因為對pytorch的理解還不夠深,因此為了提高速度,從官網(wǎng)上注意到DataParallel,據(jù)說最簡單的方法是直接用

model = torch.nn.DataParallel(model)
model.cuda()

來實現(xiàn),但是萬萬沒想到它給我?guī)淼臅r間浪費(fèi)還真不是一星半點。

首先我分配到了2個gpu設(shè)備,之后在我的代碼中只添加了如上的命令,而后便收到了如下報錯

ValueError: only one element tensors can be converted to Python scalars

這個報錯直指我的 loss.item(),通過debug我發(fā)現(xiàn)它的tensor dimension的確變成了2個elements。在做了更多無效debug和上網(wǎng)查閱之后,我鬼使神差地調(diào)整回了1個gpu想看看效果會不會不一樣,然后居然順利運(yùn)行了。

稍微思考一下,感覺倒是很合理。假設(shè)兩個gpu并行同時各自訓(xùn)練一個batch,那么得到的loss自然應(yīng)該是2個elements,淺顯地認(rèn)為將其看做兩個batch訓(xùn)練的loss結(jié)果就可以了。

目前手頭有比較急于出結(jié)果的數(shù)據(jù)集和項目,因此暫時沒有過多的時間去研究具體為什么會有這種情況的出現(xiàn),不過這也證實了想要合理正確地運(yùn)用多個gpu同時作業(yè),顯然不是那么簡單地幾行代碼就能解決的。

以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • pytorch使用horovod多gpu訓(xùn)練的實現(xiàn)
  • 解決pytorch多GPU訓(xùn)練保存的模型,在單GPU環(huán)境下加載出錯問題
  • pytorch 指定gpu訓(xùn)練與多gpu并行訓(xùn)練示例
  • 用Pytorch訓(xùn)練CNN(數(shù)據(jù)集MNIST,使用GPU的方法)
  • pytorch 使用單個GPU與多個GPU進(jìn)行訓(xùn)練與測試的方法
  • pytorch使用指定GPU訓(xùn)練的實例
  • 關(guān)于pytorch多GPU訓(xùn)練實例與性能對比分析
  • pytorch 如何在GPU上訓(xùn)練

標(biāo)簽:酒泉 云南 江蘇 定西 金融催收 寧夏 龍巖 商丘

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《pytorch 兩個GPU同時訓(xùn)練的解決方案》,本文關(guān)鍵詞  pytorch,兩個,GPU,同時,訓(xùn)練,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《pytorch 兩個GPU同時訓(xùn)練的解決方案》相關(guān)的同類信息!
  • 本頁收集關(guān)于pytorch 兩個GPU同時訓(xùn)練的解決方案的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    安塞县| 石渠县| 分宜县| 英山县| 元谋县| 攀枝花市| 甘德县| 永平县| 含山县| 伊金霍洛旗| 萍乡市| 寿阳县| 石景山区| 砚山县| 伊金霍洛旗| 和田县| 洪湖市| 墨竹工卡县| 晋江市| 瑞昌市| 蓝田县| 玉树县| 板桥市| 仁布县| 清徐县| 东丰县| 上林县| 六枝特区| 渭源县| 平江县| 天峨县| 怀仁县| 饶阳县| 兴安县| 浮山县| 岑巩县| 正蓝旗| 台前县| 博罗县| 锦屏县| 固始县|