濮阳杆衣贸易有限公司

主頁(yè) > 知識(shí)庫(kù) > pytorch 如何在GPU上訓(xùn)練

pytorch 如何在GPU上訓(xùn)練

熱門(mén)標(biāo)簽:地圖標(biāo)注面積 小蘇云呼電話機(jī)器人 朝陽(yáng)手機(jī)外呼系統(tǒng) 北京電銷(xiāo)外呼系統(tǒng)加盟 市場(chǎng)上的電銷(xiāo)機(jī)器人 佛山400電話辦理 北瀚ai電銷(xiāo)機(jī)器人官網(wǎng)手機(jī)版 儋州電話機(jī)器人 所得系統(tǒng)電梯怎樣主板設(shè)置外呼

1.網(wǎng)絡(luò)模型轉(zhuǎn)移到CUDA上

net = AlexNet()
net.cuda()#轉(zhuǎn)移到CUDA上

2.將loss轉(zhuǎn)移到CUDA上

criterion = nn.CrossEntropyLoss()
criterion = criterion.cuda()

這一步不做也可以,因?yàn)閘oss是根據(jù)out、label算出來(lái)的

loss = criterion(out, label)

只要out、label在CUDA上,loss自然也在CUDA上了,但是發(fā)現(xiàn)不轉(zhuǎn)移到CUDA上準(zhǔn)確率竟然降低了1%

3.將數(shù)據(jù)集轉(zhuǎn)移到CUDA上

這里要解釋一下數(shù)據(jù)集使用方法

#download the dataset
train_set = CIFAR10("./data_cifar10", train=True, transform=data_tf, download=True)
train_data = torch.utils.data.DataLoader(train_set, batch_size=64, shuffle=True)

dataset是把所有的input,label都制作成了一個(gè)大的多維數(shù)組

dataloader是在這個(gè)大的多維數(shù)組里采樣制作成batch,用這些batch來(lái)訓(xùn)練

    for im, label in train_data:
        i = i + 1
        im = im.cuda()#把數(shù)據(jù)遷移到CUDA上
        im = Variable(im)#把數(shù)據(jù)放到Variable里
        label = label.cuda()
        label =Variable(label)
        out = net(im)#the output should have the size of (N,10)

遍歷batch的時(shí)候,首先要把拿出來(lái)的Image、label都轉(zhuǎn)移到CUDA上,這樣接下來(lái)的計(jì)算都是在CUDA上了

開(kāi)始的時(shí)候只在轉(zhuǎn)成Variable以后才遷移到CUDA上,這樣在網(wǎng)絡(luò)傳播過(guò)程中就數(shù)據(jù)不是在CUDA上了,所以一直報(bào)錯(cuò)

訓(xùn)練網(wǎng)絡(luò)時(shí)指定gpu顯卡

查看有哪些可用的gpu

nvidia -smi

實(shí)時(shí)查看gpu信息1代表每1秒刷新一次

watch -n -1 nvidia -smi

指定使用的gpu

import os
# 使用第一張與第三張GPU卡
os.environ["CUDA_VISIBLE_DEVICES"] = "0,3"

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • pytorch 兩個(gè)GPU同時(shí)訓(xùn)練的解決方案
  • pytorch使用horovod多gpu訓(xùn)練的實(shí)現(xiàn)
  • 解決pytorch多GPU訓(xùn)練保存的模型,在單GPU環(huán)境下加載出錯(cuò)問(wèn)題
  • pytorch 指定gpu訓(xùn)練與多gpu并行訓(xùn)練示例
  • 用Pytorch訓(xùn)練CNN(數(shù)據(jù)集MNIST,使用GPU的方法)
  • pytorch 使用單個(gè)GPU與多個(gè)GPU進(jìn)行訓(xùn)練與測(cè)試的方法
  • pytorch使用指定GPU訓(xùn)練的實(shí)例
  • 關(guān)于pytorch多GPU訓(xùn)練實(shí)例與性能對(duì)比分析

標(biāo)簽:江蘇 龍巖 酒泉 云南 金融催收 商丘 寧夏 定西

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《pytorch 如何在GPU上訓(xùn)練》,本文關(guān)鍵詞  pytorch,如,何在,GPU,上,訓(xùn)練,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《pytorch 如何在GPU上訓(xùn)練》相關(guān)的同類信息!
  • 本頁(yè)收集關(guān)于pytorch 如何在GPU上訓(xùn)練的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    贵阳市| 屯昌县| 永寿县| 灵武市| 陆川县| 东丽区| 新田县| 长白| 偏关县| 瓮安县| 乳山市| 兖州市| 苗栗县| 威远县| 苏州市| 武宁县| 海城市| 天祝| 鄂托克旗| 沛县| 宁陕县| 和田市| 嘉峪关市| 镇宁| 同德县| 泗洪县| 英吉沙县| 东辽县| 衡阳县| 阿尔山市| 布拖县| 库伦旗| 清远市| 乐至县| 图木舒克市| 鞍山市| 敦煌市| 阳江市| 自贡市| 吴桥县| 措美县|