加上這句代碼:
print torch.cuda.is_available()
判斷完畢!說說在pytorch中如何查看gpu信息吧~
為什么將數(shù)據(jù)轉(zhuǎn)移至GPU的方法叫做.cuda而不是.gpu,就像將數(shù)據(jù)轉(zhuǎn)移至CPU調(diào)用的方法是.cpu?這是因?yàn)镚PU的編程接口采用CUDA,而目前并不是所有的GPU都支持CUDA,只有部分Nvidia的GPU才支持。
PyTorch未來可能會支持AMD的GPU,而AMD GPU的編程接口采用OpenCL,因此PyTorch還預(yù)留著.cl方法,用于以后支持AMD等的GPU。
torch.cuda.is_available()
cuda是否可用;
torch.cuda.device_count()
返回gpu數(shù)量;
torch.cuda.get_device_name(0)
返回gpu名字,設(shè)備索引默認(rèn)從0開始;
torch.cuda.current_device()
返回當(dāng)前設(shè)備索引;
以上為個人經(jīng)驗(yàn),希望能給大家一個參考,也希望大家多多支持腳本之家。
您可能感興趣的文章:- PyTorch-GPU加速實(shí)例
- Pytorch 搭建分類回歸神經(jīng)網(wǎng)絡(luò)并用GPU進(jìn)行加速的例子
- pytorch 兩個GPU同時訓(xùn)練的解決方案
- 解決pytorch-gpu 安裝失敗的記錄
- Pytorch 如何查看、釋放已關(guān)閉程序占用的GPU資源
- Linux環(huán)境下GPU版本的pytorch安裝