濮阳杆衣贸易有限公司

主頁 > 知識庫 > TensorFlow和keras中GPU使用的設(shè)置操作

TensorFlow和keras中GPU使用的設(shè)置操作

熱門標(biāo)簽:外呼系統(tǒng)哪些好辦 如何申請400電話費用 池州外呼調(diào)研線路 江西省地圖標(biāo)注 沈陽人工外呼系統(tǒng)價格 沈陽防封電銷卡品牌 沈陽外呼系統(tǒng)呼叫系統(tǒng) 武漢外呼系統(tǒng)平臺 富錦商家地圖標(biāo)注

1. 訓(xùn)練運行時候指定GPU

運行時候加一行代碼:

CUDA_VISIBLE_DEVICES=1 python train.py

2. 運行過程中按需或者定量分配GPU

tensorflow直接在開啟Session時候加幾行代碼就行,而Keras指定GPU,并限制按需用量和TensorFlow不太一樣,因為keras訓(xùn)練是封裝好的,不好對Session操作。如下是兩種對應(yīng)的操作。

keras中的操作:

import os
import tensorflow as tf
from keras.backend.tensorflow_backend import set_session
 
# 指定第一塊GPU可用 
os.environ["CUDA_VISIBLE_DEVICES"] = "0" #指定GPU的第二種方法
 
config = tf.ConfigProto()
config.gpu_options.allocator_type = 'BFC' #A "Best-fit with coalescing" algorithm, simplified from a version of dlmalloc.
config.gpu_options.per_process_gpu_memory_fraction = 0.3 #定量
config.gpu_options.allow_growth = True  #按需
set_session(tf.Session(config=config)) 

TensorFlow中的操作:

#指定GPU
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "0"
 
#設(shè)置GPU定量分配
config = tf.ConfigProto() 
config.gpu_options.per_process_gpu_memory_fraction = 0.9 # 占用GPU90%的顯存 
session = tf.Session(config=config)
 
#設(shè)置GPU按需分配
config = tf.ConfigProto() 
config.gpu_options.allow_growth = True 
session = tf.Session(config=config)

補充:Keras以及Tensorflow強制使用CPU,GPU

Keras如果是使用Theano后端的話,應(yīng)該是自動不使用GPU只是用CPU的,啟動GPU使用Theano內(nèi)部命令即可。

對于Tensorflow后端的Keras以及Tensorflow會自動使用可見的GPU,而我需要其必須只運行在CPU上。網(wǎng)上查到三種方法,最后一種方法對我有用,但也對三種都做如下記錄:

使用tensorflow的 with tf.device('/cpu:0'):函數(shù)。簡單操作就是把所有命令都放在前面所述的域里面。

使用tensorflow聲明Session時的參數(shù): 關(guān)于tensorflow中Session中的部分參數(shù)設(shè)置,以及Keras如何設(shè)置其調(diào)用的Tensorflow的Session,可以參見Keras設(shè)定GPU使用內(nèi)存大小(Tensorflow backend)。

對于Tensorflow,聲明Session的時候加入device_count={'gpu':0}即可,代碼如下:

import tensorflow as tf  
sess = tf.Session(config=tf.ConfigProto(device_count={'gpu':0}))

對于Keras,則調(diào)用后端函數(shù),設(shè)置其使用如上定義的Session即可,代碼如下:

import tensorflow as tf
import keras.backend.tensorflow_backend as KTF 
KTF.set_session(tf.Session(config=tf.ConfigProto(device_count={'gpu':0})))

對于多線程以及GPU內(nèi)存設(shè)置等可以參見Keras設(shè)定GPU使用內(nèi)存大小(Tensorflow backend)。

3、第三種是使用CUDA_VISIBLE_DEVICES命令行參數(shù),代碼如下:

CUDA_VISIBLE_DEVICES="0" python3 train.py

以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • TensorFlow2.0使用keras訓(xùn)練模型的實現(xiàn)
  • tensorflow2.0教程之Keras快速入門
  • 解決TensorFlow調(diào)用Keras庫函數(shù)存在的問題
  • Keras模型轉(zhuǎn)成tensorflow的.pb操作
  • 完美解決TensorFlow和Keras大數(shù)據(jù)量內(nèi)存溢出的問題
  • keras和tensorflow使用fit_generator 批次訓(xùn)練操作
  • 解決tensorflow 與keras 混用之坑

標(biāo)簽:阿里 呂梁 潛江 常德 銅川 株洲 黑龍江 通遼

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《TensorFlow和keras中GPU使用的設(shè)置操作》,本文關(guān)鍵詞  TensorFlow,和,keras,中,GPU,使,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《TensorFlow和keras中GPU使用的設(shè)置操作》相關(guān)的同類信息!
  • 本頁收集關(guān)于TensorFlow和keras中GPU使用的設(shè)置操作的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    台南市| 龙门县| 大庆市| 和林格尔县| 西乌珠穆沁旗| 孟村| 昭苏县| 尚志市| 霍林郭勒市| 新源县| 凤阳县| 牙克石市| 丰原市| 于田县| 行唐县| 遂昌县| 工布江达县| 南雄市| 慈溪市| 偏关县| 聂荣县| 城固县| 司法| 天峨县| 文山县| 六枝特区| 昌吉市| 宜都市| 电白县| 深水埗区| 昔阳县| 沧州市| 博罗县| 赤峰市| 安阳县| 广元市| 西乌| 班戈县| 咸宁市| 安远县| 柳河县|