濮阳杆衣贸易有限公司

主頁(yè) > 知識(shí)庫(kù) > pytorch 權(quán)重weight 與 梯度grad 可視化操作

pytorch 權(quán)重weight 與 梯度grad 可視化操作

熱門標(biāo)簽:打電話機(jī)器人營(yíng)銷 騰訊地圖標(biāo)注沒(méi)法顯示 ai電銷機(jī)器人的優(yōu)勢(shì) 商家地圖標(biāo)注海報(bào) 海外網(wǎng)吧地圖標(biāo)注注冊(cè) 南陽(yáng)打電話機(jī)器人 聊城語(yǔ)音外呼系統(tǒng) 孝感營(yíng)銷電話機(jī)器人效果怎么樣 地圖標(biāo)注自己和別人標(biāo)注區(qū)別

pytorch 權(quán)重weight 與 梯度grad 可視化

查看特定layer的權(quán)重以及相應(yīng)的梯度信息

打印模型

觀察到model下面有module的key,module下面有features的key, features下面有(0)的key,這樣就可以直接打印出weight了

在pdb debug界面輸入p model.module.features[0].weight,就可以看到weight,輸入 p model.module.features[0].weight.grad 就可以查看梯度信息。

中間變量的梯度 : .register_hook

pytorch 為了節(jié)省顯存,在反向傳播的過(guò)程中只針對(duì)計(jì)算圖中的葉子結(jié)點(diǎn)(leaf variable)保留了梯度值(gradient)。但對(duì)于開(kāi)發(fā)者來(lái)說(shuō),有時(shí)我們希望探測(cè)某些中間變量(intermediate variable) 的梯度來(lái)驗(yàn)證我們的實(shí)現(xiàn)是否有誤,這個(gè)過(guò)程就需要用到 tensor的register_hook接口

grads = {}
def save_grad(name):
    def hook(grad):
        grads[name] = grad
    return hook
x = torch.randn(1, requires_grad=True)
y = 3*x
z = y * y
# 為中間變量注冊(cè)梯度保存接口,存儲(chǔ)梯度時(shí)名字為 y。
y.register_hook(save_grad('y'))
# 反向傳播 
z.backward()
# 查看 y 的梯度值
print(grads['y'])

打印網(wǎng)絡(luò)回傳梯度

net.named_parameters()

parms.requires_grad 表示該參數(shù)是否可學(xué)習(xí),是不是frozen的;

parm.grad 打印該參數(shù)的梯度值。

net = your_network().cuda()
def train():
 ...
 outputs = net(inputs)
    loss = criterion(outputs, targets)
    loss.backward()
 for name, parms in net.named_parameters(): 
  print('-->name:', name, '-->grad_requirs:',parms.requires_grad, \

   ' -->grad_value:',parms.grad)

查看pytorch產(chǎn)生的梯度

[x.grad for x in self.optimizer.param_groups[0]['params']]

pytorch模型可視化及參數(shù)計(jì)算

我們?cè)谠O(shè)計(jì)完程序以后希望能對(duì)我們的模型進(jìn)行可視化,pytorch這里似乎沒(méi)有提供相應(yīng)的包直接進(jìn)行調(diào)用,下面把代碼貼出來(lái):

import torch
from torch.autograd import Variable
import torch.nn as nn
from graphviz import Digraph
def make_dot(var, params=None):
   
    if params is not None:
        assert isinstance(params.values()[0], Variable)
        param_map = {id(v): k for k, v in params.items()}
 
    node_attr = dict(style='filled',
                     shape='box',
                     align='left',
                     fontsize='12',
                     ranksep='0.1',
                     height='0.2')
    dot = Digraph(node_attr=node_attr, graph_attr=dict(size="12,12"))
    seen = set()
 
    def size_to_str(size):
        return '('+(', ').join(['%d' % v for v in size])+')'
 
    def add_nodes(var):
        if var not in seen:
            if torch.is_tensor(var):
                dot.node(str(id(var)), size_to_str(var.size()), fillcolor='orange')
            elif hasattr(var, 'variable'):
                u = var.variable
                name = param_map[id(u)] if params is not None else ''
                node_name = '%s\n %s' % (name, size_to_str(u.size()))
                dot.node(str(id(var)), node_name, fillcolor='lightblue')
            else:
                dot.node(str(id(var)), str(type(var).__name__))
            seen.add(var)
            if hasattr(var, 'next_functions'):
                for u in var.next_functions:
                    if u[0] is not None:
                        dot.edge(str(id(u[0])), str(id(var)))
                        add_nodes(u[0])
            if hasattr(var, 'saved_tensors'):
                for t in var.saved_tensors:
                    dot.edge(str(id(t)), str(id(var)))
                    add_nodes(t)
    add_nodes(var.grad_fn)
    return dot

我們?cè)谖覀兊哪P拖旅嬷苯舆M(jìn)行調(diào)用就可以了,例如:

if __name__ == "__main__":
    model = DeepLab(backbone='resnet', output_stride=16)
    input = torch.rand(1, 3, 53, 53)
    output = model(input)
    g = make_dot(output)
    g.view()
    params = list(net.parameters())
    k = 0
    for i in params:
        l = 1
        print("該層的結(jié)構(gòu):" + str(list(i.size())))
        for j in i.size():
            l *= j
        print("該層參數(shù)和:" + str(l))
        k = k + l
    print("總參數(shù)數(shù)量和:" + str(k))

模型部分可視化結(jié)果:

參數(shù)計(jì)算:

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • 可視化pytorch 模型中不同BN層的running mean曲線實(shí)例
  • pytorch使用tensorboardX進(jìn)行l(wèi)oss可視化實(shí)例
  • pytorch對(duì)梯度進(jìn)行可視化進(jìn)行梯度檢查教程
  • pytorch實(shí)現(xiàn)mnist數(shù)據(jù)集的圖像可視化及保存
  • 使用pytorch實(shí)現(xiàn)可視化中間層的結(jié)果
  • pytorch 可視化feature map的示例代碼
  • pytorch 模型可視化的例子
  • Pytorch可視化的幾種實(shí)現(xiàn)方法

標(biāo)簽:南寧 聊城 撫州 揚(yáng)州 六盤水 迪慶 牡丹江 楊凌

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《pytorch 權(quán)重weight 與 梯度grad 可視化操作》,本文關(guān)鍵詞  pytorch,權(quán)重,weight,與,梯度,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《pytorch 權(quán)重weight 與 梯度grad 可視化操作》相關(guān)的同類信息!
  • 本頁(yè)收集關(guān)于pytorch 權(quán)重weight 與 梯度grad 可視化操作的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    达州市| 车险| 拉萨市| 潢川县| 太湖县| 常熟市| 湘西| 曲麻莱县| 井研县| 恩施市| 洛扎县| 化州市| 克什克腾旗| 察雅县| 杭锦旗| 资源县| 江川县| 昌江| 通州区| 宜黄县| 乐业县| 长阳| 册亨县| 宜兰县| 葫芦岛市| 扶余县| 麦盖提县| 河池市| 涡阳县| 隆化县| 达拉特旗| 天津市| 墨脱县| 咸宁市| 图们市| 乌鲁木齐市| 绥宁县| 遵义市| 墨玉县| 五常市| 敦化市|