一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

腳本之家,腳本語言編程技術(shù)及教程分享平臺!
分類導(dǎo)航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務(wù)器之家 - 腳本之家 - Python - pytorch查看模型weight與grad方式

pytorch查看模型weight與grad方式

2020-06-24 10:52YongjieShi Python

這篇文章主要介紹了pytorch查看模型weight與grad方式,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧

在用pdb debug的時(shí)候,有時(shí)候需要看一下特定layer的權(quán)重以及相應(yīng)的梯度信息,如何查看呢?

1. 首先把你的模型打印出來,像這樣

pytorch查看模型weight與grad方式

2. 然后觀察到model下面有module的key,module下面有features的key, features下面有(0)的key,這樣就可以直接打印出weight了,在pdb debug界面輸入p model.module.features[0].weight,就可以看到weight,輸入 p model.module.features[0].weight.grad就可以查看梯度信息

pytorch查看模型weight與grad方式

pytorch查看模型weight與grad方式

補(bǔ)充知識:查看Pytorch網(wǎng)絡(luò)的各層輸出(feature map)、權(quán)重(weight)、偏置(bias)

BatchNorm2d參數(shù)量

?
1
2
3
torch.nn.BatchNorm2d(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
# 卷積層中卷積核的數(shù)量C
num_features – C from an expected input of size (N, C, H, W)
?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
>>> import torch
>>> m = torch.nn.BatchNorm2d(100)
>>> m.weight.shape
torch.Size([100])
>>> m.numel()
AttributeError: 'BatchNorm2d' object has no attribute 'numel'
>>> m.weight.numel()
100
>>> m.parameters().numel()
Traceback (most recent call last):
 File "<stdin>", line 1, in <module>
AttributeError: 'generator' object has no attribute 'numel'
>>> [p.numel() for p in m.parameters()]
[100, 100]

linear層

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
>>> import torch
>>> m1 = torch.nn.Linear(100,10)
# 參數(shù)數(shù)量= (輸入神經(jīng)元+1)*輸出神經(jīng)元
>>> m1.weight.shape
torch.Size([10, 100])
>>> m1.bias.shape
torch.Size([10])
>>> m1.bias.numel()
10
>>> m1.weight.numel()
1000
>>> m11 = list(m1.parameters())
>>> m11[0].shape
# weight
torch.Size([10, 100])
>>> m11[1].shape
# bias
torch.Size([10])

weight and bias

?
1
2
3
4
5
6
7
# Method 1 查看Parameters的方式多樣化,直接訪問即可
model = alexnet(pretrained=True).to(device)
conv1_weight = model.features[0].weight# Method 2
# 這種方式還適合你想自己參考一個(gè)預(yù)訓(xùn)練模型寫一個(gè)網(wǎng)絡(luò),各層的參數(shù)不變,但網(wǎng)絡(luò)結(jié)構(gòu)上表述有所不同
# 這樣你就可以把param迭代出來,賦給你的網(wǎng)絡(luò)對應(yīng)層,避免直接load不能匹配的問題!
for layer,param in model.state_dict().items(): # param is weight or bias(Tensor)
 print layer,param

feature map

由于pytorch是動(dòng)態(tài)網(wǎng)絡(luò),不存儲計(jì)算數(shù)據(jù),查看各層輸出的特征圖并不是很方便!分下面兩種情況討論:

1、你想查看的層是獨(dú)立的,那么你在forward時(shí)用變量接收并返回即可?。?/p>

?
1
2
3
4
5
6
7
8
9
class Net(nn.Module):
  def __init__(self):
    self.conv1 = nn.Conv2d(1, 1, 3)
    self.conv2 = nn.Conv2d(1, 1, 3)
    self.conv3 = nn.Conv2d(1, 1, 3def forward(self, x):
    out1 = F.relu(self.conv1(x))
    out2 = F.relu(self.conv2(out1))
    out3 = F.relu(self.conv3(out2))
    return out1, out2, out3

2、你的想看的層在nn.Sequential()順序容器中,這個(gè)麻煩些,主要有以下幾種思路:

?
1
2
3
4
5
6
7
8
9
10
# Method 1 巧用nn.Module.children()
# 在模型實(shí)例化之后,利用nn.Module.children()刪除你查看的那層的后面層
import torch
import torch.nn as nn
from torchvision import modelsmodel = models.alexnet(pretrained=True)# remove last fully-connected layer
new_classifier = nn.Sequential(*list(model.classifier.children())[:-1])
model.classifier = new_classifier
# Third convolutional layer
new_features = nn.Sequential(*list(model.features.children())[:5])
model.features = new_features
?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
# Method 2 巧用hook,推薦使用這種方式,不用改變原有模型
# torch.nn.Module.register_forward_hook(hook)
# hook(module, input, output) -> Nonemodel = models.alexnet(pretrained=True)
# 定義
def hook (module,input,output):
  print output.size()
# 注冊
handle = model.features[0].register_forward_hook(hook)
# 刪除句柄
handle.remove()# torch.nn.Module.register_backward_hook(hook)
# hook(module, grad_input, grad_output) -> Tensor or None
model = alexnet(pretrained=True).to(device)
outputs = []
def hook (module,input,output):
  outputs.append(output)
  print len(outputs)handle = model.features[0].register_backward_hook(hook)

注:還可以通過定義一個(gè)提取特征的類,甚至是重構(gòu)成各層獨(dú)立相同模型將問題轉(zhuǎn)化成第一種

計(jì)算模型參數(shù)數(shù)量

def count_parameters(model):
return sum(p.numel() for p in model.parameters() if p.requires_grad)

以上這篇pytorch查看模型weight與grad方式就是小編分享給大家的全部內(nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持服務(wù)器之家。

原文鏈接:https://www.cnblogs.com/yongjieShi/p/10337174.html

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 高清在线免费观看 | 国产区成人综合色在线 | 草莓香蕉绿巨人丝瓜榴莲污在线观看 | 国产区1| 国产精品日本一区二区三区在线看 | 国内久久精品 | 极端 成熟 性别 视频 | 国内精品伊人久久大香线焦 | 久久这里只有精品无码3D | 无码人妻视频又大又粗欧美 | 午夜欧美精品久久久久久久久 | 亚洲精品乱码久久久久久蜜桃图片 | 午夜在线观看免费完整直播网页 | 亚洲男人的天堂网站 | 日本免费一区二区三区a区 日本免费三片在线观看 | 免费全看男女拍拍拍的视频 | 黑人巨大videosjapan高清 黑人好大 | 99re热这里只有精品 | 日本黄色一区 | 美女张开双腿让男人捅 | 日韩欧美推理片免费看完整版 | 欧美精品超清在线播放 | 非洲黑人女bbwxxxx | re99| 国产一区二区视频在线 | 欧美ⅹxxxx视频 | 亚洲 欧美 国产 综合久久 | 国产成人高清亚洲一区91 | 无删减影视免费观看 | 欧美cosplay极品video | 白丝vk丨tk失禁 | 1024国产基地永久免费 | 538免费精品视频搬运工 | 免费一级片在线 | 男人猛进女人屁股免费 | 国产大乳美女挤奶视频 | www.青草视频 | 极品美女穴 | 亚洲成人综合在线 | 掀开奶罩边躁狠狠躁软学生 | 亚洲欧美激情日韩在线 |