激情久久久_欧美视频区_成人av免费_不卡视频一二三区_欧美精品在欧美一区二区少妇_欧美一区二区三区的

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務器之家 - 腳本之家 - Python - Pytorch 中net.train 和 net.eval的使用說明

Pytorch 中net.train 和 net.eval的使用說明

2021-11-10 10:20Never-Giveup Python

這篇文章主要介紹了Pytorch 中net.train 和 net.eval的使用說明,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教

在訓練模型時會在前面加上:

?
1
model.train()

在測試模型時在前面使用:

?
1
model.eval()

同時發現,如果不寫這兩個程序也可以運行,這是因為這兩個方法是針對在網絡訓練和測試時采用不同方式的情況,比如Batch Normalization 和 Dropout。

訓練時是正對每個min-batch的,但是在測試中往往是針對單張圖片,即不存在min-batch的概念。

由于網絡訓練完畢后參數都是固定的,因此每個批次的均值和方差都是不變的,因此直接結算所有batch的均值和方差。

所有Batch Normalization的訓練和測試時的操作不同

在訓練中,每個隱層的神經元先乘概率P,然后在進行激活,在測試中,所有的神經元先進行激活,然后每個隱層神經元的輸出乘P。

補充:Pytorch踩坑記錄——model.eval()

最近在寫代碼時遇到一個問題,原本訓練好的模型,加載進來進行inference準確率直接掉了5個點,尼瑪,這簡直不能忍啊~本菜雞下意識地感知到我肯定又在哪里寫了bug了~~~于是開始到處排查,從model load到data load,最終在一個被我封裝好的module的犄角旮旯里找到了問題,于是順便就在這里總結一下,避免以后再犯。

對于訓練好的模型加載進來準確率和原先的不符,比較常見的有兩方面的原因:

1)data

2)model.state_dict()

1) data

數據方面,檢查前后兩次加載的data有沒有發生變化。首先檢查 transforms.Normalize 使用的均值和方差是否和訓練時相同;另外檢查在這個過程中數據是否經過了存儲形式的改變,這有可能會帶來數據精度的變化導致一定的信息丟失。

比如我過用的其中一個數據集,原先將圖片存儲成向量形式,但其對應的是“png”格式的數據(后來在原始文件中發現了相應的描述。),而我進行了一次data-to-img操作,將向量轉換成了“jpg”形式,這時加載進來便造成了掉點。

2)model.state_dict()

第一方面造成的掉點一般不會太嚴重,第二方面造成的掉點就比較嚴重了,一旦模型的參數加載錯了,那就誤差大了。

如果是參數沒有正確加載進來則比較容易發現,這時準確率非常低,幾乎等于瞎猜。

而我這次遇到的情況是,準確率并不是特別低,只掉了幾個點,檢查了多次,均顯示模型參數已經成功加載了。后來仔細查看后發現在其中一次調用模型進行inference時,忘了寫 ‘model.eval()',造成了模型的參數發生變化,再次調用則出現了掉點。

于是又回顧了一下model.eval()和model.train()的具體作用。如下:

model.train() 和 model.eval() 一般在模型訓練和評價的時候會加上這兩句,主要是針對由于model 在訓練時和評價時 Batch

Normalization 和 Dropout 方法模式不同:

a) model.eval(),不啟用 BatchNormalization 和 Dropout。此時pytorch會自動把BN和DropOut固定住,不會取平均,而是用訓練好的值。不然的話,一旦test的batch_size過小,很容易就會因BN層導致模型performance損失較大;

b) model.train() :啟用 BatchNormalization 和 Dropout。 在模型測試階段使用model.train() 讓model變成訓練模式,此時 dropout和batch normalization的操作在訓練q起到防止網絡過擬合的問題。

因此,在使用PyTorch進行訓練和測試時一定要記得把實例化的model指定train/eval。

?
1
model.eval()   vs   torch.no_grad()

雖然二者都是eval的時候使用,但其作用并不相同:

model.eval() 負責改變batchnorm、dropout的工作方式,如在eval()模式下,dropout是不工作的。 見下方代碼:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
import torch
import torch.nn as nn
 
drop = nn.Dropout()
x = torch.ones(10)
 
# Train mode  
drop.train()
print(drop(x)) # tensor([2., 2., 0., 2., 2., 2., 2., 0., 0., 2.])  
 
# Eval mode  
drop.eval()
print(drop(x)) # tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])

torch.no_grad() 負責關掉梯度計算,節省eval的時間。

只進行inference時,model.eval()是必須使用的,否則會影響結果準確性。 而torch.no_grad()并不是強制的,只影響運行效率。

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持服務器之家。

原文鏈接:https://blog.csdn.net/qq_36653505/article/details/84728489

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 国产三级午夜理伦三级 | 中文字幕伦乱 | 国产午夜精品久久久 | 欧美一级三级在线观看 | 欧美精品一区二区三区四区 | 精品黑人一区二区三区国语馆 | 精品欧美一区二区精品久久久 | sese在线视频 | 国产一级毛片高清视频完整版 | 国产91对白叫床清晰播放 | 在线播放亚洲视频 | 一区二区三区四区高清视频 | 精品呦女 | 一级免费特黄视频 | 久久国产精品久久久久久久久久 | 55夜色66夜色国产精品视频 | 失禁高潮抽搐喷水h | 国产激情网 | 久久视频在线免费观看 | 亚洲国产精品一 | 欧美成人精品一区二区男人小说 | 欧美视频国产 | 特大黑人videos与另类娇小 | 欧美三级欧美成人高清www | 免费在线成人网 | asiass极品裸体女pics | 国产一区二区精品在线观看 | 国产久草视频在线 | 久久久久一区二区三区 | 一级做人爱c黑人影片 | 看免费黄色大片 | av在线播放免费观看 | 91精品国产乱码久久桃 | 日本网站一区二区三区 | 性少妇videosexfreexxx片 | 久久成人免费观看 | 国产精品区在线12p 午夜视频在线免费播放 | 国产精品视频在线观看免费 | 亚洲成人黄色片 | 99视频有精品 | 日本网站一区二区三区 |