這篇文章主要介紹了Pytorch如何根據(jù)layers的name實(shí)現(xiàn)凍結(jié)訓(xùn)練方式,具有一定借鑒價(jià)值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。
創(chuàng)新互聯(lián)專注于新鄉(xiāng)網(wǎng)站建設(shè)服務(wù)及定制,我們擁有豐富的企業(yè)做網(wǎng)站經(jīng)驗(yàn)。 熱誠為您提供新鄉(xiāng)營銷型網(wǎng)站建設(shè),新鄉(xiāng)網(wǎng)站制作、新鄉(xiāng)網(wǎng)頁設(shè)計(jì)、新鄉(xiāng)網(wǎng)站官網(wǎng)定制、微信小程序開發(fā)服務(wù),打造新鄉(xiāng)網(wǎng)絡(luò)公司原創(chuàng)品牌,更為您提供新鄉(xiāng)網(wǎng)站排名全網(wǎng)營銷落地服務(wù)。使用model.named_parameters()可以輕松搞定,
model.cuda() # ######################################## Froze some layers to fine-turn the model ######################## for name, param in model.named_parameters(): # 帶有參數(shù)名的模型的各個(gè)層包含的參數(shù)遍歷 if 'out' or 'merge' or 'before_regress' in name: # 判斷參數(shù)名字符串中是否包含某些關(guān)鍵字 continue param.requires_grad = False # ############################################################################################################# optimizer = optim.SGD(filter(lambda p: p.requires_grad, model.parameters()), lr=opt.learning_rate * args.world_size, momentum=0.9, weight_decay=5e-4)
感謝你能夠認(rèn)真閱讀完這篇文章,希望小編分享的“Pytorch如何根據(jù)layers的name實(shí)現(xiàn)凍結(jié)訓(xùn)練方式”這篇文章對(duì)大家有幫助,同時(shí)也希望大家多多支持創(chuàng)新互聯(lián),關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,更多相關(guān)知識(shí)等著你來學(xué)習(xí)!
網(wǎng)站欄目:Pytorch如何根據(jù)layers的name實(shí)現(xiàn)凍結(jié)訓(xùn)練方式-創(chuàng)新互聯(lián)
本文地址:http://www.rwnh.cn/article26/dscccg.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站制作、服務(wù)器托管、面包屑導(dǎo)航、ChatGPT、搜索引擎優(yōu)化、手機(jī)網(wǎng)站建設(shè)
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容