日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
大模型訓練loss突刺原因和解決辦法

最近閱讀了《A Theory on Adam Instability in Large-Scale Machine Learning 》這篇論文。比較全面的闡述了100B以上的大模型預訓練中出現(xiàn)loss spike的原因(loss 突然大幅度上漲),并介紹了一些可能的解決辦法。論文寫的非常精彩,但整體上有點散和深,我嘗試著站在工業(yè)立場上把它串一下

創(chuàng)新互聯(lián)專注于企業(yè)成都營銷網(wǎng)站建設(shè)、網(wǎng)站重做改版、邢臺縣網(wǎng)站定制設(shè)計、自適應品牌網(wǎng)站建設(shè)、H5高端網(wǎng)站建設(shè)、商城網(wǎng)站建設(shè)、集團公司官網(wǎng)建設(shè)、成都外貿(mào)網(wǎng)站制作、高端網(wǎng)站制作、響應式網(wǎng)頁設(shè)計等建站業(yè)務(wù),價格優(yōu)惠性價比高,為邢臺縣等各大城市提供網(wǎng)站開發(fā)制作服務(wù)。

突刺是什么

首先介紹一下什么是loss spike:

loss spike指的是預訓練過程中,尤其容易在大模型(100B以上)預訓練過程中出現(xiàn)的loss突然暴漲的情況

圖片

如圖所示模型訓練過程中紅框中突然上漲的loss尖峰 loss spike的現(xiàn)象會導致一系列的問題發(fā)生,譬如模型需要很長時間才能再次回到spike之前的狀態(tài)(論文中稱為pre-explosion),或者更嚴重的就是loss再也無法drop back down,即模型再也無法收斂

PaLM和GLM130b之前的解決辦法是找到loss spike之前最近的checkpoint,更換之后的訓練樣本來避免loss spike的出現(xiàn)。

突刺成因分析

這篇論文(以下稱本文)對loss spike的出現(xiàn)原因做了十分詳細的分析,最后認為預訓練使用的Adam優(yōu)化器是導致這個現(xiàn)象出現(xiàn)的重要原因之一

Adam算法是牛頓下降法的一個迭代逼近 

圖片

一切顯得十分完美,但是理想很豐滿,現(xiàn)實很骨感,收斂過程并不是一帆風順的

圖片

非穩(wěn)態(tài)

圖片

中間態(tài)

圖片

穩(wěn)態(tài) 

進入正態(tài)分布的穩(wěn)態(tài)之后,理想的更新參數(shù)變化趨勢應該是方差越來越小,所有更新參數(shù)逐漸向0靠近。這應該是一個單向的過程,即穩(wěn)定的單峰狀態(tài)(unimodal)不會再次進入非穩(wěn)定的雙峰狀態(tài)(bimodal),但事實并非如此,更新參數(shù)會再次進入非穩(wěn)定的雙峰狀態(tài)

本文在理論層面做了研究和解釋,從中心極限定理(可以結(jié)合道爾頓板實驗理解)出發(fā),認為隨機事件的疊加進入單峰的正態(tài)分布的必要條件之一是各個隨機事件事件之間應該是相互獨立的,但是梯度變化以及更新參數(shù)的變化并不能特別好的滿足獨立性這一條件,而這一點恰恰是導致更新參數(shù)振蕩,loss spike出現(xiàn)以及l(fā)oss 不收斂的重要原因之一

圖片

造成梯度變化不獨立的原因(1、淺層參數(shù)長時間不更新2、batch太大,后期梯度更新趨于平穩(wěn)) 上述的理論有些晦澀,本文作者可能也了解這一點,之后開始直接點題,結(jié)合實驗觀察拋出了重要現(xiàn)象和結(jié)論

即訓練過程中l(wèi)oss spike的出現(xiàn)與:梯度更新幅度, 大小,batch大小這三個條件密切相關(guān)

本文作者對loss spike出現(xiàn)時模型的前后變化做了仔細拆解,發(fā)現(xiàn)下列一系列連續(xù)現(xiàn)象的出現(xiàn)導致了loss spike:

圖片

  1. 當前模型處在穩(wěn)態(tài)(健康狀態(tài)),即單峰的正態(tài)分布狀態(tài),并且梯度值 ,此時loss平穩(wěn),訓練過程正常

圖片

2.模型淺層(embedding層)梯度  ,這一般是由于訓練一段時間之后,淺層的語義知識表示此時一般已經(jīng)學習的較好。但此時深層網(wǎng)絡(luò)(對應復雜任務(wù))的梯度更新還是相對較大

圖片

3.一段時間淺層(embedding層)梯度  之后會導致  ,  。此時趨于0。因此導致淺層參數(shù)得不到更新(也對應于上述參數(shù)更新事件不獨立的原因)

圖片

4.此時雖然淺層(embedding層)參數(shù)長時間不更新,但是深層的參數(shù)依然一直在更新。長時間這樣的狀態(tài)之后,batch之間的樣本分布變化可能就會直接導致淺層(embedding層)再次出現(xiàn)較大的梯度變化(可以想象成一個水壩蓄水太久終于被沖開了。至于小模型為什么不會出現(xiàn)這種情況,推測是小模型函數(shù)空間小,無法捕獲樣本的分布變化,越大規(guī)模的模型對樣本之間不同維度的特征分布變化越敏感),此時 , 再次集中在 附近(此時 , ),變成雙峰的非穩(wěn)定狀態(tài),本文提到了淺層(embedding層)這種突然的參數(shù)變化可能造成模型的連鎖反應進而出現(xiàn)loss spike的現(xiàn)象(這也對應了更換樣本重新訓練有可能會減少loss spike的出現(xiàn)頻率,實際上就是選擇分布變化較小的樣本,減小淺層梯度變換幅度)

圖片

5.這個階段模型處于非穩(wěn)態(tài),梯度變化幅度較大,每一次的梯度變化和更新參數(shù)變化事件之間又出現(xiàn)了一定的獨立性,因此經(jīng)過一定的時間之后模型有可能再次進入穩(wěn)態(tài),loss再次drop back down(注意,本文著重提了這個再次drop back down并不是一定出現(xiàn)的,也很有可能loss長期處于flat狀態(tài),再也無法收斂)

因此我們得出一些結(jié)論,loss spike的出現(xiàn)和淺層的梯度更新幅度, 大小密切相關(guān)(batch大小帶來的相關(guān)性問題倒是顯得沒那么大說服力),實際上就是淺層網(wǎng)絡(luò)參數(shù)突然進入到了之前長時間不在的狀態(tài)與模型深層參數(shù)當前的狀態(tài)形成了連鎖反應造成了模型進入非穩(wěn)態(tài)。同時一般情況即使出現(xiàn)loss spike也會自動回復到正常狀態(tài),但也有可能再也不會

突刺解法

本文最后提到了防止loss spike出現(xiàn)的一些方法:

1.如之前提到的PaLM和GLM130B提到的出現(xiàn)loss spike后更換batch樣本的方法(常規(guī)方法,但是成本比較高)

2.減小learning rate,這是個治標不治本的辦法,對更新參數(shù)的非穩(wěn)態(tài)沒有做改進

3.減小 大小?;蛘咧苯影?nbsp;設(shè)為0,重新定義

在等于0時候的值(這應該是個值得嘗試的辦法)

值得一提的是智譜華章在本文發(fā)表之前,在去年的GLM130B訓練時似乎也觀察到了淺層梯度變化和loss spike相關(guān)這一現(xiàn)象(GLM-130B: An Open Bilingual Pre-trained Model),他采取的是把淺層梯度直接乘以縮放系數(shù) 來減小淺層梯度更新值

出自130b

圖片

其實這塊我有個自己的想法,和是否也可以做衰減,隨著訓練過程逐漸減小,來避免loss spike的現(xiàn)象

另外假設(shè)我們能一次性加載所有樣本進行訓練(實際上不可能做到),是否還會出現(xiàn)loss spike的現(xiàn)象

最后目前流行的fp8,fp16混合訓練,如果upscale設(shè)置的過小,導致梯度在進入優(yōu)化器之前就下溢,是不是會增加淺層梯度長時間不更新的可能性,進而增加loss spike的出現(xiàn)的頻率。(這么看來似乎提升upscale大小以及優(yōu)化 大小是進一步提升模型效果的一個思路)


網(wǎng)頁名稱:大模型訓練loss突刺原因和解決辦法
鏈接URL:http://m.5511xx.com/article/ccossih.html