日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關咨詢
選擇下列產品馬上在線溝通
服務時間:8:30-17:00
你可能遇到了下面的問題
關閉右側工具欄

新聞中心

這里有您想知道的互聯網營銷解決方案
神經網絡調試手冊:從數據集與神經網絡說起

近日,hackernoon 上出現了一篇題為《How to debug neural networks. Manual.》的文章,從數據集與神經網絡兩個方面分享了作者 Andrey Nikishaev 在調試神經網絡方面的實踐心得。

創(chuàng)新互聯主營猇亭網站建設的網絡公司,主營網站建設方案,手機APP定制開發(fā),猇亭h5微信小程序定制開發(fā)搭建,猇亭網站營銷推廣歡迎猇亭等地區(qū)企業(yè)咨詢

調試神經網絡是一項艱難的工作,專家也不例外。面對數百萬的參數,任何一個小變動都可能使你前功盡棄。沒有調試和可視化,所有你的行動就像拋硬幣,而且更糟糕的是還浪費時間。下面是我搜集的實踐匯總,希望有助于你提早發(fā)現問題。

一、數據集問題

1. 嘗試使用小數據集過擬合你的模型

一般來說神經網絡應該在數百次迭代中過擬合你的數據。如果你的損失值不下降,那問題存在于更深層次。

2. 使用迭代邏輯解決問題

嘗試構建最簡單的網絡解決你的主要問題,接著一步一步擴展到全局問題。比如,你正在創(chuàng)建風格遷移網絡,首先在一張圖像上訓練你的腳本遷移風格。如果奏效,再接著創(chuàng)建用于任何圖像的風格遷移模型。

3. 使用具有扭曲的平衡數據集

比如訓練分類數據的網絡,你的訓練數據應該對每一分類具有相同數量的輸入。其他情況下則存在分類過擬合的可能性。神經網絡對于所有的扭曲并非恒定不變,因此需要你對它們進行專門訓練。制造輸入扭曲將會提升網絡準確度。

4. 網絡容量 vs 數據集大小

你的數據集應足夠大,以便網絡用來學習。如果你的數據集小,而網絡很大,那么它會停止學習(某些情況下也會為大量的不同輸入輸出相同結果)。如果你有大數據,而網絡很小,那么你將會看到損失值的跳躍,因為網絡容量無法存儲如此多的信息。

5. 使用均值中心化(mean centering)

這將會從你的網絡中移除噪音數據,提升訓練性能,同時某些情況下有助于解決 NaN 問題。但是記住,如果你有時序數據,那么你應該使用批而不是全局中心化。

二、神經網絡問題

1. 首先嘗試較簡單的模型

我在很多案例中看到人們首先嘗試一些標準的大型網絡,比如 ResNet-50、VGG19 等,但是接著發(fā)現他們的問題通過僅有若干層的網絡也能解決。因此如果你沒有標準問題,首先從小網絡開始吧。你添加的數據越多,模型就越難訓練,因此從小網絡開始會更省時。你也應該記住,大網絡需要更大的內存與更多的操作。

2. 可視化是必須的

如果你正使用 TensorFlow,一定要從 TensorBoard 開始。如果沒有,嘗試為你的框架尋找一些可視化工具,或者自己動手編寫。這將對于你發(fā)現訓練早期階段的問題非常有幫助。你必須可視化的事情有:損失值、權重直方圖、變量和梯度。如果你正在做計算機視覺,那要一直可視化過濾器從而理解網絡實際上看到了什么。

3. 權重初始化

如果你錯誤設置權重,由于零梯度,或者所有神經元的類似更新等,你的網絡將變得無法訓練。同樣你也應該記住權重與學習率是成對的,因此高學習率和大權重可以導致 NaN 問題。

對于一些網絡使用 1e-2–1e-3 左右的高斯分布初始化軟件已經足夠。

對于深度網絡這毫無用處,因為你的權重彼此相乘了很多次,將會產生幾乎消除反向傳播上的梯度的非常小的數值。多虧了 Ioffe 和 Szegedy,現在我們有了批歸一化,緩解了令人頭疼的大量問題。

4. 使用標準網絡解決標準問題

存在大量的預訓練模型,你可以正確使用它們。在一些情況中是這樣,或者你可以使用調整技術節(jié)約訓練時間。主要的想法是絕大多數網絡容量對于不同問題是相同的。比如,如果我們討論計算機視覺,它將會包含對于所有圖像一樣的線、點、角,并且你不需要再訓練它們。

5. 把衰減用于學習率

這幾乎每次都會給你一個提升。TensorFlow 中有大量的不同衰減調度器

(https://www.tensorflow.org/versions/r0.12/api_docs/python/train/decaying_the_learning_rate)。

6. 使用網格搜索、隨機搜索或配置文件調整超參數

不要試圖手動調整所有參數,這很耗時,效率低下。我經常使用全局配置調整所有參數,并在運行完檢查結果后看看在哪個方向上應該進一步調查。如果這個方法沒有幫助,你可以試一下隨機搜索或網格搜索。

7. 激活函數

(1) 梯度消失問題

一些激活函數,比如 Sigmoid 和 Tanh 正在遭受飽和問題。在其極限時,它們的導數接近于零,這將會消除梯度和學習過程。因此檢查不同的函數比較好?,F在標準的激活函數是 ReLU。同樣這一問題也出現在一個非常深度或者循環(huán)的網絡中,比如你有 150 層,所有的激活值是 0.9,那么 0.91?? = 0,000000137。但是正如上文所說,批歸一化將有助于解決這一問題,殘差層也是。

(2) 不是零均值的激活值

比如 Sigmoid、ReLU 函數就不是零均值的。這意味著訓練期間所有你的梯度將全部是正或負,并會引發(fā)學習問題。這就是為什么我們使用零均值的輸入數據。

(3) Dead ReLUs

標準的 ReLU 函數也不完美。對于負數 ReLU 給出零的問題意味著它們將不會被激活,因此你的神經元的某些部分將會死掉并永不再用。這之所以能發(fā)生是因為高學習率和錯誤的權重初始化。如果參數調整沒有幫助,那么你可以試一下 Leaky ReLU、PReLU、ELU 或 Maxout,它們沒有這一問題。

(4) 梯度爆炸

這一問題與梯度消失相同,除卻每一步梯度變的越來越大。一個主要的解決辦法是使用梯度剪裁,為梯度設置基本的硬限制。

8. 深度網絡的精確度降級

從一些點上真正深化網絡的問題開始表現為一個壞手機,因此增加更多層降低了網絡精確度。解決辦法是使用殘差層把輸入的一些部分傳遞到所有層。

原文:https://hackernoon.com/how-to-debug-neural-networks-manual-dc2a200f10f2

【本文是專欄機構“機器之心”的原創(chuàng)譯文,微信公眾號“機器之心( id: almosthuman2014)”】


當前標題:神經網絡調試手冊:從數據集與神經網絡說起
分享地址:http://m.5511xx.com/article/djhsjpj.html