雙向lstm神經(jīng)網(wǎng)絡(luò)原理 從RNN到LSTM,性能良好的神經(jīng)網(wǎng)絡(luò)到底是如何工作的?
從RNN到LSTM,性能良好的神經(jīng)網(wǎng)絡(luò)到底是如何工作的?RNN(遞歸神經(jīng)網(wǎng)絡(luò)),顧名思義,以先前的輸出(隱藏狀態(tài))作為輸入,形成一個循環(huán)。(RNN擴展,圖像源:colah.github.io文件)上面
從RNN到LSTM,性能良好的神經(jīng)網(wǎng)絡(luò)到底是如何工作的?
RNN(遞歸神經(jīng)網(wǎng)絡(luò)),顧名思義,以先前的輸出(隱藏狀態(tài))作為輸入,形成一個循環(huán)。
(RNN擴展,圖像源:colah.github.io文件)
上面的展開圖清楚地顯示了RNN的結(jié)構(gòu)。不難發(fā)現(xiàn)RNN的結(jié)構(gòu)與序列化數(shù)據(jù)是一致的。實際上,RNN實際上主要用于處理序列化數(shù)據(jù)。
基本上,不使用原始RNN,而是使用RNN的變體。
漸變裁剪可以緩解漸變爆炸,而RNN變體(如主流LSTM和Gru)可以緩解漸變消失。
(一般是sigmoid層)建模輸入、輸出和遺忘。
(圖片來源:中新網(wǎng)/@左上角的藍色是輸入門,右上角的綠色是輸出門,底部的紅色是遺忘門。