化糞池 深度學(xué)習(xí)難嗎?
深度學(xué)習(xí)難嗎?想起來有毅力不難,想起來不堅(jiān)持就難是否存在通用的神經(jīng)網(wǎng)絡(luò)模型,可以處理圖像,語音以及NLP?對(duì)于目前的深度學(xué)習(xí)模型,雖然深度學(xué)習(xí)的目標(biāo)之一是設(shè)計(jì)能夠處理各種任務(wù)的算法,但是深度學(xué)習(xí)的應(yīng)用
深度學(xué)習(xí)難嗎?
想起來有毅力不難,想起來不堅(jiān)持就難
是否存在通用的神經(jīng)網(wǎng)絡(luò)模型,可以處理圖像,語音以及NLP?
對(duì)于目前的深度學(xué)習(xí)模型,雖然深度學(xué)習(xí)的目標(biāo)之一是設(shè)計(jì)能夠處理各種任務(wù)的算法,但是深度學(xué)習(xí)的應(yīng)用還需要一定的專業(yè)化,目前還沒有通用的神經(jīng)網(wǎng)絡(luò)處理模型。然而,每一種模式也在相互學(xué)習(xí)、相互融合、共同提高。例如,一些創(chuàng)新可以同時(shí)改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò),如批量標(biāo)準(zhǔn)化和關(guān)注度。一般模型需要在將來提出。
圖像和視頻處理,計(jì)算機(jī)視覺,最流行的是CNN,卷積神經(jīng)網(wǎng)絡(luò),它的變形和發(fā)展,CNN適合處理空間數(shù)據(jù),廣泛應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域。例如,alexnet、vggnet、googlenet、RESNET等都有自己的特點(diǎn)。將上述模型應(yīng)用于圖像分類識(shí)別中。在圖像分割、目標(biāo)檢測(cè)等方面,提出了更有針對(duì)性的模型,并得到了廣泛的應(yīng)用。
語音處理,2012年之前,最先進(jìn)的語音識(shí)別系統(tǒng)是隱馬爾可夫模型(HMM)和高斯混合模型(GMM)的結(jié)合。目前最流行的是深度學(xué)習(xí)RNN遞歸神經(jīng)網(wǎng)絡(luò),其長、短期記憶網(wǎng)絡(luò)LSTM、Gru、雙向RNN、層次RNN等。
除了傳統(tǒng)的自然語言處理方法外,目前的自然語言處理深度學(xué)習(xí)模型也經(jīng)歷了幾個(gè)發(fā)展階段,如基于CNN的模型、基于RNN的模型、基于注意的模型、基于變壓器的模型等。不同的任務(wù)場景有不同的模型和策略來解決一些問題。
卷積神經(jīng)網(wǎng)絡(luò)pooling層有什么用?
池的理論是圖像中相鄰的像素是相關(guān)的。
每隔一行采樣一次圖像,仍然可以看到結(jié)果。經(jīng)過一層卷積后,輸入圖像大小變化不大,但卷積核-1減小。根據(jù)相鄰數(shù)據(jù)的相關(guān)性,在每個(gè)NxN區(qū)域中,一般為2x2,一個(gè)數(shù)字代表原來的四個(gè)數(shù)字,這樣可以在不損失太多信息的情況下將數(shù)據(jù)減少四倍。24*24圖像。使用5*5的卷積核卷積,結(jié)果是20*20(每個(gè)-2左右),經(jīng)過2*2的池化,就變成了10*10。通過池化,進(jìn)一步縮小了數(shù)據(jù)規(guī)模,減少了訓(xùn)練時(shí)間。