cad 利用卷積神經(jīng)網(wǎng)絡(luò)模型,怎么識別人體行為動作?
利用卷積神經(jīng)網(wǎng)絡(luò)模型,怎么識別人體行為動作?CNN卷積神經(jīng)網(wǎng)絡(luò)是一種深度模型。事實上,它已經(jīng)成功地訓(xùn)練和應(yīng)用了很長一段時間(最近,深度學(xué)習(xí)可能太流行了,CNN也依賴它)。雖然CNN也屬于多層神經(jīng)網(wǎng)絡(luò)體
利用卷積神經(jīng)網(wǎng)絡(luò)模型,怎么識別人體行為動作?
CNN卷積神經(jīng)網(wǎng)絡(luò)是一種深度模型。
事實上,它已經(jīng)成功地訓(xùn)練和應(yīng)用了很長一段時間(最近,深度學(xué)習(xí)可能太流行了,CNN也依賴它)。雖然CNN也屬于多層神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu),但很多人在將其放入DL家族時仍然保持著自己的理解。它在原始輸入中使用可訓(xùn)練濾波器和局部鄰域池運(yùn)算,得到一個層次化的、逐漸復(fù)雜的特征表示。實踐表明,采用適當(dāng)?shù)恼齽t化項進(jìn)行訓(xùn)練可以取得很好的效果。CNN的另一個最受歡迎的特點(diǎn)是它對姿勢、光線和復(fù)雜背景等事物保持不變。
是否存在通用的神經(jīng)網(wǎng)絡(luò)模型,可以處理圖像,語音以及NLP?
對于目前的深度學(xué)習(xí)模型,雖然深度學(xué)習(xí)的目標(biāo)之一是設(shè)計能夠處理各種任務(wù)的算法,但是深度學(xué)習(xí)的應(yīng)用還需要一定的專業(yè)化,目前還沒有通用的神經(jīng)網(wǎng)絡(luò)處理模型。然而,每一種模式也在相互學(xué)習(xí)、相互融合、共同提高。例如,一些創(chuàng)新可以同時改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò),如批量標(biāo)準(zhǔn)化和關(guān)注度。一般模型需要在將來提出。
圖像和視頻處理,計算機(jī)視覺,最流行的是CNN,卷積神經(jīng)網(wǎng)絡(luò),它的變形和發(fā)展,CNN適合處理空間數(shù)據(jù),廣泛應(yīng)用于計算機(jī)視覺領(lǐng)域。例如,alexnet、vggnet、googlenet、RESNET等都有自己的特點(diǎn)。將上述模型應(yīng)用于圖像分類識別中。在圖像分割、目標(biāo)檢測等方面,提出了更有針對性的模型,并得到了廣泛的應(yīng)用。
語音處理,2012年之前,最先進(jìn)的語音識別系統(tǒng)是隱馬爾可夫模型(HMM)和高斯混合模型(GMM)的結(jié)合。目前最流行的是深度學(xué)習(xí)RNN遞歸神經(jīng)網(wǎng)絡(luò),其長、短期記憶網(wǎng)絡(luò)LSTM、Gru、雙向RNN、層次RNN等。
除了傳統(tǒng)的自然語言處理方法外,目前的自然語言處理深度學(xué)習(xí)模型也經(jīng)歷了幾個發(fā)展階段,如基于CNN的模型、基于RNN的模型、基于注意的模型、基于變壓器的模型等。不同的任務(wù)場景有不同的模型和策略來解決一些問題。
深度學(xué)習(xí)的預(yù)測模型有哪些?
深度學(xué)習(xí)模型很常見:卷積神經(jīng)網(wǎng)絡(luò)CNN、堆疊式自動編碼器SAE、遞歸神經(jīng)網(wǎng)絡(luò)DNN、生成對抗網(wǎng)絡(luò)Gan、深度信念網(wǎng)絡(luò)DBN、深度神經(jīng)網(wǎng)絡(luò)DNN、深度強(qiáng)化學(xué)習(xí)DRL以及模型的許多變體。
深度學(xué)習(xí)中沒有預(yù)測模型,只是那些模型是一個預(yù)測問題。GDP預(yù)測是一個連續(xù)的問題。我覺得CNN、DBN和DNN不合適。如果數(shù)據(jù)量有限,參考互聯(lián)網(wǎng)金融,我覺得遷移學(xué)習(xí)深度學(xué)習(xí)模式是一個不錯的選擇。Deep learning和NLP Deep learning及CNN],官方帳號僅供個人參考。卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種深度學(xué)習(xí)算法,Lenetè也是一種深度學(xué)習(xí)算法。目前,它被廣泛應(yīng)用。事實上,除了CNN之外,還有其他網(wǎng)絡(luò)算法在深度學(xué)習(xí)中,比如Hinton的DBNs,這對語音和自然語言處理都有好處。目前,CNN主要是利用CNN來實現(xiàn)更好的并行計算,特別是在有GPU的情況下。相比之下,LSTM等序列計算模型不能很好地利用GPU。近一年來,以Bert為代表的基于自我注意機(jī)制的“通用NLP模型”被提出。一個模型可以用于許多不同的NLP任務(wù),其中大多數(shù)都比以前取得了更好的效果,也可以更好地利用GPU