深度學(xué)習(xí)的應(yīng)用 如何理解卷積神經(jīng)網(wǎng)絡(luò)里卷積過濾器的深度問題?
如何理解卷積神經(jīng)網(wǎng)絡(luò)里卷積過濾器的深度問題?我們通??吹降木矸e濾波器原理圖是這樣的:這實際上是卷積濾波器的“展平”或“展平”。例如,上圖中的粉紅色卷積濾波器是3x3x3,即長3,寬3,深3。然而,在圖
如何理解卷積神經(jīng)網(wǎng)絡(luò)里卷積過濾器的深度問題?
我們通??吹降木矸e濾波器原理圖是這樣的:
這實際上是卷積濾波器的“展平”或“展平”。例如,上圖中的粉紅色卷積濾波器是3x3x3,即長3,寬3,深3。然而,在圖中,它是在兩個維度中繪制的-深度被省略。
.由于卷積濾波器的深度與輸入圖像的深度相同,所以原理圖中沒有繪制深度。如果同時繪制深度,效果如下:
(圖片來源:mlnotebook)
如上所述,卷積濾波器的深度與輸入圖像的深度相同,即3。
順便說一下,輸入圖像深度是3,因為輸入圖像是彩色圖像,深度是3,分別是R、G和b值。
(圖片來源:mlnotebook)
總之,卷積濾波器的深度應(yīng)該與輸入數(shù)據(jù)的深度一致。
既然使用神經(jīng)網(wǎng)絡(luò)也可以解決分類問題,那SVM、決策樹這些算法還有什么意義呢?
這取決于數(shù)據(jù)量和樣本數(shù)。不同的樣本數(shù)和特征數(shù)據(jù)適合不同的算法。像神經(jīng)網(wǎng)絡(luò)這樣的深度學(xué)習(xí)算法需要訓(xùn)練大量的數(shù)據(jù)集來建立更好的預(yù)測模型。許多大型互聯(lián)網(wǎng)公司更喜歡深度學(xué)習(xí)算法,因為他們獲得的用戶數(shù)據(jù)是數(shù)以億計的海量數(shù)據(jù),這更適合于卷積神經(jīng)網(wǎng)絡(luò)等深度學(xué)習(xí)算法。
如果樣本數(shù)量較少,則更適合使用SVM、決策樹和其他機(jī)器學(xué)習(xí)算法。如果你有一個大的數(shù)據(jù)集,你可以考慮使用卷積神經(jīng)網(wǎng)絡(luò)和其他深度學(xué)習(xí)算法。
以下是一個圖表,用于說明根據(jù)樣本數(shù)量和數(shù)據(jù)集大小選擇的任何機(jī)器學(xué)習(xí)算法。
如果你認(rèn)為它對你有幫助,你可以多表揚,也可以關(guān)注它。謝謝您!