成人AV在线无码|婷婷五月激情色,|伊人加勒比二三四区|国产一区激情都市|亚洲AV无码电影|日av韩av无码|天堂在线亚洲Av|无码一区二区影院|成人无码毛片AV|超碰在线看中文字幕

過(guò)擬合和欠擬合的解決方法 以神經(jīng)網(wǎng)絡(luò)為核心的智能算法是否可以預(yù)測(cè)股票價(jià)格?

以神經(jīng)網(wǎng)絡(luò)為核心的智能算法是否可以預(yù)測(cè)股票價(jià)格?如何創(chuàng)建一個(gè)優(yōu)秀的神經(jīng)網(wǎng)絡(luò)模型?例如,要預(yù)測(cè)一個(gè)人是男人還是女人,有兩組因素可供選擇:a.頭發(fā)顏色、皮膚顏色、雙眼皮與否;B.他是否有胡須、是否有亞當(dāng)蘋(píng)

以神經(jīng)網(wǎng)絡(luò)為核心的智能算法是否可以預(yù)測(cè)股票價(jià)格?

如何創(chuàng)建一個(gè)優(yōu)秀的神經(jīng)網(wǎng)絡(luò)模型?

例如,要預(yù)測(cè)一個(gè)人是男人還是女人,有兩組因素可供選擇:a.頭發(fā)顏色、皮膚顏色、雙眼皮與否;B.他是否有胡須、是否有亞當(dāng)蘋(píng)果和他的體重。

因此,為了建立一個(gè)優(yōu)秀的神經(jīng)網(wǎng)絡(luò)模型,我們必須選擇具有高度相關(guān)性的因素。

同樣的因素,在不同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中,預(yù)測(cè)結(jié)果會(huì)有很大的不同。

如果結(jié)構(gòu)太簡(jiǎn)單,會(huì)出現(xiàn)“欠擬合”,即應(yīng)該分析的不分析;如果結(jié)構(gòu)太復(fù)雜,會(huì)出現(xiàn)“過(guò)擬合”,即不應(yīng)該分析的不分析。只有正確的網(wǎng)絡(luò)結(jié)構(gòu)才能分析出預(yù)期的結(jié)果。

例如:

一個(gè)住在偏遠(yuǎn)村莊a的學(xué)生被城市B中學(xué)錄取。他是村里歷史上唯一被B中學(xué)錄取的人。高考后,他被清華大學(xué)錄取。

如果已經(jīng)安裝了模型,將考慮100%的“住a村”和“讀B高中”的人可以被清華大學(xué)錄取。這是真的,但顯然不是我們想要的結(jié)論。

直接圖表:

沃倫·巴菲特(Warren Buffett)是公認(rèn)的投資大師,在過(guò)去20年中實(shí)現(xiàn)了20%的平均回報(bào)率;詹姆斯·西蒙斯(James Simmons)使用他的量化模型,從1989年到2009年實(shí)現(xiàn)了約35%的平均回報(bào)率。

深度神經(jīng)網(wǎng)絡(luò)是否夸張地過(guò)擬合了?

這不可能是一樣的。

1. 過(guò)度裝配可分為許多情況。一是現(xiàn)在的情況太多了。這種神經(jīng)網(wǎng)絡(luò)能對(duì)許多情況給出正確的答案。即使它是過(guò)度安裝,你也無(wú)法證明它。此外,即使它能工作和排氣,也沒(méi)有壞處。

2. 是否過(guò)擬合與我們的神經(jīng)網(wǎng)絡(luò)模型和訓(xùn)練集有關(guān)。當(dāng)二者的組合過(guò)擬合時(shí),它在訓(xùn)練集上運(yùn)行良好,在驗(yàn)證集上也會(huì)出現(xiàn)問(wèn)題?,F(xiàn)在有一些方法可以對(duì)訓(xùn)練集的數(shù)據(jù)進(jìn)行預(yù)處理、多次輸入和多次訓(xùn)練。

3. 目前,過(guò)度擬合的問(wèn)題是不可避免的。培訓(xùn)本身就是一種適應(yīng)過(guò)程。如果未來(lái)在數(shù)學(xué)原理或應(yīng)用這方面有質(zhì)的突破,可能有解決的機(jī)會(huì)。

可以通過(guò)直接減少hidden layer、hidden unit而不是加正則化來(lái)解決神經(jīng)網(wǎng)絡(luò)過(guò)擬合嗎?

簡(jiǎn)單的答案是肯定的。復(fù)雜的答案是不確定的(見(jiàn)下文)。

這個(gè)概念。

(圖片作者:chabacano,許可證:CC by sa 4.0)

從圖像中可以明顯看出,過(guò)度擬合的曲線過(guò)于曲折(復(fù)雜),對(duì)現(xiàn)有數(shù)據(jù)擬合得非常好,但它不能很好地描述數(shù)據(jù)的規(guī)律,因此面對(duì)新數(shù)據(jù),我們不得不停下來(lái)。

從上面我們得到一個(gè)直覺(jué),過(guò)度擬合的模型往往比正確的模型更復(fù)雜。

。您所說(shuō)的“直接減少隱藏層和隱藏單元的數(shù)量”使網(wǎng)絡(luò)更薄、更窄正是簡(jiǎn)化模型的方法。這個(gè)想法沒(méi)有問(wèn)題。

但是,我們可能必須嘗試找出它是否有效。因?yàn)?,一般?lái)說(shuō),更復(fù)雜的網(wǎng)絡(luò)可能更有表現(xiàn)力。

一般來(lái)說(shuō),神經(jīng)網(wǎng)絡(luò)仍然是一個(gè)黑匣子。有時(shí),正則化的效果更好,有時(shí)則不然。一些問(wèn)題可能是復(fù)雜的網(wǎng)絡(luò)工作得很好,另一些問(wèn)題可能是深度和狹窄的網(wǎng)絡(luò)工作得很好,另一些問(wèn)題可能是薄而寬的網(wǎng)絡(luò)工作得很好,或者一些問(wèn)題可能是簡(jiǎn)單的網(wǎng)絡(luò)工作得很好。

具體來(lái)說(shuō),為了解決過(guò)擬合問(wèn)題,除了簡(jiǎn)化模型(即您稱之為“直接減少隱藏層、隱藏層、隱藏層”)外,還存在漏項(xiàng)(在某種意義上,我們可以看到模型的某些部分由于簡(jiǎn)化模型的繞道而無(wú)法工作),以及人為增加稀疏性限制(稀疏性和簡(jiǎn)化之間存在模糊關(guān)系)或盡快停止訓(xùn)練。

神經(jīng)網(wǎng)絡(luò)能不能完全擬合簡(jiǎn)單函數(shù)呢?

答案是,理論上,這取決于運(yùn)氣。

在很大的概率中,訓(xùn)練的結(jié)果是達(dá)到局部最優(yōu)。如果你幸運(yùn)的話,就有可能達(dá)到全局最優(yōu)。因此,在實(shí)際應(yīng)用中,神經(jīng)網(wǎng)絡(luò)完全擬合函數(shù)存在誤差。

當(dāng)然,神經(jīng)網(wǎng)絡(luò)的最佳用途不是擬合函數(shù)。我們之所以使用神經(jīng)網(wǎng)絡(luò),是因?yàn)槲覀冃枰姆夯芰Γ磳?duì)于未知的特征可以得到很好的分類或回歸結(jié)果。擬合函數(shù)只使用它的記憶能力。

請(qǐng)教大牛神經(jīng)網(wǎng)絡(luò)的過(guò)擬合問(wèn)題?

你的問(wèn)題很模糊。你想知道神經(jīng)網(wǎng)絡(luò)的過(guò)擬合是什么樣的嗎?為什么會(huì)有過(guò)擬合。對(duì)于第一個(gè)問(wèn)題,神經(jīng)網(wǎng)絡(luò)的過(guò)擬合類似于支持向量機(jī)、高斯混合模型等建模方法的過(guò)擬合,說(shuō)明訓(xùn)練數(shù)據(jù)集的建模效果很好,而測(cè)試數(shù)據(jù)集的建模效果很差,由于強(qiáng)學(xué)習(xí)能力是預(yù)測(cè)模型中的噪聲會(huì)湮滅有用信息,導(dǎo)致泛化能力差。對(duì)于第二個(gè)問(wèn)題,產(chǎn)生上述現(xiàn)象的主要原因是隱層節(jié)點(diǎn)過(guò)多(隱層節(jié)點(diǎn)越多,學(xué)習(xí)能力越強(qiáng)),這使得預(yù)測(cè)模型在訓(xùn)練過(guò)程中挖掘訓(xùn)練數(shù)據(jù)集中的噪聲,即噪聲會(huì)湮滅有用信息。因此,在使用神經(jīng)網(wǎng)絡(luò)建模時(shí),必須處理模型過(guò)擬合的問(wèn)題。一方面,我們可以增加樣本數(shù)據(jù)集,另一方面,我們可以使用交叉驗(yàn)證來(lái)選擇適當(dāng)數(shù)量的隱層節(jié)點(diǎn),在精度和泛化能力之間做出權(quán)衡。最常用的方法是加入正則化項(xiàng),在一定程度上可以防止模型過(guò)擬合的問(wèn)題。(機(jī)器學(xué)習(xí)算法和python學(xué)習(xí))