機(jī)器學(xué)習(xí)網(wǎng)格搜索簡(jiǎn)單介紹 有限元分析時(shí)劃分網(wǎng)格的標(biāo)準(zhǔn)是什么?
有限元分析時(shí)劃分網(wǎng)格的標(biāo)準(zhǔn)是什么?1.導(dǎo)入模型的簡(jiǎn)化:關(guān)注的部分要細(xì)化,影響力學(xué)性能的圓角不要丟棄,而其他部分(如強(qiáng)度肯定滿足要求、工作條件還不錯(cuò)的部分)可以粗略繪制,即刪除所有帶圓角的特征。劃分網(wǎng)格
有限元分析時(shí)劃分網(wǎng)格的標(biāo)準(zhǔn)是什么?
1.導(dǎo)入模型的簡(jiǎn)化:關(guān)注的部分要細(xì)化,影響力學(xué)性能的圓角不要丟棄,而其他部分(如強(qiáng)度肯定滿足要求、工作條件還不錯(cuò)的部分)可以粗略繪制,即刪除所有帶圓角的特征。
劃分網(wǎng)格時(shí)原理是一樣的,四面體網(wǎng)格最好用帶中間節(jié)點(diǎn)的類型。最好用時(shí)間劃分六面體網(wǎng)格。
3關(guān)于結(jié)果:我還沒(méi)有 t計(jì)算模式,沒(méi)有經(jīng)驗(yàn)。個(gè)人感覺(jué)如果結(jié)果收斂,應(yīng)該是可信的;靜力當(dāng)然沒(méi)問(wèn)題,疲勞也不涉及。
如何更好地調(diào)試神經(jīng)網(wǎng)絡(luò)?
謝謝邀請(qǐng)我。以下是一些經(jīng)驗(yàn)。深度學(xué)習(xí)在幾個(gè)方面很棘手。數(shù)學(xué)和理論不僅能快速引出梯度公式和更新方程的毛團(tuán),而且深度學(xué)習(xí)模型非常復(fù)雜。TensorFlow開(kāi)發(fā)TensorBoard后,神經(jīng)網(wǎng)絡(luò)的在線可視化和控制訓(xùn)練有了很大的進(jìn)步,幫助開(kāi)發(fā)者診斷無(wú)效的神經(jīng)網(wǎng)絡(luò)層。
從一小步開(kāi)始,最先進(jìn)的深度學(xué)習(xí)架構(gòu)只會(huì)越做越大。作為一個(gè)試圖實(shí)現(xiàn)這些架構(gòu)的程序員,如果你確切地知道你在做什么,這不是一個(gè)問(wèn)題。如果你的知識(shí)不完善,那么事情就會(huì)出錯(cuò)。無(wú)論是 it'他試圖模仿別人。;結(jié)果或超越已經(jīng)做的事情。特別是在你剛開(kāi)始一個(gè)新的深度學(xué)習(xí)項(xiàng)目的時(shí)候,我發(fā)現(xiàn)了兩個(gè)特別有用的措施:用虛假數(shù)據(jù)來(lái)驗(yàn)證你的數(shù)據(jù)模型,在構(gòu)建架構(gòu)的時(shí)候一步一步來(lái)做。
偽造你的數(shù)據(jù),得到你想要的結(jié)果。我的第一個(gè)建議主要出現(xiàn)在 "正如我所說(shuō),從最簡(jiǎn)單的架構(gòu)開(kāi)始,并確定您的數(shù)據(jù)表示。對(duì)于問(wèn)題的某些版本,實(shí)現(xiàn)一個(gè)小的全連接前饋網(wǎng)絡(luò)(即使只是邏輯回歸)。創(chuàng)建一個(gè)模擬數(shù)據(jù)流,其形狀和尺寸與您通過(guò)網(wǎng)絡(luò)推送的數(shù)據(jù)相同。嘗試輸入輸出關(guān)系確定且容易學(xué)習(xí)的數(shù)據(jù),和輸入輸出沒(méi)有關(guān)系的數(shù)據(jù),比較算法的性能:
這些示例如下所示。你覺(jué)得哪些關(guān)系比較容易學(xué)?
這種方法叫做單元測(cè)試。假數(shù)據(jù)可以檢驗(yàn)?zāi)阕罱K實(shí)現(xiàn)的算法的魯棒性。
當(dāng)我們構(gòu)建一個(gè)九層的RNN時(shí),引用是在Torch中實(shí)現(xiàn)的。我和我的同事最初開(kāi)始在Theano Keras復(fù)制這個(gè)架構(gòu),我們的努力被推遲了幾天甚至幾周。
以我自己為例,我終于意識(shí)到這是因?yàn)槲彝瑫r(shí)更新了數(shù)據(jù)采集和分類器的代碼。Theano是一回事,但是說(shuō)到底,Keras有相當(dāng)簡(jiǎn)單的模型規(guī)范習(xí)慣用法,所以理論上應(yīng)該很難混淆。但當(dāng)我到達(dá)第一個(gè)模型層時(shí),我不自覺(jué)地引入了數(shù)據(jù)表示的微妙變化。無(wú)論好壞,當(dāng)您輸入的大小與層的預(yù)期大小不同時(shí)。有了矩陣,許多架構(gòu)將變得非常混亂,導(dǎo)致以下有趣的錯(cuò)誤消息:
因此,如果您的數(shù)據(jù)模型可能被損壞,請(qǐng)先回到單元測(cè)試并修復(fù)它。然后重新構(gòu)建您正在實(shí)施的網(wǎng)絡(luò)。不管怎樣,數(shù)組的大小是多少...?
好好利用你的調(diào)試器。隨著你的神經(jīng)網(wǎng)絡(luò)逐漸變成亂糟糟的代碼,越來(lái)越多無(wú)聊的評(píng)論出現(xiàn)(#再試一次...),也許像TDB、TensorBoard這樣的工具,或者你自己定制的可視化系統(tǒng),在實(shí)際的深度學(xué)習(xí)調(diào)試中會(huì)越來(lái)越有用:檢查梯度,調(diào)整學(xué)習(xí)速率,解決 "這個(gè)輸出不是我想要或期望的。否則,訓(xùn)練模型的參數(shù)調(diào)整階段是多么令人沮喪、痛苦和漫長(zhǎng)。
當(dāng)然,正確的選擇是永遠(yuǎn)知道自己在做什么,永遠(yuǎn)不要犯錯(cuò)。這可能需要在紙上畫出你的網(wǎng)絡(luò)架構(gòu),并成為機(jī)器學(xué)習(xí)的大師,而不是參數(shù)調(diào)整工程師。。
我會(huì)把所有與科技相關(guān)的有趣文章都貼在這里。歡迎訂閱我的頭條號(hào)。偶爾回答有趣的問(wèn)題。有問(wèn)題可以隨時(shí)在評(píng)論區(qū)回復(fù)討論。
(碼字不易,如果文章對(duì)你有幫助,可以喜歡~)