數(shù)據(jù)的歸一化處理 歸一化處理公式?
歸一化處理公式?歸一化公式:x=(x-min)/(max-MIH),它有兩種形式,一種是將數(shù)字改為(0,1)之間的小數(shù),另一種是將有量綱表達式改為無量綱表達式。如何進行數(shù)據(jù)的歸一化處理?首先,測試集的
歸一化處理公式?
歸一化公式:x=(x-min)/(max-MIH),它有兩種形式,一種是將數(shù)字改為(0,1)之間的小數(shù),另一種是將有量綱表達式改為無量綱表達式。
如何進行數(shù)據(jù)的歸一化處理?
首先,測試集的標準化平均值和標準偏差應來自訓練集。如果您熟悉Python的sklearn,您應該知道應該首先對訓練集數(shù)據(jù)進行擬合,得到包括均值和標準差的定標器,然后分別變換訓練集和驗證集。這個問題其實很好。很多人不注意。最容易犯的錯誤是在劃分訓練測試集之前進行規(guī)范化。
第二個問題是不同歸一化方法的選擇,如均值方差歸一化、最大最小歸一化等。歸一化的目的是調(diào)整每個場之間的數(shù)量級差異。均值-方差歸一化可能更適合不知道數(shù)據(jù)邊界在哪里的情況。最大和最小規(guī)格化相當于積分到01,這意味著您知道該字段的邊界在哪里。所以我個人更喜歡均值方差的標準化。我只是憑經(jīng)驗說的,不一定是對的。