泰州做網(wǎng)站哪家好2024年的新聞
正則化
在機器學(xué)習(xí)學(xué)習(xí)中往往不知道需要不知道選取的特征個數(shù),假如特征個數(shù)選取過少,容易造成欠擬合,特征個數(shù)選取過多,則容易造成過擬合。由此為了保證模型能夠很好的擬合樣本,同時為了不要出現(xiàn)過擬合現(xiàn)象,引入了一個正則項。
如圖所示:
當(dāng)選用特征過少時,函數(shù)的擬合程度如左邊的圖一樣,不能很好的擬合
當(dāng)選用特征適中時,函數(shù)的擬合程度如中間的圖一樣,可以比較好的擬合
當(dāng)選用特征過多時,函數(shù)的擬合程度如右邊的圖一樣,能夠完全擬合樣本,但是可能在測試數(shù)據(jù)上不佳。
當(dāng)選用均方誤差作為損失函數(shù)時
Loss function: ∑ ( y ? W x i ) 2 \sum (y-Wx_i)^2 ∑(y?Wxi?)2,當(dāng)選擇模型過于復(fù)雜時(即 W W W維度過高, X X X特征過多時)損失函數(shù)往往趨近于0甚至等于0,能夠很好的擬合樣本但是不具有很好的泛化能力,所以為了降低模型的復(fù)雜度我們引入了一個正則項 λ W T W \lambda W^TW λWTW。即損失函數(shù)為 ∑ ( y ? W x i ) 2 + λ W T W \sum (y-Wx_i)^2+\lambda W^TW ∑(y?Wxi?)2+λWTW。由此最小化損失函數(shù)時。會考慮模型的復(fù)雜度,保證模型不至于太復(fù)雜。
當(dāng)存在一個樣本 X = { x 1 , x 2 , ? , x n } \mathbf{ X=\{x_1,x_2,\cdots,x_n\}} X={x1?,x2?,?,xn?}, y = a x 2 + b x + c + ξ y=ax^2+bx+c+\xi y=ax2+bx+c+ξ,其中 ξ \xi ξ為一個高斯噪聲,
當(dāng)選擇模型: θ 1 x + θ 2 \theta_1 x+\theta_2 θ1?x+θ2?時,模型無法很好的擬合樣本
當(dāng)選擇模型: θ 1 x 2 + θ 2 x + θ 3 \theta_1 x^2+\theta_2 x+\theta_3 θ1?x2+θ2?x+θ3?時,模型可以較好的擬合樣本
當(dāng)選擇模型: θ 1 x 5 + θ 2 x 4 + θ 3 x 3 + θ 4 x 2 + θ 5 x + θ 6 \theta_1 x^5+\theta_2 x^4+\theta_3 x^3+\theta_4 x^2+\theta_5 x+\theta_6 θ1?x5+θ2?x4+θ3?x3+θ4?x2+θ5?x+θ6?時,模型可以完全擬合樣本,當(dāng)引入正則項 λ W T W \lambda W^TW λWTW,可以保證 W W W不至于太復(fù)雜,由此可以使 θ 1 , θ 2 , θ 3 \theta_1,\theta_2,\theta_3 θ1?,θ2?,θ3?足夠小,不至于使給模型造成太大的影響,所以可以避免模型太過于復(fù)雜以至于過擬合。