網(wǎng)站建設(shè)開(kāi)票分類(lèi)編碼市場(chǎng)營(yíng)銷(xiāo)實(shí)務(wù)
多變量線性回歸模型
模型參數(shù)為n+1維向量,此時(shí)模型公式為
hθ(x)=θ0x0+θ1x1+θ2x2+...+θnxnh_{\theta}(x)=\theta_{0}x_{0}+\theta_{1}x_{1}+\theta_{2}x_{2}+...+\theta_{n}x_{n} hθ?(x)=θ0?x0?+θ1?x1?+θ2?x2?+...+θn?xn?
可以簡(jiǎn)化為
hθ(x)=θTXh_{\theta}(x)=\theta^\mathrm{T}\mathrm{X} hθ?(x)=θTX
此時(shí)的代價(jià)函數(shù)仍是所有建模誤差的平方和,即
J(θ0,θ1,...,θn)=12m∑i=1m(hθ(x(i))?y(i))2J(\theta_{0},\theta_{1},...,\theta_{n})=\frac{1}{2m}\sum_{i=1}^{m}{(h_{\theta}(x^{(i)})-y^{(i)})^2} J(θ0?,θ1?,...,θn?)=2m1?i=1∑m?(hθ?(x(i))?y(i))2
此時(shí)的批量梯度算法為
θj:=θj?α??θjJ(θ0,θ1,...,θn)\theta_{j}:=\theta_{j}-\alpha\frac{\partial }{\partial \theta_{j}}J(\theta_{0},\theta_{1},...,\theta_{n}) θj?:=θj??α?θj???J(θ0?,θ1?,...,θn?)
θj:=θj?α1m∑i=1m(hθ(x(i))?y(i))?xj(i)forj=0,1,...n\theta_{j}:=\theta_{j}-\alpha\frac{1}{m}\sum_{i=1}^{m}{(h_{\theta}(x^{(i)})-y^{(i)})\cdot x_{j}^{(i)}}\quad for\quad j=0,1,...n θj?:=θj??αm1?i=1∑m?(hθ?(x(i))?y(i))?xj(i)?forj=0,1,...n
特征縮放
在多維特征問(wèn)題中,特征尺度越相近,梯度下降算法收斂越快。 盡量將特征尺度xnx_nxn?縮放到-1~1之間。μn\mu_nμn?是平均值,sns_nsn?是方差。
xn=xn?μnsnx_n=\frac{x_n-\mu_n}{s_n} xn?=sn?xn??μn??
學(xué)習(xí)率
我們不能提前預(yù)知梯度下降算法收斂所需的迭代次數(shù),但可以通過(guò)繪制迭代次數(shù)和代價(jià)函數(shù)的圖表來(lái)觀測(cè)算法在何時(shí)趨于收斂。
常用的學(xué)習(xí)率為0.01,0.03,0.1,0.3,1,3,10
多項(xiàng)式回歸
線性回歸不適用所有的模型,有時(shí)候可能需要二次方、三次方等模型,比如
hθ(x)=θ0+θ1x1+θ2x22+θ3x33h_{\theta}(x)=\theta_0+\theta_1x_1+\theta_2x^2_2+\theta_3x^3_3 hθ?(x)=θ0?+θ1?x1?+θ2?x22?+θ3?x33?
hθ(x)=θ0+θ1x1+θ2x2h_{\theta}(x)=\theta_0+\theta_1x_1+\theta_2\sqrt x_2 hθ?(x)=θ0?+θ1?x1?+θ2?x?2?
正規(guī)方程
通過(guò)正規(guī)方程解出向量,其中XXX為特征矩陣
θ=(XTX)?1XTy\theta=(X^{\mathrm T}X)^{-1}X^{\mathrm T}y θ=(XTX)?1XTy