中文亚洲精品无码_熟女乱子伦免费_人人超碰人人爱国产_亚洲熟妇女综合网

當(dāng)前位置: 首頁 > news >正文

如果使用自己電腦做網(wǎng)站百度廣告官網(wǎng)

如果使用自己電腦做網(wǎng)站,百度廣告官網(wǎng),上海傳媒公司注冊代辦,高端房屋設(shè)計公司Adaboost 算法介紹 1. 集成學(xué)習(xí) 集成學(xué)習(xí)(ensemble learning)通過構(gòu)建并結(jié)合多個學(xué)習(xí)器(learner)來完成學(xué)習(xí)任務(wù),通??色@得比單一學(xué)習(xí)器更良好的泛化性能(特別是在集成弱學(xué)習(xí)器(weak learner…

Adboost框架圖

Adaboost 算法介紹

1. 集成學(xué)習(xí)

集成學(xué)習(xí)(ensemble learning)通過構(gòu)建并結(jié)合多個學(xué)習(xí)器(learner)來完成學(xué)習(xí)任務(wù),通??色@得比單一學(xué)習(xí)器更良好的泛化性能(特別是在集成弱學(xué)習(xí)器(weak learner)時)。

目前集成學(xué)習(xí)主要分為2大類:

一類是以bagging、Random Forest等算法為代表的,各個學(xué)習(xí)器之間相互獨立、可同時生成的并行化方法;

一類是以boosting、Adaboost等算法為代表的,個體學(xué)習(xí)器是串行序列化生成的、具有依賴關(guān)系,它試圖不斷增強單個學(xué)習(xí)器的學(xué)習(xí)能力。

2. Adaboost 算法詳解

2.1 Adaboost 步驟概覽

  1. 初始化訓(xùn)練樣本的權(quán)值分布,每個訓(xùn)練樣本的權(quán)值應(yīng)該相等(如果一共有 N N N個樣本,則每個樣本的權(quán)值為 1 N \frac{1}{N} N1?)

  2. 依次構(gòu)造訓(xùn)練集并訓(xùn)練弱分類器。如果一個樣本被準確分類,那么它的權(quán)值在下一個訓(xùn)練集中就會降低;相反,如果它被分類錯誤,那么它在下個訓(xùn)練集中的權(quán)值就會提高。權(quán)值更新過后的訓(xùn)練集會用于訓(xùn)練下一個分類器。

  3. 將訓(xùn)練好的弱分類器集成為一個強分類器,誤差率小的弱分類器會在最終的強分類器里占據(jù)更大的權(quán)重,否則較小。

2.2 Adaboost 算法流程

給定一個樣本數(shù)量為 m m m的數(shù)據(jù)集
T = { ( x 1 , y 1 ) , … , ( x m , y m ) } T= \left \{\left(x_{1}, y_{1}\right), \ldots,\left(x_{m}, y_{m}\right) \right \} T={(x1?,y1?),,(xm?,ym?)}
y i y_i yi? 屬于標記集合 { ? 1 , + 1 } \{-1,+1\} {?1,+1}。

訓(xùn)練集的在第 k k k個弱學(xué)習(xí)器的輸出權(quán)重為
D ( k ) = ( w k 1 , w k 2 , … w k m ) ; w 1 i = 1 m ; i = 1 , 2 … m D(k)=\left(w_{k 1}, w_{k 2}, \ldots w_{k m}\right) ; \quad w_{1 i}=\frac{1}{m} ; i=1,2 \ldots m D(k)=(wk1?,wk2?,wkm?);w1i?=m1?;i=1,2m

  • 初始化訓(xùn)練樣本的權(quán)值分布,每個訓(xùn)練樣本的權(quán)值相同:

D ( 1 ) = ( w 11 , w 12 , … w 1 m ) ; w 1 i = 1 m ; i = 1 , 2 … m D(1)=\left(w_{1 1}, w_{1 2}, \ldots w_{1 m}\right) ; \quad w_{1 i}=\frac{1}{m} ; i=1,2 \ldots m D(1)=(w11?,w12?,w1m?);w1i?=m1?;i=1,2m

  • 進行多輪迭代,產(chǎn)生 T T T個弱分類器。
    • 使用權(quán)值分布 $D(t) $的訓(xùn)練集進行訓(xùn)練,得到一個弱分類器

G t ( x ) : χ → { ? 1 , + 1 } G_{t}(x) : \quad \chi \rightarrow\{-1,+1\} Gt?(x):χ{?1,+1}

  • 計算 G t ( x ) G_t(x) Gt?(x) 在訓(xùn)練數(shù)據(jù)集上的分類誤差率(其實就是被 $G_t(x) $誤分類樣本的權(quán)值之和):

e t = P ( G t ( x i ) ≠ y i ) = ∑ i = 1 m w t i I ( G t ( x i ) ≠ y i ) e_{t}=P\left(G_{t}\left(x_{i}\right) \neq y_{i}\right)=\sum_{i=1}^{m} w_{t i} I\left(G_{t}\left(x_{i}\right) \neq y_{i}\right) et?=P(Gt?(xi?)=yi?)=i=1m?wti?I(Gt?(xi?)=yi?)

  • 計算弱分類器 Gt(x) 在最終分類器中的系數(shù)(即所占權(quán)重)
    α t = 1 2 ln ? 1 ? e t e t \alpha_{t}=\frac{1}{2} \ln \frac{1-e_{t}}{e_{t}} αt?=21?lnet?1?et??
  • 更新訓(xùn)練數(shù)據(jù)集的權(quán)值分布,用于下一輪(t+1)迭代
    D ( t + 1 ) = ( w t + 1 , 1 , w t + 1 , 2 , ? w t + 1 , i ? , w t + 1 , m ) D(t+1)=\left(w_{t+1,1} ,w_{t+1,2} ,\cdots w_{t+1, i} \cdots, w_{t+1, m}\right) D(t+1)=(wt+1,1?,wt+1,2?,?wt+1,i??,wt+1,m?)

w t + 1 , i = w t , i Z t × { e ? α t ( i f G t ( x i ) = y i ) e α t ( i f G t ( x i ) ≠ y i ) = w t , i Z t exp ? ( ? α t y i G t ( x i ) ) w_{t+1,i}=\frac{w_{t,i}}{Z_{t}} \times \left\{\begin{array}{ll}{e^{-\alpha_{t}}} & {\text ({ if } G_{t}\left(x_{i}\right)=y_{i}}) \\ {e^{\alpha_{t}}} & {\text ({ if } G_{t}\left(x_{i}\right) \neq y_{i}})\end{array}\right.= \frac{w_{t,i}}{Z_{t}} \exp \left(-\alpha_{t} y_{i} G_{t}\left(x_{i}\right)\right) wt+1,i?=Zt?wt,i??×{e?αt?eαt??ifGt?(xi?)=yi?ifGt?(xi?)=yi??=Zt?wt,i??exp(?αt?yi?Gt?(xi?))

? 其中 Z t Z_t Zt?是規(guī)范化因子,使得 D ( t + 1 ) D(t+1) D(t+1)成為一個概率分布(和為1):
Z t = ∑ j = 1 m w t , i exp ? ( ? α t y i G t ( x i ) ) Z_{t}=\sum_{j=1}^{m} w_{t,i} \exp \left(-\alpha_{t} y_{i} G_{t}\left(x_{i}\right)\right) Zt?=j=1m?wt,i?exp(?αt?yi?Gt?(xi?))

  • 集成 T T T個弱分類器為1個最終的強分類器:
    G ( x ) = sign ? ( ∑ t = 1 T α t G t ( x ) ) G(x)=\operatorname{sign}\left(\sum_{t=1}^{T} \alpha_{t} G_{t}(x)\right) G(x)=sign(t=1T?αt?Gt?(x))

3. 算法面試題

3.1 Adaboost分類模型的學(xué)習(xí)器的權(quán)重系數(shù) α \alpha α怎么計算的?

Adaboost是前向分步加法算法的特例,分類問題的時候認為損失函數(shù)指數(shù)函數(shù)。

  1. 當(dāng)基函數(shù)是分類器時,Adaboost的最終分類器是:
    f ( x ) = ∑ m ? 1 M α m G m ( x ) = f m ? 1 ( x ) + α m G m ( x ) f(x)=\sum_{m-1}^{M}{\alpha_mG_m(x)}=f_{m-1}(x)+{\alpha_mG_m(x)} f(x)=m?1M?αm?Gm?(x)=fm?1?(x)+αm?Gm?(x)

  2. 目標是使前向分步算法得到的 α \alpha α G m ( x ) G_m(x) Gm?(x)使 f m ( x ) f_m(x) fm?(x)在訓(xùn)練數(shù)據(jù)集T上的指數(shù)損失函數(shù)最小,即
    ( α , G m ( x ) ) = a r g m i n α , G ∑ i = 1 N e x p [ ? y i ( f m ? 1 ( x i ) + α G ( x i ) ) ] (\alpha, G_m(x))=arg min_{\alpha, G}\sum_{i=1}^{N}exp[-y_i(f_{m-1}(x_i)+\alpha G(x_i))] (α,Gm?(x))=argminα,G?i=1N?exp[?yi?(fm?1?(xi?)+αG(xi?))]
    其中, w ^ m i = e x p [ ? y i f m ? 1 ( x i ) ] . \hat{w}_{mi}=exp[-y_i f_{m-1}(x_i)]. w^mi?=exp[?yi?fm?1?(xi?)].為了求上式的最小化,首先計算 G m ? ( x ) G_m^*(x) Gm??(x),對于任意的 α > 0 \alpha >0 α>0,可以轉(zhuǎn)化為下式:
    G m ? = a r g m i n G ∑ i = 1 N w ^ m i I ( y i ≠ G ( x i ) ) G_{m}^*=argmin_{G}\sum_{i=1}^{N}\hat{w}_{mi}I(y_i \neq G(x_i)) Gm??=argminG?i=1N?w^mi?I(yi?=G(xi?))
    之后求 α m ? \alpha_m^* αm??,將上述式子化簡,得到

∑ i = 1 N w ^ m i e x p [ ? y i α G ( x i ) ] = ∑ y i = G m ( x i ) w ^ m i e ? α + ∑ y i ≠ G m ( x i ) w ^ m i e α = ( e α ? e ? α ) ∑ i = 1 N w ^ m i I ( y i ≠ G ( x i ) ) + e ? α ∑ i = 1 N w ^ m i \sum_{i=1}^{N}\hat{w}_{mi}exp[-y_i \alpha G(x_i)] = \sum_{y_i =G_m(x_i)}\hat{w}_{mi}e^{-\alpha}+\sum_{y_i \neq G_m(x_i)}{\hat{w}_{mi}e^{\alpha}} = (e^{\alpha} - e^{- \alpha})\sum_{i=1}^{N}\hat{w}_{mi}I(y_i \neq G(x_i)) + e^{- \alpha}\sum_{i=1}^{N}\hat{w}_{mi} i=1N?w^mi?exp[?yi?αG(xi?)]=yi?=Gm?(xi?)?w^mi?e?α+yi?=Gm?(xi?)?w^mi?eα=(eα?e?α)i=1N?w^mi?I(yi?=G(xi?))+e?αi=1N?w^mi?

將已經(jīng)求得的 G m ? ( x ) G_m^*(x) Gm??(x)帶入上式面,對 α \alpha α求導(dǎo)并等于0,得到最優(yōu)的 α \alpha α.
a m ? = 1 2 l o g 1 ? e m e m a_m^*=\frac{1}{2} log{\frac{1-e_m}{e_m}} am??=21?logem?1?em??
其中 e m e_m em?是分類誤差率:
e m = ∑ i = 1 N w ^ m i I ( y i ≠ G m ( x i ) ) ∑ i = 1 N w ^ m i = ∑ i = 1 N w ^ m i I ( y i ≠ G m ( x i ) ) e_m=\frac{\sum_{i=1}^{N}\hat{w}_{mi}I(y_i \neq G_m(x_i))}{\sum_{i=1}^{N}\hat{w}_{mi}}=\sum_{i=1}^{N}\hat{w}_{mi}I(y_i \neq G_m(x_i)) em?=i=1N?w^mi?i=1N?w^mi?I(yi?=Gm?(xi?))?=i=1N?w^mi?I(yi?=Gm?(xi?))

3.2 Adaboost能否做回歸問題?

Adaboost也能夠應(yīng)用到回歸問題,相應(yīng)的算法如下:
輸入: T = ( x i , y 1 ) , ( x i , y 1 ) , . . . , ( x N , y N ) T={(x_i, y_1),(x_i, y_1),...,(x_N, y_N)} T=(xi?,y1?),(xi?,y1?),...,(xN?,yN?), 弱學(xué)習(xí)器迭代次數(shù) M M M。
輸出:強分類器 f ( x ) f(x) f(x).

  1. 初始化權(quán)重,
    D ( 1 ) = w 11 , w 12 , . . . , w 1 N ; w 1 i = 1 N ; i = 1 , 2 , . . , N D(1)={w_{11},w_{12},...,w_{1N}}; w_{1i}=\frac{1}{N}; i=1,2,..,N D(1)=w11?,w12?,...,w1N?;w1i?=N1?;i=1,2,..,N

  2. 根據(jù) m = 1 , 2 , . . . , M m=1,2,...,M m=1,2,...,M;

    • 學(xué)習(xí)得到 G m ( x ) G_m(x) Gm?(x)

    • 計算訓(xùn)練集上最大誤差
      E m = m a x ∣ y i ? G m ( x i ) ∣ , i = 1 , 2 , . . , N E_m=max|y_i-G_m(x_i)|, i=1,2,..,N Em?=maxyi??Gm?(xi?),i=1,2,..,N

    • 計算樣本的相對平方誤差:
      e m i = ( y i ? G m ( x i ) ) 2 E m 2 e_{mi}=\frac{(y_i-G_m(x_i))^2}{E_m^2} emi?=Em2?(yi??Gm?(xi?))2?

    • 計算回歸誤差率:
      e m = ∑ i = 1 N w m i e m i e_m=\sum_{i=1}^{N}w_{mi}e_{mi} em?=i=1N?wmi?emi?

    • 計算學(xué)習(xí)器系數(shù):
      α m = e m 1 ? e m \alpha_m=\frac{e_m}{1-e_m} αm?=1?em?em??

    • 更新樣本權(quán)重:
      w m + 1 , i = w m i Z m α m 1 ? e m , i w_{m+1,i}=\frac{w_{mi}}{Z_m}{\alpha_{m}^{1-e^{m,i}}} wm+1,i?=Zm?wmi??αm1?em,i?
      其中 Z m Z_m Zm?是規(guī)范化因子,
      Z m = ∑ i = 1 m w m i α m 1 ? e m , i Z_m=\sum_{i=1}^{m}w_{mi}{\alpha_{m}^{1-e^{m,i}}} Zm?=i=1m?wmi?αm1?em,i?

  3. 得到強學(xué)習(xí)器:
    f ( x ) = ∑ m = 1 M G m ? ( x ) f(x)=\sum_{m=1}{M}G_{m}^*(x) f(x)=m=1?MGm??(x)

注: 不管是分類問題還是回歸問題,根據(jù)誤差改變權(quán)重就是Adaboost的本質(zhì),可以基于這個構(gòu)建相應(yīng)的強學(xué)習(xí)器。

3.3 boosting和bagging之間的區(qū)別,從偏差-方差的角度解釋Adaboost?

集成學(xué)習(xí)提高學(xué)習(xí)精度,降低模型誤差,模型的誤差來自于方差和偏差,其中bagging方式是降低模型方差,一般選擇多個相差較大的模型進行bagging。boosting是主要是通過降低模型的偏差來降低模型的誤差。其中Adaboost每一輪通過誤差來改變數(shù)據(jù)的分布,使偏差減小。

3.4 為什么Adaboost方式能夠提高整體模型的學(xué)習(xí)精度?

根據(jù)前向分布加法模型,Adaboost算法每一次都會降低整體的誤差,雖然單個模型誤差會有波動,但是整體的誤差卻在降低,整體模型復(fù)雜度在提高。

3.5 Adaboost算法如何加入正則項?

f m ( x ) = f m ? 1 ( x ) + η α m G m ( x ) f_m(x)=f_{m-1}(x)+\eta \alpha_{m}G_{m}(x) fm?(x)=fm?1?(x)+ηαm?Gm?(x)

3.6 Adaboost使用m個基學(xué)習(xí)器和加權(quán)平均使用m個學(xué)習(xí)器之間有什么不同?

Adaboost的m個基學(xué)習(xí)器是有順序關(guān)系的,第k個基學(xué)習(xí)器根據(jù)前k-1個學(xué)習(xí)器得到的誤差更新數(shù)據(jù)分布,再進行學(xué)習(xí),每一次的數(shù)據(jù)分布都不同,是使用同一個學(xué)習(xí)器在不同的數(shù)據(jù)分布上進行學(xué)習(xí)。加權(quán)平均的m個學(xué)習(xí)器是可以并行處理的,在同一個數(shù)據(jù)分布上,學(xué)習(xí)得到m個不同的學(xué)習(xí)器進行加權(quán)。

3.7 Adaboost和GBDT之間的區(qū)別?

相同點:

? Adaboost和GBDT都是通過減低偏差提高模型精度,都是前項分布加法模型的一種,

不同點:

? Adaboost每一個根據(jù)前m-1個模型的誤差更新當(dāng)前數(shù)據(jù)集的權(quán)重,學(xué)習(xí)第m個學(xué)習(xí)器;

? GBDT是根據(jù)前m-1個的學(xué)習(xí)剩下的label的偏差,修改當(dāng)前數(shù)據(jù)的label進行學(xué)習(xí)第m個學(xué)習(xí)器,一般使用梯度的負方向替代偏差進行計算。

3.8 Adaboost的迭代次數(shù)(基學(xué)習(xí)器的個數(shù))如何控制?

一般使用earlystopping進行控制迭代次數(shù)。

3.9 Adaboost算法中基學(xué)習(xí)器是否很重要,應(yīng)該怎么選擇基學(xué)習(xí)器?

sklearn中的adaboost接口給出的是使用決策樹作為基分類器,一般認為決策樹表現(xiàn)良好,其實可以根據(jù)數(shù)據(jù)的分布選擇對應(yīng)的分類器,比如選擇簡單的邏輯回歸,或者對于回歸問題選擇線性回歸。

3.10 MultiBoosting算法將Adaboost作為Bagging的基學(xué)習(xí)器,Iterative Bagging將Bagging作為Adaboost的基學(xué)習(xí)器。比較兩者的優(yōu)缺點?

兩個模型都是降低方差和偏差。主要的不同的是順序不同。MultiBosoting先減低模型的偏差再減低模型的方差,這樣的方式
MultiBoosting由于集合了Bagging,Wagging,AdaBoost,可以有效的降低誤差和方差,特別是誤差。但是訓(xùn)練成本和預(yù)測成本都會顯著增加。
Iterative Bagging相比Bagging會降低誤差,但是方差上升。由于Bagging本身就是一種降低方差的算法,所以Iterative Bagging相當(dāng)于Bagging與單分類器的折中。

3.11 訓(xùn)練過程中,每輪訓(xùn)練一直存在分類錯誤的問題,整個Adaboost卻能快速收斂,為何?

每輪訓(xùn)練結(jié)束后,AdaBoost 會對樣本的權(quán)重進行調(diào)整,調(diào)整的結(jié)果是越到后面被錯誤分類的樣本權(quán)重會越高。而后面的分類器為了達到較低的帶權(quán)分類誤差,會把樣本權(quán)重高的樣本分類正確。這樣造成的結(jié)果是,雖然每個弱分類器可能都有分錯的樣本,然而整個 AdaBoost 卻能保證對每個樣本進行正確分類,從而實現(xiàn)快速收斂。

3.12 Adaboost 的優(yōu)缺點?

? 優(yōu)點:能夠基于泛化性能相當(dāng)弱的的學(xué)習(xí)器構(gòu)建出很強的集成,不容易發(fā)生過擬合。

? 缺點:對異常樣本比較敏感,異常樣本在迭代過程中會獲得較高的權(quán)值,影響最終學(xué)習(xí)器的性能表現(xiàn)。

http://www.risenshineclean.com/news/48692.html

相關(guān)文章:

  • 甪直做網(wǎng)站蘇州seo門戶網(wǎng)
  • 做網(wǎng)站需要知道什么sem掃描電子顯微鏡
  • hexo與wordpress區(qū)別百度優(yōu)化服務(wù)
  • wordpress的登陸地址企業(yè)網(wǎng)站seo診斷報告
  • 北侖做網(wǎng)站深圳外貿(mào)網(wǎng)站制作
  • 網(wǎng)站建設(shè)的公司實習(xí)做什么網(wǎng)站優(yōu)化課程培訓(xùn)
  • 景觀網(wǎng)站設(shè)計網(wǎng)站騰訊云服務(wù)器
  • 網(wǎng)站建設(shè)信息介紹個人怎么接外貿(mào)訂單
  • 如何快速做h5網(wǎng)站義烏最好的電商培訓(xùn)學(xué)校
  • 自己做的網(wǎng)站買域名多少錢網(wǎng)絡(luò)營銷的常用工具
  • 商丘網(wǎng)站建設(shè)的公司哪家好百度百度一下你就知道主頁
  • 馬鞍山北京網(wǎng)站建設(shè)廣州seo招聘信息
  • wordpress開源可視化編輯器常州網(wǎng)站建設(shè)優(yōu)化
  • 網(wǎng)站建設(shè)策劃方案怎么寫青島谷歌seo
  • 西安網(wǎng)站設(shè)計哪家好餐飲管理培訓(xùn)課程
  • 做視頻網(wǎng)站該把視頻文件傳到哪天津天獅網(wǎng)絡(luò)營銷課程
  • 合肥網(wǎng)站建設(shè)-中國互聯(lián)正安縣網(wǎng)站seo優(yōu)化排名
  • 保險公司網(wǎng)站建設(shè)方案今日頭條最新消息
  • 創(chuàng)建網(wǎng)站的快捷方式競價托管代運營公司
  • 網(wǎng)站收錄下降windows優(yōu)化大師是哪個公司的
  • 北京網(wǎng)站制作與網(wǎng)站設(shè)計市場推廣工作內(nèi)容
  • 免費域名注冊網(wǎng)站怎么登錄優(yōu)化網(wǎng)站價格
  • 網(wǎng)站子欄目設(shè)計網(wǎng)站注冊域名
  • asp汽車租憑網(wǎng)站源碼營銷知識和技巧
  • 成武縣住房和城鄉(xiāng)建設(shè)廳網(wǎng)站百度信息流推廣和搜索推廣
  • 做批發(fā)的有哪些網(wǎng)站百度手機助手下載安卓版
  • 做網(wǎng)站的不給源文件seo關(guān)鍵詞優(yōu)化推廣
  • 做網(wǎng)站需提供什么資料鄭州百度推廣公司
  • 珠海市區(qū)工商年報在哪個網(wǎng)站做點擊精靈seo
  • 做ui必要的網(wǎng)站百度的相關(guān)搜索