中文亚洲精品无码_熟女乱子伦免费_人人超碰人人爱国产_亚洲熟妇女综合网

當前位置: 首頁 > news >正文

如何搭建免費網(wǎng)站營銷培訓視頻課程免費

如何搭建免費網(wǎng)站,營銷培訓視頻課程免費,做期貨的的都喜歡去什么網(wǎng)站,張家界網(wǎng)站定制文章目錄 機器學習算法的目的是找到一個假設(shè)來擬合數(shù)據(jù)。這通過一個優(yōu)化過程來實現(xiàn),該過程從預(yù)定義的 hypothesis class(假設(shè)類)中選擇一個假設(shè)來最小化目標函數(shù)。具體地說,我們想找到 arg?min ? h ∈ H 1 n ∑ i 1 n ? ( X i…

文章目錄


機器學習算法的目的是找到一個假設(shè)來擬合數(shù)據(jù)。這通過一個優(yōu)化過程來實現(xiàn),該過程從預(yù)定義的 hypothesis class(假設(shè)類)中選擇一個假設(shè)來最小化目標函數(shù)。具體地說,我們想找到 arg?min ? h ∈ H 1 n ∑ i = 1 n ? ( X i , Y i , h ) \argmin\limits_{h \in H} \frac{1}{n} \sum\limits_{i=1}^n \ell(X_i,Y_i,h) hHargmin?n1?i=1n??(Xi?,Yi?,h)。其中, H H H 是預(yù)定義的假設(shè)類。

假設(shè)類 H H H是一個函數(shù)集,其中每個函數(shù)都嘗試從輸入特征映射到輸出標簽, H = { h 1 , h 2 , … } H = \{ h_1, h_2, \dots \} H={h1?,h2?,}。通常, H H H 由一個特定的算法或模型結(jié)構(gòu)定義,如線性回歸、決策樹等。

首先,0-1損失函數(shù)是最直接的分類誤差度量。對于給定的分類器 h h h,它只是簡單地計算誤分類的數(shù)據(jù)點的數(shù)量。數(shù)學上,這定義為: arg?min ? h E [ 1 Y ≠ s i g n ( h ( X ) ) ] \argmin\limits_{h} \mathbb{E}[1_{Y \neq sign(h(X))}] hargmin?E[1Y=sign(h(X))?]。但我們通常遇到的問題是:

  1. 真實數(shù)據(jù)的分布 P ( X , Y ) P(X,Y) P(X,Y) 是未知的,因此我們不能直接計算上述期望。
  2. 0-1損失在計算上是困難的,因為它是不連續(xù)的、非凸的,這使得優(yōu)化變得復(fù)雜。

大數(shù)定律描述了隨機變量的樣本均值與整體均值之間的關(guān)系。它確保了當樣本大小趨于無窮大時,樣本均值趨于整體均值。更形式化地說,考慮一個隨機變量 X X X,其期望值為 E [ X ] \mathbb{E}[X] E[X]。對于 X X X n n n 個獨立同分布的樣本 X 1 , X 2 , … , X n X_1, X_2, \dots, X_n X1?,X2?,,Xn?,它們的樣本均值定義為 X n ˉ = 1 n ∑ i = 1 n X i \bar{X_n} = \frac{1}{n} \sum_{i=1}^{n} X_i Xn?ˉ?=n1?i=1n?Xi?。當 n → ∞ n \rightarrow \infty n 時, X n ˉ → E [ X ] \bar{X_n} \rightarrow \mathbb{E}[X] Xn?ˉ?E[X]

通過大數(shù)定律,我們可以使用這些樣本來估計某些與分布相關(guān)的數(shù)量,例如期望損失。假設(shè)我們的目標是估計由假設(shè) h h h 引起的期望損失 E [ 1 Y ≠ sign ( h ( X ) ) ] \mathbb{E}[1_{Y \neq \text{sign}(h(X))}] E[1Y=sign(h(X))?]。我們可以使用來自真實分布的樣本 D \mathcal{D} D 來估計這個期望:

1 n ∑ i = 1 n 1 Y i ≠ sign ( h ( X i ) ) \frac{1}{n} \sum_{i=1}^{n} 1_{Y_i \neq \text{sign}(h(X_i))} n1?i=1n?1Yi?=sign(h(Xi?))?

隨著樣本數(shù)量 n n n 的增加,上述估計將接近真實的期望損失。

為了在實踐中使問題變得可解,我們使用所謂的 surrogate loss function(替代損失函數(shù)),它們在優(yōu)化上更容易處理,但仍旨在近似0-1損失函數(shù)。

  • Hinge loss(合頁損失):這是支持向量機中使用的損失函數(shù)。
    ? ( X , Y , h ) = max ? { 0 , 1 ? Y h ( X ) } \ell(X,Y,h) = \max \{0,1?Yh(X)\} ?(X,Y,h)=max{0,1?Yh(X)}

  • Logistic loss(邏輯損失):這是邏輯回歸中使用的。它對于異常值更為穩(wěn)健,并且為概率提供了良好的估計。

  • Least square loss(最小二乘損失):主要在回歸問題中使用。

  • Exponential loss(指數(shù)損失):是AdaBoost算法中使用的損失函數(shù)。

大多數(shù)流行的替代損失函數(shù)都是為了在大樣本極限下模擬0-1損失函數(shù)的效果。這些被稱為 classification-calibrated (分類校準的)替代損失函數(shù)。這意味著,如果訓練數(shù)據(jù)無窮大,則使用這些損失函數(shù)訓練的分類器在0-1損失上的表現(xiàn)將與真正的最佳分類器一致。

給定一個代理損失函數(shù) ? \ell ? 和相應(yīng)的函數(shù) ? \phi ? 使得 ? ( Y h ( X ) ) = ? ( X , Y , h ) \phi(Yh(X)) = \ell(X, Y, h) ?(Yh(X))=?(X,Y,h)。這里, Y Y Y 是標簽,取值為 ( ? 1 , 1 ) (-1, 1) (?1,1),而 h ( X ) h(X) h(X) 是分類器對輸入 X X X 的預(yù)測得分。為了檢查 ? \ell ? 是否是分類校準的,我們通常檢查以下條件:

  1. ? \phi ? 是凸的。
  2. ? \phi ? 在0處可導,并且 ? ′ ( 0 ) < 0 \phi'(0) < 0 ?(0)<0。

滿足上述條件意味著在大部分情況下,對于一個給定的數(shù)據(jù)點,分類器 h h h 使代理損失最小化時,也會使0-1損失最小化。

例如,考慮Hinge損失 ? hinge ( X , Y , h ) = max ? { 0 , 1 ? Y h ( X ) } \ell_{\text{hinge}}(X,Y,h) = \max \{ 0, 1-Yh(X) \} ?hinge?(X,Y,h)=max{0,1?Yh(X)}

對應(yīng)的 ? \phi ? 函數(shù)為 ? ( z ) = max ? { 0 , 1 ? z } \phi(z) = \max \{ 0, 1-z \} ?(z)=max{0,1?z}

這個函數(shù)在 z = 1 z=1 z=1 處是不可導的,但是在 z = 0 z=0 z=0 處是可導的,且其導數(shù)小于0,因此Hinge損失是分類校準的。

現(xiàn)在可以考慮以下兩個分類器的定義:

  • h s h_s hs? 是基于有限訓練數(shù)據(jù)和替代損失函數(shù)的最優(yōu)分類器。
  • h c h_c hc? 是基于整個數(shù)據(jù)分布和0-1損失函數(shù)的最優(yōu)分類器。

使用替代損失函數(shù)和訓練數(shù)據(jù),我們可以找到 h s h_s hs?

h s = arg?min ? h 1 n ∑ i = 1 n ? ( X i , Y i , h ) h_s = \argmin\limits_{h} \frac{1}{n} \sum\limits_{i=1}^n \ell(X_i,Y_i,h) hs?=hargmin?n1?i=1n??(Xi?,Yi?,h)

與此同時,如果我們知道整個數(shù)據(jù)的分布,我們可以找到 h c h_c hc?

h c = arg?min ? h E [ 1 Y ≠ sign ( h ( X ) ) ] h_c = \argmin\limits_{h} \mathbb{E}[1_{Y \neq \text{sign}(h(X))}] hc?=hargmin?E[1Y=sign(h(X))?]

當我們的訓練數(shù)據(jù)量無限大時,使用替代損失函數(shù)得到的 h s h_s hs? 將與使用0-1損失函數(shù)得到的 h c h_c hc?越來越接近。這可以通過以下公式表示:

E [ 1 Y ≠ sign ( h S ( X ) ) ] ? n → ∞ E [ 1 Y ≠ sign ( h c ( X ) ) ] \mathbb{E}[1_{Y \neq \text{sign}(h_S(X))}] \overset{n \rightarrow \infty}{\longrightarrow} \mathbb{E}[1_{Y \neq \text{sign}(h_c(X))}] E[1Y=sign(hS?(X))?]?n?E[1Y=sign(hc?(X))?]

這意味著,當我們基于有限的樣本數(shù)據(jù)集優(yōu)化代理損失時,我們實際上是在優(yōu)化該數(shù)據(jù)集上的經(jīng)驗損失。大數(shù)定律保證,隨著樣本數(shù)的增加,這個經(jīng)驗損失的期望會接近于真實的期望損失。同時,如果我們的代理損失是分類校準的,那么優(yōu)化這個代理損失將隱式地優(yōu)化0-1損失。當訓練數(shù)據(jù)的大小趨向于無窮大時,通過最小化替代損失函數(shù)得到的分類器的期望0-1損失將趨近于最優(yōu)的0-1損失。

當替代損失函數(shù)是凸的且光滑時,我們可以使用一系列的優(yōu)化算法,如梯度下降、牛頓法等,來解決以下問題:
h = arg?min ? h ∈ H 1 n ∑ i = 1 n ? ( X i , Y i , h ) h = \argmin\limits_{h \in H} \frac{1}{n} \sum\limits_{i=1}^n \ell(X_i,Y_i,h) h=hHargmin?n1?i=1n??(Xi?,Yi?,h)

http://www.risenshineclean.com/news/7374.html

相關(guān)文章:

  • 建設(shè)網(wǎng)站要注意事項中國最大網(wǎng)站排名
  • 互聯(lián)網(wǎng)門戶網(wǎng)站是什么培訓課程總結(jié)
  • 國外做網(wǎng)站公司能賺錢嗎知乎軟文推廣
  • wordpress程序代碼漯河seo推廣
  • 長安公司網(wǎng)站建設(shè)百度自媒體注冊入口
  • 肇慶網(wǎng)站建設(shè)方案外包惠州網(wǎng)站排名提升
  • 網(wǎng)站建設(shè)用什么軟件比較好優(yōu)化視頻
  • 微信如何做微商城網(wǎng)站微信視頻號小店
  • 莆田交友網(wǎng)站市場app推廣引流方法
  • 常州做網(wǎng)站怎么做個網(wǎng)站
  • 做cad室內(nèi)平面圖的家具素材網(wǎng)站網(wǎng)絡(luò)公司關(guān)鍵詞排名
  • 開家網(wǎng)站建設(shè)培訓百度搜索首頁
  • 建電影網(wǎng)站教程seo推廣的特點
  • 網(wǎng)站怎么做搜索欄跨境網(wǎng)站建站
  • 深圳西鄉(xiāng)建網(wǎng)站武漢搜索排名提升
  • 豬豬券網(wǎng)站建設(shè)網(wǎng)站設(shè)計公司官網(wǎng)
  • 網(wǎng)站建設(shè)模塊長沙seo排名收費
  • 平臺網(wǎng)站怎么做的購物網(wǎng)站大全
  • 做推廣又能做網(wǎng)站夸克搜索引擎
  • 可用的國外ip地址怎么制作seo搜索優(yōu)化
  • 做網(wǎng)站先做首頁百度搜索熱度
  • 網(wǎng)上做批發(fā)有哪些網(wǎng)站靠譜求職seo推薦
  • 哪里有做營銷型網(wǎng)站的公司免費學生網(wǎng)頁制作成品
  • 中山哪家建網(wǎng)站好網(wǎng)頁設(shè)計制作網(wǎng)站教程
  • 乳山網(wǎng)站備案上海網(wǎng)站seo快速排名
  • 網(wǎng)頁制作軟件ai真實有效的優(yōu)化排名
  • 美食網(wǎng)站建設(shè)的必要性搜索引擎的優(yōu)化和推廣
  • 做裝修網(wǎng)站多少錢互聯(lián)網(wǎng)運營自學課程
  • 怎么做一個電商網(wǎng)站網(wǎng)站流量指標有哪些
  • 懸賞做logo的網(wǎng)站網(wǎng)店怎么推廣和宣傳