中文亚洲精品无码_熟女乱子伦免费_人人超碰人人爱国产_亚洲熟妇女综合网

當(dāng)前位置: 首頁(yè) > news >正文

如何搭建免費(fèi)網(wǎng)站seo推廣營(yíng)銷公司

如何搭建免費(fèi)網(wǎng)站,seo推廣營(yíng)銷公司,長(zhǎng)春網(wǎng)站設(shè)計(jì),蕪湖的網(wǎng)站建設(shè)文章目錄 機(jī)器學(xué)習(xí)算法的目的是找到一個(gè)假設(shè)來擬合數(shù)據(jù)。這通過一個(gè)優(yōu)化過程來實(shí)現(xiàn),該過程從預(yù)定義的 hypothesis class(假設(shè)類)中選擇一個(gè)假設(shè)來最小化目標(biāo)函數(shù)。具體地說,我們想找到 arg?min ? h ∈ H 1 n ∑ i 1 n ? ( X i…

文章目錄


機(jī)器學(xué)習(xí)算法的目的是找到一個(gè)假設(shè)來擬合數(shù)據(jù)。這通過一個(gè)優(yōu)化過程來實(shí)現(xiàn),該過程從預(yù)定義的 hypothesis class(假設(shè)類)中選擇一個(gè)假設(shè)來最小化目標(biāo)函數(shù)。具體地說,我們想找到 arg?min ? h ∈ H 1 n ∑ i = 1 n ? ( X i , Y i , h ) \argmin\limits_{h \in H} \frac{1}{n} \sum\limits_{i=1}^n \ell(X_i,Y_i,h) hHargmin?n1?i=1n??(Xi?,Yi?,h)。其中, H H H 是預(yù)定義的假設(shè)類。

假設(shè)類 H H H是一個(gè)函數(shù)集,其中每個(gè)函數(shù)都嘗試從輸入特征映射到輸出標(biāo)簽, H = { h 1 , h 2 , … } H = \{ h_1, h_2, \dots \} H={h1?,h2?,}。通常, H H H 由一個(gè)特定的算法或模型結(jié)構(gòu)定義,如線性回歸、決策樹等。

首先,0-1損失函數(shù)是最直接的分類誤差度量。對(duì)于給定的分類器 h h h,它只是簡(jiǎn)單地計(jì)算誤分類的數(shù)據(jù)點(diǎn)的數(shù)量。數(shù)學(xué)上,這定義為: arg?min ? h E [ 1 Y ≠ s i g n ( h ( X ) ) ] \argmin\limits_{h} \mathbb{E}[1_{Y \neq sign(h(X))}] hargmin?E[1Y=sign(h(X))?]。但我們通常遇到的問題是:

  1. 真實(shí)數(shù)據(jù)的分布 P ( X , Y ) P(X,Y) P(X,Y) 是未知的,因此我們不能直接計(jì)算上述期望。
  2. 0-1損失在計(jì)算上是困難的,因?yàn)樗遣贿B續(xù)的、非凸的,這使得優(yōu)化變得復(fù)雜。

大數(shù)定律描述了隨機(jī)變量的樣本均值與整體均值之間的關(guān)系。它確保了當(dāng)樣本大小趨于無(wú)窮大時(shí),樣本均值趨于整體均值。更形式化地說,考慮一個(gè)隨機(jī)變量 X X X,其期望值為 E [ X ] \mathbb{E}[X] E[X]。對(duì)于 X X X n n n 個(gè)獨(dú)立同分布的樣本 X 1 , X 2 , … , X n X_1, X_2, \dots, X_n X1?,X2?,,Xn?,它們的樣本均值定義為 X n ˉ = 1 n ∑ i = 1 n X i \bar{X_n} = \frac{1}{n} \sum_{i=1}^{n} X_i Xn?ˉ?=n1?i=1n?Xi?。當(dāng) n → ∞ n \rightarrow \infty n 時(shí), X n ˉ → E [ X ] \bar{X_n} \rightarrow \mathbb{E}[X] Xn?ˉ?E[X]。

通過大數(shù)定律,我們可以使用這些樣本來估計(jì)某些與分布相關(guān)的數(shù)量,例如期望損失。假設(shè)我們的目標(biāo)是估計(jì)由假設(shè) h h h 引起的期望損失 E [ 1 Y ≠ sign ( h ( X ) ) ] \mathbb{E}[1_{Y \neq \text{sign}(h(X))}] E[1Y=sign(h(X))?]。我們可以使用來自真實(shí)分布的樣本 D \mathcal{D} D 來估計(jì)這個(gè)期望:

1 n ∑ i = 1 n 1 Y i ≠ sign ( h ( X i ) ) \frac{1}{n} \sum_{i=1}^{n} 1_{Y_i \neq \text{sign}(h(X_i))} n1?i=1n?1Yi?=sign(h(Xi?))?

隨著樣本數(shù)量 n n n 的增加,上述估計(jì)將接近真實(shí)的期望損失。

為了在實(shí)踐中使問題變得可解,我們使用所謂的 surrogate loss function(替代損失函數(shù)),它們?cè)趦?yōu)化上更容易處理,但仍旨在近似0-1損失函數(shù)。

  • Hinge loss(合頁(yè)損失):這是支持向量機(jī)中使用的損失函數(shù)。
    ? ( X , Y , h ) = max ? { 0 , 1 ? Y h ( X ) } \ell(X,Y,h) = \max \{0,1?Yh(X)\} ?(X,Y,h)=max{0,1?Yh(X)}

  • Logistic loss(邏輯損失):這是邏輯回歸中使用的。它對(duì)于異常值更為穩(wěn)健,并且為概率提供了良好的估計(jì)。

  • Least square loss(最小二乘損失):主要在回歸問題中使用。

  • Exponential loss(指數(shù)損失):是AdaBoost算法中使用的損失函數(shù)。

大多數(shù)流行的替代損失函數(shù)都是為了在大樣本極限下模擬0-1損失函數(shù)的效果。這些被稱為 classification-calibrated (分類校準(zhǔn)的)替代損失函數(shù)。這意味著,如果訓(xùn)練數(shù)據(jù)無(wú)窮大,則使用這些損失函數(shù)訓(xùn)練的分類器在0-1損失上的表現(xiàn)將與真正的最佳分類器一致。

給定一個(gè)代理?yè)p失函數(shù) ? \ell ? 和相應(yīng)的函數(shù) ? \phi ? 使得 ? ( Y h ( X ) ) = ? ( X , Y , h ) \phi(Yh(X)) = \ell(X, Y, h) ?(Yh(X))=?(X,Y,h)。這里, Y Y Y 是標(biāo)簽,取值為 ( ? 1 , 1 ) (-1, 1) (?1,1),而 h ( X ) h(X) h(X) 是分類器對(duì)輸入 X X X 的預(yù)測(cè)得分。為了檢查 ? \ell ? 是否是分類校準(zhǔn)的,我們通常檢查以下條件:

  1. ? \phi ? 是凸的。
  2. ? \phi ? 在0處可導(dǎo),并且 ? ′ ( 0 ) < 0 \phi'(0) < 0 ?(0)<0。

滿足上述條件意味著在大部分情況下,對(duì)于一個(gè)給定的數(shù)據(jù)點(diǎn),分類器 h h h 使代理?yè)p失最小化時(shí),也會(huì)使0-1損失最小化。

例如,考慮Hinge損失 ? hinge ( X , Y , h ) = max ? { 0 , 1 ? Y h ( X ) } \ell_{\text{hinge}}(X,Y,h) = \max \{ 0, 1-Yh(X) \} ?hinge?(X,Y,h)=max{0,1?Yh(X)}

對(duì)應(yīng)的 ? \phi ? 函數(shù)為 ? ( z ) = max ? { 0 , 1 ? z } \phi(z) = \max \{ 0, 1-z \} ?(z)=max{0,1?z}

這個(gè)函數(shù)在 z = 1 z=1 z=1 處是不可導(dǎo)的,但是在 z = 0 z=0 z=0 處是可導(dǎo)的,且其導(dǎo)數(shù)小于0,因此Hinge損失是分類校準(zhǔn)的。

現(xiàn)在可以考慮以下兩個(gè)分類器的定義:

  • h s h_s hs? 是基于有限訓(xùn)練數(shù)據(jù)和替代損失函數(shù)的最優(yōu)分類器。
  • h c h_c hc? 是基于整個(gè)數(shù)據(jù)分布和0-1損失函數(shù)的最優(yōu)分類器。

使用替代損失函數(shù)和訓(xùn)練數(shù)據(jù),我們可以找到 h s h_s hs?

h s = arg?min ? h 1 n ∑ i = 1 n ? ( X i , Y i , h ) h_s = \argmin\limits_{h} \frac{1}{n} \sum\limits_{i=1}^n \ell(X_i,Y_i,h) hs?=hargmin?n1?i=1n??(Xi?,Yi?,h)

與此同時(shí),如果我們知道整個(gè)數(shù)據(jù)的分布,我們可以找到 h c h_c hc?

h c = arg?min ? h E [ 1 Y ≠ sign ( h ( X ) ) ] h_c = \argmin\limits_{h} \mathbb{E}[1_{Y \neq \text{sign}(h(X))}] hc?=hargmin?E[1Y=sign(h(X))?]

當(dāng)我們的訓(xùn)練數(shù)據(jù)量無(wú)限大時(shí),使用替代損失函數(shù)得到的 h s h_s hs? 將與使用0-1損失函數(shù)得到的 h c h_c hc?越來越接近。這可以通過以下公式表示:

E [ 1 Y ≠ sign ( h S ( X ) ) ] ? n → ∞ E [ 1 Y ≠ sign ( h c ( X ) ) ] \mathbb{E}[1_{Y \neq \text{sign}(h_S(X))}] \overset{n \rightarrow \infty}{\longrightarrow} \mathbb{E}[1_{Y \neq \text{sign}(h_c(X))}] E[1Y=sign(hS?(X))?]?n?E[1Y=sign(hc?(X))?]

這意味著,當(dāng)我們基于有限的樣本數(shù)據(jù)集優(yōu)化代理?yè)p失時(shí),我們實(shí)際上是在優(yōu)化該數(shù)據(jù)集上的經(jīng)驗(yàn)損失。大數(shù)定律保證,隨著樣本數(shù)的增加,這個(gè)經(jīng)驗(yàn)損失的期望會(huì)接近于真實(shí)的期望損失。同時(shí),如果我們的代理?yè)p失是分類校準(zhǔn)的,那么優(yōu)化這個(gè)代理?yè)p失將隱式地優(yōu)化0-1損失。當(dāng)訓(xùn)練數(shù)據(jù)的大小趨向于無(wú)窮大時(shí),通過最小化替代損失函數(shù)得到的分類器的期望0-1損失將趨近于最優(yōu)的0-1損失。

當(dāng)替代損失函數(shù)是凸的且光滑時(shí),我們可以使用一系列的優(yōu)化算法,如梯度下降、牛頓法等,來解決以下問題:
h = arg?min ? h ∈ H 1 n ∑ i = 1 n ? ( X i , Y i , h ) h = \argmin\limits_{h \in H} \frac{1}{n} \sum\limits_{i=1}^n \ell(X_i,Y_i,h) h=hHargmin?n1?i=1n??(Xi?,Yi?,h)

http://www.risenshineclean.com/news/6360.html

相關(guān)文章:

  • 購(gòu)物網(wǎng)站做推廣銅仁搜狗推廣
  • 做網(wǎng)站只用php不用html馮耀宗seo視頻教程
  • 廈門建設(shè)銀行網(wǎng)站百度引擎搜索
  • 建網(wǎng)站的重要性網(wǎng)絡(luò)營(yíng)銷服務(wù)的內(nèi)容
  • 騰訊短鏈接生成seo褲子的關(guān)鍵詞首頁(yè)排名有哪些
  • 做買衣服的網(wǎng)站友情鏈接互換網(wǎng)站
  • app外包流程濰坊自動(dòng)seo
  • 成都制作網(wǎng)站寧波seo企業(yè)網(wǎng)絡(luò)推廣
  • 購(gòu)物網(wǎng)站建設(shè)思維導(dǎo)圖百度app官方正式版
  • php免費(fèi)網(wǎng)站系統(tǒng)電商seo是什么意思
  • 免費(fèi)網(wǎng)站代碼下載百度號(hào)碼
  • WordPress網(wǎng)站打不開nginx百度一下了你就知道官網(wǎng)
  • 做介紹美食網(wǎng)站的菜單的企業(yè)seo整站優(yōu)化方案
  • 咋做網(wǎng)站代碼背景圖seo怎樣優(yōu)化網(wǎng)站
  • 網(wǎng)站解析查詢?nèi)W(wǎng)營(yíng)銷渠道
  • 淮南發(fā)布seo網(wǎng)站優(yōu)化培訓(xùn)公司
  • pa66用途障車做網(wǎng)站百度應(yīng)用商店下載安裝
  • 東莞公司網(wǎng)站開發(fā)武漢網(wǎng)站設(shè)計(jì)十年樂云seo
  • 個(gè)性化定制網(wǎng)站公司宣傳軟文
  • 三好街做網(wǎng)站的公司百度搜索網(wǎng)站優(yōu)化
  • 如何在本地發(fā)布自己做的網(wǎng)站中國(guó)十大網(wǎng)站排名
  • 2021跨境電商最火的產(chǎn)品西安seo技術(shù)
  • 版式設(shè)計(jì)網(wǎng)站優(yōu)化人員通常會(huì)將目標(biāo)關(guān)鍵詞放在網(wǎng)站首頁(yè)中的
  • 網(wǎng)站集群建設(shè)廣告平臺(tái)
  • 網(wǎng)站查詢功能怎么做seo咨詢河北
  • 教育類網(wǎng)站模板交換鏈接名詞解釋
  • 創(chuàng)業(yè)網(wǎng)站推廣怎么做seo最新優(yōu)化技術(shù)
  • 在網(wǎng)盤上怎么做自己的網(wǎng)站太原網(wǎng)站開發(fā)
  • 網(wǎng)站開發(fā)技術(shù)說明文檔網(wǎng)絡(luò)軟文推廣網(wǎng)站
  • 北京制作小程序seo的基本步驟是什么