中文亚洲精品无码_熟女乱子伦免费_人人超碰人人爱国产_亚洲熟妇女综合网

當前位置: 首頁 > news >正文

wordpress滾軸式主題網(wǎng)站如何優(yōu)化一個關(guān)鍵詞

wordpress滾軸式主題,網(wǎng)站如何優(yōu)化一個關(guān)鍵詞,網(wǎng)站提取規(guī)則怎么設(shè)置,網(wǎng)上營銷活動梯度下降算法簡介 梯度下降算法 我們思考這樣一個問題,現(xiàn)在需要用一條直線來回歸擬合這三個點,直線的方程是 y w ^ x b y \hat{w}x b yw^xb,我們假設(shè)斜率 w ^ \hat{w} w^是已知的,現(xiàn)在想要找到一個最好的截距 b b b。 一條…

梯度下降算法簡介

梯度下降算法

  • 我們思考這樣一個問題,現(xiàn)在需要用一條直線來回歸擬合這三個點,直線的方程是 y = w ^ x + b y = \hat{w}x + b y=w^x+b,我們假設(shè)斜率 w ^ \hat{w} w^是已知的,現(xiàn)在想要找到一個最好的截距 b b b。

在這里插入圖片描述

  • 一條直線好與不好,我們可以用三個點到直線的長度來衡量,然后把這個距離誤差寫成一個最小二乘的方式,這個函數(shù)也被稱為損失函數(shù),我們的目標就是要找到一個 b b b,讓損失函數(shù)最小就可以了,把直線的方程帶進去然后化簡一下,就可以看到這個損失函數(shù)L,其實是關(guān)于這個b的一個二次函數(shù),其他系數(shù)也都可以直接計算出來。

在這里插入圖片描述

  • 我們假設(shè)這個二次函數(shù)是這樣的,根據(jù)初中的知識,我們可以找到那個讓損失函數(shù)最小的 b b b值,就在這個位置。

在這里插入圖片描述

  • 現(xiàn)在,我們換一種求解思路,我隨便給定一個b的值,能不能通過迭代優(yōu)化的方式找到最好的值呢,我們可以求出當前點的斜率,再乘一個常數(shù) ? \epsilon ?,箭頭的方向就是斜率的負方向,然后讓b更新為b減去 ? \epsilon ?乘以斜率,這樣就得到了一個新的值,這個新的值會比初始的損失函數(shù)更小,我們根據(jù)這個新的b值調(diào)整擬合函數(shù)的位置,然后繼續(xù)迭代,當優(yōu)化到最低點的時候,斜率等于 0 0 0 b b b不會再被更新,我們就找到了那個最好的值,優(yōu)化過程結(jié)束,這就是梯度下降算法。

在這里插入圖片描述

  • 我們以一個更加一般的形式來表述這個算法,數(shù)據(jù)點不再是三個,而是很多點,函數(shù)是任意一個非線性函數(shù),其中要優(yōu)化的參數(shù)是 θ \theta θ,第i個樣本點的損失函數(shù)可以寫成這樣的形式,我們首先可以求出L關(guān)于 θ \theta θ的偏導,也就是梯度值,然后做一個平均,為了更方便我們使用 g g g來代表這個長長的式子, θ \theta θ沿著梯度的負方向移動,就可以讓損失函數(shù)更小了,其中的常數(shù) ? \epsilon ?也被稱為學習率,是人為設(shè)定的一個值,用來控制梯度下降的步長,最核心的步驟就是紅框里面的兩步了。

在這里插入圖片描述

  • 我們現(xiàn)在把這兩個式子寫在最上面,好好的看一看這個算法有沒有什么問題,按照這個方法,我們首先需要計算出所有樣本的損失函數(shù)梯度,然后求平均值來更新參數(shù),如果我們的樣本數(shù)量非常多,需要把全部的計算結(jié)果都保存下來,需要很大的內(nèi)存開銷,如果計算這么多的數(shù)據(jù)才更新一次參數(shù),收斂速度也會比較慢,所以我們怎么改進這個問題呢,答案非常簡單,就是每次只用少部分的數(shù)據(jù)更新就可以了。

隨機梯度下降

在這里插入圖片描述

隨機梯度下降(SGD)的原理與實踐應用

隨機梯度下降(Stochastic Gradient Descent, SGD)是優(yōu)化大規(guī)模數(shù)據(jù)集上的學習算法中非常關(guān)鍵的一種方法。它主要通過在每次迭代中隨機選擇一個樣本子集(而非整個數(shù)據(jù)集)來計算梯度,從而更新模型參數(shù)。這種方法能夠顯著減少計算資源的需求,并加快迭代速度,是處理大數(shù)據(jù)環(huán)境下的優(yōu)化問題的有效策略。

算法描述

在隨機梯度下降中,假設(shè)我們有 n n n個樣本,每次迭代選擇 m m m個樣本來進行參數(shù)更新,這些樣本在每次迭代時被隨機抽取,且每次抽取的樣本集是不重復的。通過這種方式,SGD不僅減輕了內(nèi)存的負擔,也使得算法能夠更快地遍歷數(shù)據(jù)集。

數(shù)學表達式

對于函數(shù) f ( x , θ ) f(x, \theta) f(x,θ),其中 θ \theta θ為模型參數(shù), x i x_i xi? y i y_i yi?分別代表數(shù)據(jù)點及其標簽,損失函數(shù) L L L用于評估模型預測值與真實值之間的誤差。梯度 g g g的計算公式如下:
g = 1 m ? θ ∑ i = 1 m L ( f ( x i , θ ) , y i ) g = \frac{1}{m} \nabla_\theta \sum_{i=1}^m L(f(x_i, \theta), y_i) g=m1??θ?i=1m?L(f(xi?,θ),yi?)
這里, g g g表示基于 m m m個隨機抽取的樣本計算得到的梯度平均值。模型參數(shù)的更新則遵循如下規(guī)則:
θ ← θ ? ? g \theta \leftarrow \theta - \epsilon g θθ??g
其中 ? \epsilon ?是學習率,控制著參數(shù)更新的步長。

理論與實踐的聯(lián)系

盡管使用隨機樣本可能會引入噪聲,即梯度的估計可能不夠精確或穩(wěn)定,但在實踐中,這種隨機性反而幫助算法跳出局部最優(yōu)解,朝向全局最優(yōu)解進發(fā)。當樣本方差較小,即數(shù)據(jù)點間的差異不大時,使用少量樣本依然能夠可靠地引導模型參數(shù)向著損失函數(shù)的全局最小值方向收斂。

總結(jié)

隨機梯度下降通過每次迭代使用部分樣本來更新模型參數(shù),有效解決了傳統(tǒng)梯度下降法在大規(guī)模數(shù)據(jù)集上應用時遇到的內(nèi)存和速度瓶頸。這種方法不僅提高了計算效率,也在許多情況下,增強了模型在面對復雜數(shù)據(jù)分布時的泛化能力。因此,SGD成為了深度學習和機器學習領(lǐng)域中廣泛使用的一種優(yōu)化策略。

動量隨機梯度下降

在這里插入圖片描述

  • 隨機梯度下降并非所有情況都是有效的,深度學習網(wǎng)絡訓練往往是一個非凸的優(yōu)化過程,在參數(shù)空間里面分布著各種山脊和山谷,我們來看這樣一個山谷的例子,假設(shè)初始的網(wǎng)絡參數(shù)處于這個位置,根據(jù)隨機梯度下降,下一步它會沿著切面的方向移動,達到這個位置,以此類推,它的移動軌跡可能在山谷兩側(cè)來回震蕩,難以收斂到一個更低的位置。
  • 這個時候可能會想,如果它的運動能夠假如一些阻尼,讓它的移動更平滑一些,也許就會掉到山谷里,所以我們這樣來處理,首先參數(shù)的初始化還是在這個位置,根據(jù)隨機梯度下降更新到這個位置,在下一次更新的時候,我們不僅要計算新的梯度,還要保留上一次一部分的梯度,我們把這兩個方向加在一起,構(gòu)成新的更新方向,這樣就可以得到一個更加合理的優(yōu)化效果了,我們把保留的歷史梯度稱為動量,這個改進方向也被稱為使用動量的隨機梯度下降。
  • 我們可以這樣來理解,參數(shù)的移動收到來自梯度的一個力,但是它仍然要保留原始運動狀態(tài)的一部分速度,所以運動起來路徑才更加平滑,這也是動量的物理含義。

在這里插入圖片描述

動量梯度下降法的數(shù)學表述與邏輯解析

動量梯度下降法(Momentum Gradient Descent)是一種在傳統(tǒng)梯度下降算法基礎(chǔ)上的改進算法,旨在加速學習過程,特別是在面對高曲率、小梯度或噪聲較多的優(yōu)化問題時更為有效。下面詳細介紹這一算法的數(shù)學表述及其內(nèi)在邏輯。

梯度計算

在每次迭代中,首先計算損失函數(shù) L L L關(guān)于模型參數(shù) θ \theta θ的梯度 g g g。這一步驟是基于隨機選擇的 m m m個樣本來進行的,公式如下:
g = 1 m ? θ ∑ i = 1 m L ( f ( x i , θ ) , y i ) g = \frac{1}{m} \nabla_\theta \sum_{i=1}^m L(f(x_i, \theta), y_i) g=m1??θ?i=1m?L(f(xi?,θ),yi?)
此公式確保了即便在大規(guī)模數(shù)據(jù)集上,我們也能高效地估計全局梯度。

動量更新

動量項 v v v在算法中用以模擬物理中的慣性,即前一時刻的速度對當前速度的影響,從而幫助參數(shù)更新在正確的方向上持續(xù)前進,克服小梯度帶來的停滯不前。動量的更新公式為:
v ← α v ? ? g v \leftarrow \alpha v - \epsilon g vαv??g
其中, α \alpha α是動量因子,常見取值范圍為[0.9, 0.99]。它決定了前一步動量對當前方向的影響程度,即歷史梯度在多大程度上影響當前更新。 ? \epsilon ?是學習率,控制著梯度方向?qū)?shù)更新的影響強度。

參數(shù)更新

參數(shù) θ \theta θ的更新則是將動量直接加到當前參數(shù)上:
θ ← θ + v \theta \leftarrow \theta + v θθ+v
這一更新策略使得參數(shù)更新不僅考慮當前的梯度方向,還融入了過去梯度的方向和大小,有效避免了在陡峭的梯度或局部最小值處搖擺不定。

總結(jié)

動量梯度下降法通過引入動量項 v v v,使參數(shù)更新具有更好的連續(xù)性和平滑性,從而加速收斂并提高算法整體的效率和穩(wěn)定性。這種方法特別適用于處理那些梯度變化復雜且容易陷入局部最小值的非凸優(yōu)化問題。通過合理調(diào)控動量因子 α \alpha α和學習率 ? \epsilon ?,可以顯著提升優(yōu)化過程的性能。

學習率

在這里插入圖片描述

  • 我們再回到隨機梯度下降的原始算法,其中還有一個非常重要的量我們沒有討論,那就是學習率。一般情況下,我們希望神經(jīng)網(wǎng)絡最開始快速的找到正確的收斂方向,會設(shè)置一個比較大的學習率,而隨著訓練過程,我們需要找到最好的結(jié)果,就不能盲目地追求速度了,而是讓網(wǎng)絡更加細致地優(yōu)化,防止損失函數(shù)劇烈震蕩,所以我們需要先設(shè)定一個初始值,然后每隔一段時間就降低學習率,但是這是一種非常粗獷的調(diào)整方式。

AdaGrad(2011)和RMSProp(2012)

在這里插入圖片描述

AdaGrad和RMSProp算法的原理與實現(xiàn)

在深度學習的訓練過程中,學習率的設(shè)定對模型的性能和收斂速度具有關(guān)鍵性影響。傳統(tǒng)的固定學習率往往難以應對所有訓練階段的需求,因此自適應學習率算法應運而生。AdaGrad和RMSProp是兩種流行的自適應學習率優(yōu)化算法,它們通過調(diào)整學習率以適應參數(shù)的每個維度,從而優(yōu)化學習過程。

AdaGrad算法

AdaGrad算法(Adaptive Gradient Algorithm)于2011年提出,其核心思想是累積過去所有梯度的平方和,以此調(diào)整每個參數(shù)的學習率。

算法步驟
  1. 梯度計算
    每次迭代中,首先計算損失函數(shù) L L L關(guān)于參數(shù) θ \theta θ的梯度 g g g
    g = 1 m ? θ ∑ i = 1 m L ( f ( x i , θ ) , y i ) g = \frac{1}{m} \nabla_\theta \sum_{i=1}^m L(f(x_i, \theta), y_i) g=m1??θ?i=1m?L(f(xi?,θ),yi?)

  2. 累積平方梯度
    累積梯度的平方和 r r r隨著時間不斷增加:
    r ← r + g 2 r \leftarrow r + g^2 rr+g2

  3. 自適應學習率更新
    參數(shù)更新時,學習率通過梯度的平方累積量 r r r進行自適應調(diào)整,以平衡不同參數(shù)的學習速度:
    θ ← θ ? ? r + δ g \theta \leftarrow \theta - \frac{\epsilon}{\sqrt{r} + \delta} g θθ?r ?+δ??g
    其中 δ \delta δ是一個很小的常數(shù),防止分母為零。

AdaGrad的優(yōu)勢在于對頻繁更新的參數(shù)采用較小的更新步長,而對不頻繁更新的參數(shù)采用較大的更新步長。但其缺點也很明顯,即隨著訓練的進行, r r r的累積可能會過大,導致學習率過早降低至接近于零,從而使得訓練過程提前終止。

RMSProp算法

為了克服AdaGrad學習率快速衰減的問題,RMSProp算法在2012年被提出,通過引入衰減系數(shù) ρ \rho ρ,對平方梯度進行指數(shù)加權(quán)平均,而不是簡單的累加。

算法步驟
  1. 梯度計算
    同AdaGrad。

  2. 指數(shù)加權(quán)平方梯度
    r r r的更新公式采用指數(shù)加權(quán)移動平均,減少舊梯度的影響:
    r ← ρ r + ( 1 ? ρ ) g 2 r \leftarrow \rho r + (1 - \rho) g^2 rρr+(1?ρ)g2

  3. 參數(shù)更新
    類似于AdaGrad,但更新中的 r r r是平滑過的,避免了學習率過快衰減:
    θ ← θ ? ? r + δ g \theta \leftarrow \theta - \frac{\epsilon}{\sqrt{r} + \delta} g θθ?r ?+δ??g

RMSProp算法有效解決了AdaGrad中學習率持續(xù)衰減的問題,使學習率保持在一個更加合理的范圍內(nèi),特別適合處理非平穩(wěn)目標的訓練。

總結(jié)

AdaGrad與RMSProp算法都通過調(diào)整學習率來優(yōu)化訓練過程,其中RMSProp通過改進累積梯度的方法,提供了一種更為穩(wěn)健的方式來處理各種深度學習任務。這兩種算法都是自適應學習率技術(shù)的重要發(fā)展,極大地促進了深度學習領(lǐng)域的進步。

Adam(2014)

在這里插入圖片描述

Adam算法的綜合描述

Adam算法(Adaptive Moment Estimation)是一種廣泛使用的參數(shù)優(yōu)化算法,它結(jié)合了動量(Momentum)方法和自適應學習率(Adaptive Learning Rate)技術(shù),旨在提升梯度下降法在訓練深度學習模型時的性能和穩(wěn)定性。2014年提出的這一算法,通過細致地調(diào)節(jié)學習步長,可以更有效地訓練復雜的非凸優(yōu)化問題。

算法步驟詳解

1. 計算梯度

首先,算法計算損失函數(shù) L L L關(guān)于參數(shù) θ \theta θ的梯度 g g g,該梯度是基于隨機選擇的 m m m個樣本得出的:
g = 1 m ? θ ∑ i = 1 m L ( f ( x i , θ ) , y i ) g = \frac{1}{m} \nabla_\theta \sum_{i=1}^m L(f(x_i, \theta), y_i) g=m1??θ?i=1m?L(f(xi?,θ),yi?)
這一步是隨機梯度下降的基礎(chǔ),用于確定參數(shù)更新的方向。

2. 更新動量累積變量 s s s

動量 s s s是梯度的指數(shù)加權(quán)平均,使用超參數(shù) ρ 1 \rho_1 ρ1?控制衰減率,可以視作加速度,幫助優(yōu)化過程維持方向并增強穩(wěn)定性:
s ← ρ 1 s + ( 1 ? ρ 1 ) g s \leftarrow \rho_1 s + (1 - \rho_1) g sρ1?s+(1?ρ1?)g

3. 更新梯度平方的累積變量 r r r

變量 r r r是梯度平方的指數(shù)加權(quán)平均,使用超參數(shù) ρ 2 \rho_2 ρ2?控制,類似于RMSProp算法中的累積平方梯度,用于自適應調(diào)整學習率:
r ← ρ 2 r + ( 1 ? ρ 2 ) g 2 r \leftarrow \rho_2 r + (1 - \rho_2) g^2 rρ2?r+(1?ρ2?)g2

4. 偏差修正

由于 s s s r r r在訓練初期可能因初始化為0而偏低,Adam算法引入偏差修正來抵消這一影響,保證早期迭代時估計更準確:
s ^ = s 1 ? ρ 1 t , r ^ = r 1 ? ρ 2 t \hat{s} = \frac{s}{1 - \rho_1^t}, \quad \hat{r} = \frac{r}{1 - \rho_2^t} s^=1?ρ1t?s?,r^=1?ρ2t?r?
這里 t t t代表迭代次數(shù)。

5. 參數(shù)更新

最終,參數(shù) θ \theta θ的更新公式如下,其中 ? \epsilon ?為學習率, δ \delta δ是為了維持數(shù)值穩(wěn)定性而添加的小常數(shù):
θ ← θ ? ? s ^ r ^ + δ \theta \leftarrow \theta - \frac{\epsilon \hat{s}}{\sqrt{\hat{r}} + \delta} θθ?r^ ?+δ?s^?
這一步通過調(diào)整學習率,依賴于平滑處理過的梯度大小,有助于避免學習過程中的震蕩和不穩(wěn)定。

總結(jié)

Adam算法通過結(jié)合動量和自適應學習率的優(yōu)點,提供了一種強大而靈活的方式來優(yōu)化深度學習模型的參數(shù)。它不僅加速了收斂過程,而且通過自動調(diào)節(jié)學習率,增強了算法在面對不同梯度規(guī)模時的魯棒性。Adam算法的這些特性使其在許多深度學習應用中成為首選的優(yōu)化技術(shù)。

總結(jié)

深度學習中的梯度下降算法系列

在深度學習的訓練過程中,梯度下降算法(Gradient Descent,簡稱GD)扮演著至關(guān)重要的角色。這一算法的核心機制是利用數(shù)據(jù)集的梯度信息來迭代更新模型參數(shù),以最小化損失函數(shù)。接下來,我們將詳細討論其各種變體和進化。

1. 隨機梯度下降(SGD)

由于全批量的梯度下降在面對大規(guī)模數(shù)據(jù)集時會受到內(nèi)存限制和迭代速度的制約,學者們提出了隨機梯度下降(Stochastic Gradient Descent,SGD)。這種方法每次迭代僅使用數(shù)據(jù)集中的一個小批量樣本來計算梯度和更新參數(shù)。這不僅顯著提高了計算效率,也有助于模型跳出局部最小值,提升全局搜索能力。

2. 動量法(Momentum)

為了加速SGD的收斂速度并提高其在復雜優(yōu)化面(如非凸優(yōu)化問題)中的表現(xiàn),動量法被引入到算法中。動量法借鑒了物理中的動量概念,通過累積之前梯度的指數(shù)衰減平均來調(diào)整每次的參數(shù)更新,使得參數(shù)更新的方向不僅由當前的梯度決定,還由歷史梯度的累積方向影響,從而有效減少振蕩,加速收斂。

3. 自適應學習率算法
AdaGrad

為了應對學習率調(diào)整問題,AdaGrad算法被提出。它通過積累歷史梯度的平方和來調(diào)整各參數(shù)的學習率,使得學習率逐漸減小,適用于處理稀疏數(shù)據(jù)。該算法特別適合應對大規(guī)模和稀疏的機器學習問題。

RMSProp

RMSProp算法對AdaGrad進行了改進,通過引入衰減系數(shù)來計算梯度的滑動平均的平方,解決了AdaGrad學習率持續(xù)下降過快的問題,使得算法在非凸設(shè)定下表現(xiàn)更佳。

4. Adam算法

結(jié)合了動量法和RMSProp的自適應學習率調(diào)整的優(yōu)點,Adam(Adaptive Moment Estimation)算法成為了一種非常強大的優(yōu)化算法,廣泛應用于各種深度學習場景。Adam不僅考慮了梯度的一階矩(即動量),還包括了梯度的二階矩估計,其學習率的調(diào)整更為精細,能夠自適應地調(diào)整不同參數(shù)的更新速度。

總結(jié)

從最初的梯度下降到SGD,再到動量法和各種自適應學習率技術(shù),每一種改進都旨在解決優(yōu)化過程中遇到的特定挑戰(zhàn),如加速收斂、逃離局部最小值或是處理非凸優(yōu)化問題。Adam算法的提出,標志著這些技術(shù)的集大成,提供了一種高效、穩(wěn)定且智能的方式來進行深度學習模型的訓練。

http://www.risenshineclean.com/news/49342.html

相關(guān)文章:

  • 動態(tài)網(wǎng)站建設(shè)的心得體會個人網(wǎng)站設(shè)計畢業(yè)論文
  • 當今做那些網(wǎng)站致富seo交流論壇
  • php企業(yè)網(wǎng)站源碼推薦被逆冬seo課程欺騙了
  • 網(wǎng)站流量查詢平臺nba賽程排名
  • 網(wǎng)站制作用到什么技術(shù)seo怎么發(fā)文章 seo發(fā)布工具
  • 濟南網(wǎng)站開發(fā) blog網(wǎng)站源碼下載
  • 青島seo做的好的網(wǎng)站程序員培訓班要多少錢
  • 幼兒園主題網(wǎng)絡圖設(shè)計感想seo優(yōu)化系統(tǒng)
  • 做網(wǎng)站有年費嗎線上如何推廣自己的產(chǎn)品
  • 裝修公司做網(wǎng)站熱門關(guān)鍵詞網(wǎng)絡廣告的形式有哪些?
  • asp net做購物網(wǎng)站合肥疫情最新消息
  • 廣州智能建站模板百度推廣客戶端手機版
  • 浙江網(wǎng)站備案加急域名注冊商
  • h5網(wǎng)站怎么做api對接關(guān)鍵詞seo深圳
  • 有沒有美國做天然酵母的網(wǎng)站深圳純手工seo
  • 收費視頻網(wǎng)站怎么做b2b免費發(fā)布平臺
  • app網(wǎng)站建站系統(tǒng)下載關(guān)鍵詞批量調(diào)詞 軟件
  • 免費源碼的商城網(wǎng)站seo技術(shù)自學
  • 做食品那些網(wǎng)站百度收錄提交入口地址
  • 百度景安空間網(wǎng)站四川seo推廣公司
  • 網(wǎng)絡安全等級保護百度熱搜seo
  • 深圳網(wǎng)站建設(shè)大公司好網(wǎng)絡營銷和傳統(tǒng)營銷有什么區(qū)別
  • 安徽富通建設(shè)集團有限公司網(wǎng)站滄州網(wǎng)絡推廣外包公司
  • 網(wǎng)站建設(shè) 聯(lián)系我們教育培訓機構(gòu)十大排名
  • 三級醫(yī)院網(wǎng)站建設(shè)方案百度平臺商家客服
  • 做購物網(wǎng)站寫數(shù)據(jù)庫的流程網(wǎng)絡營銷師證書
  • 網(wǎng)站怎么分類黃頁推廣
  • 沒有網(wǎng)站可以做cpc嗎西安網(wǎng)站建設(shè)排名
  • 現(xiàn)代農(nóng)業(yè)園網(wǎng)站建設(shè)方案windows優(yōu)化大師是自帶的嗎
  • 網(wǎng)站開發(fā)插入視頻代碼在線網(wǎng)站seo診斷