怎么做刷會員的網(wǎng)站/seo排名點擊器曝光行者seo
文章目錄
- 原理分析
- 機器學(xué)習(xí)的兩種典型任務(wù)
- 機器學(xué)習(xí)分類
- 總結(jié)
- 數(shù)據(jù)
- 機器學(xué)習(xí)分類解讀
- 簡單
- 復(fù)雜
原理分析
馬克思主義哲學(xué)-規(guī)律篇
規(guī)律客觀存在,萬事萬物皆有規(guī)律。
機器學(xué)習(xí)則是多維角度拆解分析復(fù)雜事實數(shù)據(jù),發(fā)現(xiàn)復(fù)雜事實背后的規(guī)律,然后將規(guī)律用多參數(shù)公式表達出來,從而可以套用解決問題。
例如-分類任務(wù):
將西瓜拆分為(x,y,z)三個維度,x=瓜秧卷曲程度,y=瓜皮紋理,z=瓜蒂大小。
ax+by+cz=是|否甜
大量(x1,y1,z1)=>甜,(x2,y2,z2)=>酸,(x3,y3,z3)=>甜等數(shù)據(jù)來求解a,b,c值。
后續(xù)便可以直接帶入(Xn,Yn,Zn)到該公式中便可獲取結(jié)果。
結(jié)論:
不論是機器學(xué)習(xí)還是深度學(xué)習(xí),都是對大量數(shù)據(jù)的學(xué)習(xí),掌握數(shù)據(jù)背后的分布規(guī)律,進而對符合該分布的其他數(shù)據(jù)進行準(zhǔn)確預(yù)測。
機器學(xué)習(xí)的兩種典型任務(wù)
簡單的理解,分類任務(wù)是對離散值進行預(yù)測,根據(jù)每個樣本的值/特征預(yù)測該樣本屬于類型A、類型B還是類型C,例如情感分類、內(nèi)容審核,相當(dāng)于學(xué)習(xí)了一個分類邊界(決策邊界),用分類邊界把不同類別的數(shù)據(jù)區(qū)分開來。
回歸任務(wù)是對連續(xù)值進行預(yù)測,根據(jù)每個樣本的值/特征預(yù)測該樣本的具體數(shù)值,例如房價預(yù)測,股票預(yù)測等,相當(dāng)于學(xué)習(xí)到了這一組數(shù)據(jù)背后的分布,能夠根據(jù)數(shù)據(jù)的輸入預(yù)測該數(shù)據(jù)的取值。
實際上,分類與回歸的根本區(qū)別在于輸出空間是否為一個度量空間。
對于分類問題,目的是尋找決策邊界,其輸出空間B不是度量空間,即“定性”。也就是說,在分類問題中,只有分類“正確”與“錯誤”之分,至于分類到了類別A還是類別B,沒有分別,都是錯誤數(shù)量+1。
對于回歸問題,目的是尋找最優(yōu)擬合,其輸出空間B是一個度量空間,即“定量”,通過度量空間衡量預(yù)測值與真實值之間的“誤差大小”。當(dāng)真實值為10,預(yù)測值為5時,誤差為5,預(yù)測值為8時,誤差為2。
機器學(xué)習(xí)分類
有監(jiān)督學(xué)習(xí):監(jiān)督學(xué)習(xí)利用大量的標(biāo)注數(shù)據(jù)來訓(xùn)練模型,對模型的預(yù)測值和數(shù)據(jù)的真實標(biāo)簽計算損失,然后將誤差進行反向傳播(計算梯度、更新參數(shù)),通過不斷的學(xué)習(xí),最終可以獲得識別新樣本的能力。
每條數(shù)據(jù)都有正確答案,通過模型預(yù)測結(jié)果與正確答案的誤差不斷優(yōu)化模型參數(shù)。
無監(jiān)督學(xué)習(xí):無監(jiān)督學(xué)習(xí)不依賴任何標(biāo)簽值,通過對數(shù)據(jù)內(nèi)在特征的挖掘,找到樣本間的關(guān)系,比如聚類相關(guān)的任務(wù)。有監(jiān)督和無監(jiān)督最主要的區(qū)別在于模型在訓(xùn)練時是否需要人工標(biāo)注的標(biāo)簽信息。
只有數(shù)據(jù)沒有答案,常見的是聚類算法,通過衡量樣本之間的距離來劃分類別。
半監(jiān)督學(xué)習(xí):利用有標(biāo)簽數(shù)據(jù)和無標(biāo)簽數(shù)據(jù)來訓(xùn)練模型。一般假設(shè)無標(biāo)簽數(shù)據(jù)遠多于有標(biāo)簽數(shù)據(jù)。例如先使用有標(biāo)簽數(shù)據(jù)訓(xùn)練出初始模型,然后用初始模型對無標(biāo)簽數(shù)據(jù)進行分類,再使用正確分類的無標(biāo)簽數(shù)據(jù)訓(xùn)練初始模型,不斷迭代,優(yōu)化模型;
利用大量的無標(biāo)注數(shù)據(jù)和少量有標(biāo)注數(shù)據(jù)進行模型訓(xùn)練
自監(jiān)督學(xué)習(xí):機器學(xué)習(xí)的標(biāo)注數(shù)據(jù)源于數(shù)據(jù)本身,而不是由人工標(biāo)注。目前主流大模型的預(yù)訓(xùn)練過程都是采用自監(jiān)督學(xué)習(xí),將數(shù)據(jù)構(gòu)建成完型填空形式,讓模型預(yù)測對應(yīng)內(nèi)容,實現(xiàn)自監(jiān)督學(xué)習(xí)。
通過對數(shù)據(jù)進行處理,讓數(shù)據(jù)的一部分成為標(biāo)簽,由此構(gòu)成大規(guī)模數(shù)據(jù)進行模型訓(xùn)練。
正確答案就是數(shù)據(jù)本身,訓(xùn)練的數(shù)據(jù)就是挖空數(shù)據(jù),大模型填完空,對比完整數(shù)據(jù),再次訓(xùn)練。
例如:
原始數(shù)據(jù):我去玩劇本殺
挖空數(shù)據(jù):我去玩()
大模型:我去玩(走路)----對比正確答案---->再次填空。。。。。。
優(yōu)勢:
可供訓(xùn)練的數(shù)據(jù)極多且獲取容易預(yù)處理簡單,暴力出奇跡。
遠程監(jiān)督學(xué)習(xí):主要用于關(guān)系抽取任務(wù),采用bootstrap的思想(自力更生)通過已知三元組在文本中尋找共現(xiàn)句,自動構(gòu)成有標(biāo)簽數(shù)據(jù),進行有監(jiān)督學(xué)習(xí)。
基于現(xiàn)有的三元組收集訓(xùn)練數(shù)據(jù),進行有監(jiān)督學(xué)習(xí)
強化學(xué)習(xí):強化學(xué)習(xí)是智能體根據(jù)已有的經(jīng)驗,采取系統(tǒng)或隨機的方式,去嘗試各種可能答案的方式進行學(xué)習(xí),并且智能體會通過環(huán)境反饋的獎賞來決定下一步的行為,并為了獲得更好的獎賞來進一步強化學(xué)習(xí)。
以獲取更高的環(huán)境獎勵為目標(biāo)優(yōu)化模型
總結(jié)
數(shù)據(jù)
實際上算法工程師大部分時間都是在處理數(shù)據(jù),調(diào)參,訓(xùn)練,模型效果不好,再調(diào)參,再訓(xùn)練。
數(shù)據(jù)標(biāo)注是有監(jiān)督學(xué)習(xí)最繁雜,重要且難的工作,有了成熟大模型之后就可以代替人工標(biāo)注,直接用大模型標(biāo)注好數(shù)據(jù)然后再訓(xùn)練自己的模型,牽一發(fā)動全身,師夷長技以制夷。
----注意確定非敏感數(shù)據(jù)讓GPT標(biāo)注,防止泄露。
中大廠之間最大的壁壘是數(shù)據(jù)壁壘,數(shù)據(jù)很重要。
數(shù)據(jù)標(biāo)注(Data Annotation)是人工智能和機器學(xué)習(xí)領(lǐng)域中的一個重要過程,它涉及將原始數(shù)據(jù)(如文本、圖片、語音、視頻等)加上標(biāo)簽或注釋,使得機器能夠識別和理解這些數(shù)據(jù)。簡而言之,數(shù)據(jù)標(biāo)注就是將非結(jié)構(gòu)化的數(shù)據(jù)轉(zhuǎn)換為結(jié)構(gòu)化的數(shù)據(jù),以便機器可以對其進行處理和分析。
例如,在自動駕駛技術(shù)的發(fā)展過程中,需要大量的圖像數(shù)據(jù)來訓(xùn)練車輛識別道路、行人和各種交通標(biāo)志。數(shù)據(jù)標(biāo)注師會處理這些圖像數(shù)據(jù),為每張圖片添加標(biāo)簽,如“行人”、“自行車”、“紅綠燈”等。這些標(biāo)簽幫助機器學(xué)習(xí)模型識別和分類圖像中的不同對象。
具體到自動駕駛的例子,數(shù)據(jù)標(biāo)注師可能需要對一張捕捉到的道路場景圖片進行標(biāo)注,標(biāo)出圖片中的車輛、行人、車道線、交通標(biāo)志等。通過對大量此類圖片進行標(biāo)注,機器學(xué)習(xí)模型能夠?qū)W習(xí)如何識別和反應(yīng)這些不同的元素,從而實現(xiàn)在道路上的自主駕駛。
數(shù)據(jù)標(biāo)注的過程不僅包括簡單的分類,還可以包括更復(fù)雜的注釋任務(wù),如邊界框的繪制(如在圖像中標(biāo)識對象的位置)、屬性注釋(如描述對象的屬性,如顏色、形狀等)、關(guān)系注釋(如描述不同對象之間的關(guān)系)以及自由文本注釋等。隨著人工智能技術(shù)的發(fā)展,數(shù)據(jù)標(biāo)注的要求也越來越高,需要標(biāo)注的數(shù)據(jù)從簡單的客觀信息延伸到更加復(fù)雜的主觀判斷和理解。
機器學(xué)習(xí)分類解讀
當(dāng)我們談?wù)摍C器學(xué)習(xí)時,有監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、自監(jiān)督學(xué)習(xí)、遠程監(jiān)督學(xué)習(xí)和強化學(xué)習(xí)是常見的學(xué)習(xí)方式。以下是對每種學(xué)習(xí)方式的例子,用日常用品來解釋。
簡單
-
有監(jiān)督學(xué)習(xí)(Supervised Learning):
- 例子:圖書分類器
假設(shè)你有一堆已經(jīng)標(biāo)記好的書籍,每本書都標(biāo)明了它屬于哪個類別(小說、科幻、歷史等)。有監(jiān)督學(xué)習(xí)就像是讓機器學(xué)會根據(jù)這些標(biāo)記來預(yù)測未標(biāo)記書籍的類別,使其能夠正確地分類新書。
- 例子:圖書分類器
-
無監(jiān)督學(xué)習(xí)(Unsupervised Learning):
- 例子:果籃分揀機
想象你有一個攝像頭監(jiān)視著傳送帶上的水果。無監(jiān)督學(xué)習(xí)就是讓機器自己學(xué)會識別并分揀水果,而不需要提前告訴機器每種水果是什么。機器會自動找到數(shù)據(jù)中的模式,將相似的水果分組。
- 例子:果籃分揀機
-
半監(jiān)督學(xué)習(xí)(Semi-Supervised Learning):
- 例子:郵件過濾器
假設(shè)你有大量已經(jīng)標(biāo)記好的垃圾郵件和一些正常郵件,但未標(biāo)記的郵件較多。半監(jiān)督學(xué)習(xí)是讓機器根據(jù)已知標(biāo)記的數(shù)據(jù)進行學(xué)習(xí),然后盡可能準(zhǔn)確地過濾未標(biāo)記的郵件,以提高整體過濾效果。
- 例子:郵件過濾器
-
自監(jiān)督學(xué)習(xí)(Self-Supervised Learning):
- 例子:拼圖游戲
想象一個拼圖游戲,其中一些拼圖塊已經(jīng)缺失。自監(jiān)督學(xué)習(xí)是讓機器學(xué)會通過已知的拼圖塊來預(yù)測缺失的拼圖塊,而不需要額外的標(biāo)簽信息。通過這個過程,機器可以自我生成標(biāo)簽信息。
- 例子:拼圖游戲
-
遠程監(jiān)督學(xué)習(xí)(Distant Supervision):
- 例子:語音識別
在語音識別中,遠程監(jiān)督學(xué)習(xí)可能涉及到使用一組正確標(biāo)記的音頻數(shù)據(jù),但并非所有都需要人工標(biāo)注。通過部分標(biāo)記的數(shù)據(jù),機器可以學(xué)會識別新的音頻數(shù)據(jù)。
- 例子:語音識別
-
強化學(xué)習(xí)(Reinforcement Learning):
- 例子:智能駕駛汽車
將智能駕駛汽車看作一個強化學(xué)習(xí)代理。汽車通過感知環(huán)境(攝像頭、雷達等),執(zhí)行動作(轉(zhuǎn)向、加速、剎車),并根據(jù)執(zhí)行的動作獲得獎勵或懲罰(遵守交規(guī)獎勵,違反交規(guī)懲罰)。通過不斷嘗試,汽車學(xué)會在不同情境下做出最優(yōu)的駕駛決策。
- 例子:智能駕駛汽車
復(fù)雜
當(dāng)我們談?wù)摍C器學(xué)習(xí)時,有監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、自監(jiān)督學(xué)習(xí)、遠程監(jiān)督和強化學(xué)習(xí)是常見的學(xué)習(xí)方式。為了更好地理解這些概念,我們可以用日常用品的例子來解釋:
-
有監(jiān)督學(xué)習(xí)(Supervised Learning):
- 例子: 想象你是一名水果識別專家,你有一個標(biāo)有水果名稱的圖像數(shù)據(jù)集。每張圖片都有相應(yīng)的標(biāo)簽,比如蘋果、橙子或香蕉。
- 核心原理: 算法通過學(xué)習(xí)已標(biāo)記的數(shù)據(jù)(帶有標(biāo)簽)來建立模型,然后用這個模型對新的未標(biāo)記數(shù)據(jù)進行分類。
-
無監(jiān)督學(xué)習(xí)(Unsupervised Learning):
- 例子: 現(xiàn)在,你只有一堆水果圖片,但是沒有標(biāo)簽。你的任務(wù)是發(fā)現(xiàn)這些數(shù)據(jù)中的模式,例如,將相似的水果歸為一組,而無需事先知道水果的名稱。
- 核心原理: 算法通過發(fā)現(xiàn)數(shù)據(jù)中的模式和結(jié)構(gòu),而不依賴于事先的標(biāo)簽來進行學(xué)習(xí)。
-
半監(jiān)督學(xué)習(xí)(Semi-Supervised Learning):
- 例子: 你有一些帶有標(biāo)簽的水果圖片,但是大多數(shù)數(shù)據(jù)是沒有標(biāo)簽的。半監(jiān)督學(xué)習(xí)的任務(wù)是在有限的標(biāo)簽數(shù)據(jù)下,盡可能提高對未標(biāo)簽數(shù)據(jù)的準(zhǔn)確分類。
- 核心原理: 結(jié)合有標(biāo)簽和無標(biāo)簽的數(shù)據(jù)進行學(xué)習(xí),以更好地泛化到新數(shù)據(jù)。
-
自監(jiān)督學(xué)習(xí)(Self-Supervised Learning):
- 例子: 假設(shè)你有一組水果圖片,但是標(biāo)簽被隨機刪除了。自監(jiān)督學(xué)習(xí)的目標(biāo)是模型能夠自行預(yù)測圖像中水果的位置,而不是依賴外部標(biāo)簽。
- 核心原理: 模型通過利用數(shù)據(jù)本身的結(jié)構(gòu)和信息來進行學(xué)習(xí),無需外部標(biāo)簽。
-
遠程監(jiān)督(Distant Supervision):
- 例子: 假設(shè)你想創(chuàng)建一個自動評估水果熟度的系統(tǒng)。雖然無法直接獲取水果熟度的標(biāo)簽,但你可以使用遠程傳感器監(jiān)測水果的顏色,聲音等信息作為替代標(biāo)簽。
- 核心原理: 利用間接的、可能不太精確但可獲得的監(jiān)督信號來進行學(xué)習(xí)。
-
強化學(xué)習(xí)(Reinforcement Learning):
- 例子: 想象你是一名機器人控制工程師,你的機器人學(xué)會通過嘗試和錯誤來掌握在房間中導(dǎo)航的技能。每次成功導(dǎo)航或失敗都會有相應(yīng)的獎勵或懲罰。
- 核心原理: 通過與環(huán)境的交互,系統(tǒng)學(xué)習(xí)在特定環(huán)境中采取哪些動作以最大化累積獎勵。