怎么做刷會員的網站/seo排名點擊器曝光行者seo
文章目錄
- 原理分析
- 機器學習的兩種典型任務
- 機器學習分類
- 總結
- 數據
- 機器學習分類解讀
- 簡單
- 復雜
原理分析
馬克思主義哲學-規(guī)律篇
規(guī)律客觀存在,萬事萬物皆有規(guī)律。
機器學習則是多維角度拆解分析復雜事實數據,發(fā)現(xiàn)復雜事實背后的規(guī)律,然后將規(guī)律用多參數公式表達出來,從而可以套用解決問題。
例如-分類任務:
將西瓜拆分為(x,y,z)三個維度,x=瓜秧卷曲程度,y=瓜皮紋理,z=瓜蒂大小。
ax+by+cz=是|否甜
大量(x1,y1,z1)=>甜,(x2,y2,z2)=>酸,(x3,y3,z3)=>甜等數據來求解a,b,c值。
后續(xù)便可以直接帶入(Xn,Yn,Zn)到該公式中便可獲取結果。
結論:
不論是機器學習還是深度學習,都是對大量數據的學習,掌握數據背后的分布規(guī)律,進而對符合該分布的其他數據進行準確預測。
機器學習的兩種典型任務
簡單的理解,分類任務是對離散值進行預測,根據每個樣本的值/特征預測該樣本屬于類型A、類型B還是類型C,例如情感分類、內容審核,相當于學習了一個分類邊界(決策邊界),用分類邊界把不同類別的數據區(qū)分開來。
回歸任務是對連續(xù)值進行預測,根據每個樣本的值/特征預測該樣本的具體數值,例如房價預測,股票預測等,相當于學習到了這一組數據背后的分布,能夠根據數據的輸入預測該數據的取值。
實際上,分類與回歸的根本區(qū)別在于輸出空間是否為一個度量空間。
對于分類問題,目的是尋找決策邊界,其輸出空間B不是度量空間,即“定性”。也就是說,在分類問題中,只有分類“正確”與“錯誤”之分,至于分類到了類別A還是類別B,沒有分別,都是錯誤數量+1。
對于回歸問題,目的是尋找最優(yōu)擬合,其輸出空間B是一個度量空間,即“定量”,通過度量空間衡量預測值與真實值之間的“誤差大小”。當真實值為10,預測值為5時,誤差為5,預測值為8時,誤差為2。
機器學習分類
有監(jiān)督學習:監(jiān)督學習利用大量的標注數據來訓練模型,對模型的預測值和數據的真實標簽計算損失,然后將誤差進行反向傳播(計算梯度、更新參數),通過不斷的學習,最終可以獲得識別新樣本的能力。
每條數據都有正確答案,通過模型預測結果與正確答案的誤差不斷優(yōu)化模型參數。
無監(jiān)督學習:無監(jiān)督學習不依賴任何標簽值,通過對數據內在特征的挖掘,找到樣本間的關系,比如聚類相關的任務。有監(jiān)督和無監(jiān)督最主要的區(qū)別在于模型在訓練時是否需要人工標注的標簽信息。
只有數據沒有答案,常見的是聚類算法,通過衡量樣本之間的距離來劃分類別。
半監(jiān)督學習:利用有標簽數據和無標簽數據來訓練模型。一般假設無標簽數據遠多于有標簽數據。例如先使用有標簽數據訓練出初始模型,然后用初始模型對無標簽數據進行分類,再使用正確分類的無標簽數據訓練初始模型,不斷迭代,優(yōu)化模型;
利用大量的無標注數據和少量有標注數據進行模型訓練
自監(jiān)督學習:機器學習的標注數據源于數據本身,而不是由人工標注。目前主流大模型的預訓練過程都是采用自監(jiān)督學習,將數據構建成完型填空形式,讓模型預測對應內容,實現(xiàn)自監(jiān)督學習。
通過對數據進行處理,讓數據的一部分成為標簽,由此構成大規(guī)模數據進行模型訓練。
正確答案就是數據本身,訓練的數據就是挖空數據,大模型填完空,對比完整數據,再次訓練。
例如:
原始數據:我去玩劇本殺
挖空數據:我去玩()
大模型:我去玩(走路)----對比正確答案---->再次填空。。。。。。
優(yōu)勢:
可供訓練的數據極多且獲取容易預處理簡單,暴力出奇跡。
遠程監(jiān)督學習:主要用于關系抽取任務,采用bootstrap的思想(自力更生)通過已知三元組在文本中尋找共現(xiàn)句,自動構成有標簽數據,進行有監(jiān)督學習。
基于現(xiàn)有的三元組收集訓練數據,進行有監(jiān)督學習
強化學習:強化學習是智能體根據已有的經驗,采取系統(tǒng)或隨機的方式,去嘗試各種可能答案的方式進行學習,并且智能體會通過環(huán)境反饋的獎賞來決定下一步的行為,并為了獲得更好的獎賞來進一步強化學習。
以獲取更高的環(huán)境獎勵為目標優(yōu)化模型
總結
數據
實際上算法工程師大部分時間都是在處理數據,調參,訓練,模型效果不好,再調參,再訓練。
數據標注是有監(jiān)督學習最繁雜,重要且難的工作,有了成熟大模型之后就可以代替人工標注,直接用大模型標注好數據然后再訓練自己的模型,牽一發(fā)動全身,師夷長技以制夷。
----注意確定非敏感數據讓GPT標注,防止泄露。
中大廠之間最大的壁壘是數據壁壘,數據很重要。
數據標注(Data Annotation)是人工智能和機器學習領域中的一個重要過程,它涉及將原始數據(如文本、圖片、語音、視頻等)加上標簽或注釋,使得機器能夠識別和理解這些數據。簡而言之,數據標注就是將非結構化的數據轉換為結構化的數據,以便機器可以對其進行處理和分析。
例如,在自動駕駛技術的發(fā)展過程中,需要大量的圖像數據來訓練車輛識別道路、行人和各種交通標志。數據標注師會處理這些圖像數據,為每張圖片添加標簽,如“行人”、“自行車”、“紅綠燈”等。這些標簽幫助機器學習模型識別和分類圖像中的不同對象。
具體到自動駕駛的例子,數據標注師可能需要對一張捕捉到的道路場景圖片進行標注,標出圖片中的車輛、行人、車道線、交通標志等。通過對大量此類圖片進行標注,機器學習模型能夠學習如何識別和反應這些不同的元素,從而實現(xiàn)在道路上的自主駕駛。
數據標注的過程不僅包括簡單的分類,還可以包括更復雜的注釋任務,如邊界框的繪制(如在圖像中標識對象的位置)、屬性注釋(如描述對象的屬性,如顏色、形狀等)、關系注釋(如描述不同對象之間的關系)以及自由文本注釋等。隨著人工智能技術的發(fā)展,數據標注的要求也越來越高,需要標注的數據從簡單的客觀信息延伸到更加復雜的主觀判斷和理解。
機器學習分類解讀
當我們談論機器學習時,有監(jiān)督學習、無監(jiān)督學習、半監(jiān)督學習、自監(jiān)督學習、遠程監(jiān)督學習和強化學習是常見的學習方式。以下是對每種學習方式的例子,用日常用品來解釋。
簡單
-
有監(jiān)督學習(Supervised Learning):
- 例子:圖書分類器
假設你有一堆已經標記好的書籍,每本書都標明了它屬于哪個類別(小說、科幻、歷史等)。有監(jiān)督學習就像是讓機器學會根據這些標記來預測未標記書籍的類別,使其能夠正確地分類新書。
- 例子:圖書分類器
-
無監(jiān)督學習(Unsupervised Learning):
- 例子:果籃分揀機
想象你有一個攝像頭監(jiān)視著傳送帶上的水果。無監(jiān)督學習就是讓機器自己學會識別并分揀水果,而不需要提前告訴機器每種水果是什么。機器會自動找到數據中的模式,將相似的水果分組。
- 例子:果籃分揀機
-
半監(jiān)督學習(Semi-Supervised Learning):
- 例子:郵件過濾器
假設你有大量已經標記好的垃圾郵件和一些正常郵件,但未標記的郵件較多。半監(jiān)督學習是讓機器根據已知標記的數據進行學習,然后盡可能準確地過濾未標記的郵件,以提高整體過濾效果。
- 例子:郵件過濾器
-
自監(jiān)督學習(Self-Supervised Learning):
- 例子:拼圖游戲
想象一個拼圖游戲,其中一些拼圖塊已經缺失。自監(jiān)督學習是讓機器學會通過已知的拼圖塊來預測缺失的拼圖塊,而不需要額外的標簽信息。通過這個過程,機器可以自我生成標簽信息。
- 例子:拼圖游戲
-
遠程監(jiān)督學習(Distant Supervision):
- 例子:語音識別
在語音識別中,遠程監(jiān)督學習可能涉及到使用一組正確標記的音頻數據,但并非所有都需要人工標注。通過部分標記的數據,機器可以學會識別新的音頻數據。
- 例子:語音識別
-
強化學習(Reinforcement Learning):
- 例子:智能駕駛汽車
將智能駕駛汽車看作一個強化學習代理。汽車通過感知環(huán)境(攝像頭、雷達等),執(zhí)行動作(轉向、加速、剎車),并根據執(zhí)行的動作獲得獎勵或懲罰(遵守交規(guī)獎勵,違反交規(guī)懲罰)。通過不斷嘗試,汽車學會在不同情境下做出最優(yōu)的駕駛決策。
- 例子:智能駕駛汽車
復雜
當我們談論機器學習時,有監(jiān)督學習、無監(jiān)督學習、半監(jiān)督學習、自監(jiān)督學習、遠程監(jiān)督和強化學習是常見的學習方式。為了更好地理解這些概念,我們可以用日常用品的例子來解釋:
-
有監(jiān)督學習(Supervised Learning):
- 例子: 想象你是一名水果識別專家,你有一個標有水果名稱的圖像數據集。每張圖片都有相應的標簽,比如蘋果、橙子或香蕉。
- 核心原理: 算法通過學習已標記的數據(帶有標簽)來建立模型,然后用這個模型對新的未標記數據進行分類。
-
無監(jiān)督學習(Unsupervised Learning):
- 例子: 現(xiàn)在,你只有一堆水果圖片,但是沒有標簽。你的任務是發(fā)現(xiàn)這些數據中的模式,例如,將相似的水果歸為一組,而無需事先知道水果的名稱。
- 核心原理: 算法通過發(fā)現(xiàn)數據中的模式和結構,而不依賴于事先的標簽來進行學習。
-
半監(jiān)督學習(Semi-Supervised Learning):
- 例子: 你有一些帶有標簽的水果圖片,但是大多數數據是沒有標簽的。半監(jiān)督學習的任務是在有限的標簽數據下,盡可能提高對未標簽數據的準確分類。
- 核心原理: 結合有標簽和無標簽的數據進行學習,以更好地泛化到新數據。
-
自監(jiān)督學習(Self-Supervised Learning):
- 例子: 假設你有一組水果圖片,但是標簽被隨機刪除了。自監(jiān)督學習的目標是模型能夠自行預測圖像中水果的位置,而不是依賴外部標簽。
- 核心原理: 模型通過利用數據本身的結構和信息來進行學習,無需外部標簽。
-
遠程監(jiān)督(Distant Supervision):
- 例子: 假設你想創(chuàng)建一個自動評估水果熟度的系統(tǒng)。雖然無法直接獲取水果熟度的標簽,但你可以使用遠程傳感器監(jiān)測水果的顏色,聲音等信息作為替代標簽。
- 核心原理: 利用間接的、可能不太精確但可獲得的監(jiān)督信號來進行學習。
-
強化學習(Reinforcement Learning):
- 例子: 想象你是一名機器人控制工程師,你的機器人學會通過嘗試和錯誤來掌握在房間中導航的技能。每次成功導航或失敗都會有相應的獎勵或懲罰。
- 核心原理: 通過與環(huán)境的交互,系統(tǒng)學習在特定環(huán)境中采取哪些動作以最大化累積獎勵。