新網(wǎng)站優(yōu)化怎么做關(guān)鍵詞搜索優(yōu)化
深度學(xué)習(xí)介紹與環(huán)境搭建
慕課大學(xué)人工智能學(xué)習(xí)筆記,自己學(xué)習(xí)記錄用的。(賦上連接)
https://www.icourse163.org/learn/ZUCC-1206146808?tid=1471365447#/learn/content?type=detail&id=1256424053&cid=1289366515
人工智能、機(jī)器學(xué)習(xí)與深度學(xué)習(xí)的關(guān)系
機(jī)器學(xué)習(xí)
- 機(jī)器學(xué)習(xí)是人工智能的一個分支,它是實(shí)現(xiàn)人工智能的一個核心技術(shù),即以機(jī)器學(xué)習(xí)為手段解決人工智能中的問題
- 機(jī)器學(xué)習(xí)是通過一些讓計算機(jī)可以自動學(xué)習(xí)的算法,并從數(shù)據(jù)中分析獲得規(guī)律,然后利用規(guī)律對新樣本進(jìn)行預(yù)測
- 機(jī)器學(xué)習(xí)的形式化的描述:對于某類任務(wù)T和性能度量P,如果一個計算機(jī)程序在T上以P衡量的性能隨著經(jīng)驗(yàn)E而自我完善,那么就稱這個計算機(jī)程序在從經(jīng)驗(yàn)E學(xué)習(xí)。
機(jī)器學(xué)習(xí)的學(xué)習(xí)形式分類
- 有監(jiān)督學(xué)習(xí)指的是事先要準(zhǔn)備好輸入與正確輸出(區(qū)分方法)相配套的訓(xùn)練數(shù)據(jù),讓計算機(jī)進(jìn)行學(xué)習(xí),以便當(dāng)他被輸入某個數(shù)據(jù)是能夠得到正確的輸出(區(qū)分方法)。
- 無監(jiān)督學(xué)習(xí)的目的是讓計算機(jī)自己去學(xué)習(xí)怎樣做一些事情,所有數(shù)據(jù)只有特征沒有標(biāo)記。無監(jiān)督學(xué)習(xí)備孕用與僅提供輸入用數(shù)據(jù)、需要計算機(jī)自己找出數(shù)據(jù)內(nèi)在結(jié)構(gòu)的場合。其目的是讓計算機(jī)從數(shù)據(jù)中抽取其中所包含的模式及規(guī)則。
- 半監(jiān)督學(xué)習(xí),二者的中間地帶是半監(jiān)督學(xué)習(xí),對于半監(jiān)督學(xué)習(xí),其訓(xùn)練數(shù)據(jù)一部分有標(biāo)記,另一部分沒有標(biāo)記,而沒有標(biāo)記數(shù)據(jù)的數(shù)量嘗嘗極大與有標(biāo)記數(shù)據(jù)的數(shù)量。它的基本規(guī)律是:數(shù)據(jù)的分部必然不是完全隨機(jī)的,通過結(jié)合有標(biāo)記數(shù)據(jù)的局部特征,以及大量沒標(biāo)記數(shù)據(jù)的整體分部,可以得道比較好的分類結(jié)果。
- 強(qiáng)化學(xué)習(xí),是解決計算機(jī)從感知到?jīng)Q策控制的問題,從而實(shí)現(xiàn)通用人工智能。強(qiáng)化學(xué)習(xí)是目標(biāo)導(dǎo)向的,從白紙一張的狀態(tài)開始,經(jīng)由許多個步驟來實(shí)現(xiàn)某一維度上的目標(biāo)最大化。最簡單的理解是在訓(xùn)練過程中,不斷去嘗試,錯誤就懲罰,正確就獎勵,由此訓(xùn)練得到的模型在各個狀態(tài)環(huán)境中都最好。對強(qiáng)化學(xué)習(xí)來說,它雖然沒有標(biāo)記,但有一個延遲獎勵與訓(xùn)練相關(guān),通過學(xué)習(xí)過程中的激勵函數(shù)獲得某種從狀態(tài)到行動的映射,強(qiáng)化學(xué)習(xí)強(qiáng)調(diào)如何基于環(huán)境而行動,以取得最大化的預(yù)期利益。強(qiáng)化學(xué)習(xí)一般在游戲、下期等需要連續(xù)決策的領(lǐng)域。
無監(jiān)督機(jī)器學(xué)習(xí)的典型應(yīng)用模式
有監(jiān)督機(jī)器學(xué)習(xí)的典型應(yīng)用模式
深度學(xué)習(xí)
全連接網(wǎng)絡(luò):指的是Layer1層的節(jié)點(diǎn)和后一層全都有連接。
常見的激活函數(shù)
深度神經(jīng)網(wǎng)絡(luò)
如果有層數(shù)、節(jié)點(diǎn)越多神經(jīng)網(wǎng)絡(luò)能力越強(qiáng)。
卷積神經(jīng)網(wǎng)絡(luò)CNN
卷積神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)中最重要的概念之一
20世紀(jì)60年代,Hubel和Wiesel在研究貓腦皮層中用于局部敏感和方向選擇的神經(jīng)元時發(fā)現(xiàn),其獨(dú)特的網(wǎng)絡(luò)結(jié)構(gòu)可以有效降低神經(jīng)網(wǎng)絡(luò)的復(fù)雜性。
1998年,Yann LeCun提出了LeNet神經(jīng)網(wǎng)絡(luò),標(biāo)志著第一個采用卷積思想的神經(jīng)網(wǎng)絡(luò)面世。
深度學(xué)習(xí)技術(shù)存在的問題:
- 面向任務(wù)單一
- 依賴于大規(guī)模有標(biāo)簽數(shù)據(jù)
- 幾乎是個黑箱模型,可解釋性不強(qiáng)
無監(jiān)督的深度學(xué)習(xí)、遷移說戲、深度強(qiáng)化學(xué)習(xí)和貝葉斯深度學(xué)習(xí)等受關(guān)注
深度學(xué)習(xí)具有很好的可推廣性和應(yīng)用性,但不是人工智能的全部,未來人工智能需要有更多類似技術(shù)。
深度學(xué)習(xí)框架