企業(yè)網(wǎng)站建設(shè)哪里好推廣鏈接點(diǎn)擊器
機(jī)器學(xué)習(xí)是一種人工智能領(lǐng)域的技術(shù)和方法,旨在讓計(jì)算機(jī)系統(tǒng)能夠從數(shù)據(jù)中學(xué)習(xí)和改進(jìn),而無(wú)需顯式地進(jìn)行編程。它涉及構(gòu)建和訓(xùn)練模型,使其能夠自動(dòng)從數(shù)據(jù)中提取規(guī)律、進(jìn)行預(yù)測(cè)或做出決策。
我對(duì)于機(jī)器學(xué)習(xí)這方面的了解可以說是一片空白,既不懂機(jī)器學(xué)習(xí),也不懂 python,更不懂算法。
像我這樣的人,在短時(shí)間內(nèi)精通機(jī)器學(xué)習(xí)是不可能的。
那么,現(xiàn)在我可以通過哪些渠道來(lái)快速了解機(jī)器學(xué)習(xí)呢?或者說,玩一玩?
答案就是通過 Gorilla
這個(gè)開源項(xiàng)目來(lái)實(shí)現(xiàn)機(jī)器學(xué)習(xí)。
Gorilla 簡(jiǎn)介&使用
Gorilla 是一個(gè)基于 LLM 實(shí)現(xiàn)的對(duì)話模型,可以接收用戶提供的需求,然后給出能夠?qū)崿F(xiàn)需求的機(jī)器學(xué)習(xí)模型 API,目前支持的開源模型 API 來(lái)源包含:Hugging Face、Torch、and TensorFlow.
我們可以在 Google 的 Colab 上面運(yùn)行 Gorilla,也可以在本地運(yùn)行 Gorilla。
這里我使用 Colab 來(lái)運(yùn)行 Gorilla。
Gorilla 提供了兩個(gè)案例,一個(gè)是翻譯的案例,一個(gè)是圖像識(shí)別的案例。
這里我選用了圖像識(shí)別的案例,點(diǎn)擊運(yùn)行。
從圖中可以看出,我們給出的需求是 構(gòu)建一個(gè)可以識(shí)別圖片中的物體的機(jī)器人
,使用的模型來(lái)源是 Hugging Face
。
它的回答是:
- 步驟:
- 引入
PIL
和transformers
相關(guān)依賴, 其中包含的DetrForObjectDetection
可用于圖像識(shí)別。 - 使用
from_pretrained
方法加載模型,模型可以用來(lái)識(shí)別圖片中的物體。 - 從遠(yuǎn)端下載圖片,然后使用
PIL
處理圖片。 - 使用模型識(shí)別圖片中的物體,然后將識(shí)別結(jié)果返回。
最后,它給出了一段代碼,我們可以直接復(fù)制到本地文件中運(yùn)行。
運(yùn)行之前,需要保證本地具備 python3
工作環(huán)境,同時(shí)需要使用 pip
將代碼中使用到的依賴進(jìn)行安裝。
我在簡(jiǎn)單嘗試后,發(fā)現(xiàn)這段代碼是無(wú)法運(yùn)行的,這也是大多數(shù) LLM
模型的通病,看起來(lái)很專業(yè)的答案,但是實(shí)際代碼是無(wú)法運(yùn)行的。
Hugging Face 模型
不過,整體代碼邏輯我看了一眼,是可以理解的,那么,我們可以自己動(dòng)手來(lái)實(shí)現(xiàn)這個(gè)需求。
首先,在網(wǎng)上找到 Hugging Face
,在里面發(fā)現(xiàn)了很多模型,這里我選擇了最多下載的模型 —— 識(shí)別車牌。(如下圖)
點(diǎn)進(jìn)去可以看到功能介紹及示例代碼。(如下圖)
我把代碼放到本地,下載相關(guān)依賴后,同時(shí)準(zhǔn)備了下面這張待處理的圖片。
import yolov5# load model
model = yolov5.load('keremberke/yolov5m-license-plate')# set model parameters
model.conf = 0.25 # NMS confidence threshold
model.iou = 0.45 # NMS IoU threshold
model.agnostic = False # NMS class-agnostic
model.multi_label = False # NMS multiple labels per box
model.max_det = 1000 # maximum number of detections per image# set image
img = 'example.jpg'# perform inference
results = model(img, size=640)# inference with test time augmentation
results = model(img, augment=True)# parse results
predictions = results.pred[0]
boxes = predictions[:, :4] # x1, y1, x2, y2
scores = predictions[:, 4]
categories = predictions[:, 5]# show detection bounding boxes on image
results.show()# save results into "results/" folder
results.save(save_dir='results/')
使用 py
命令運(yùn)行代碼后,我得到了處理后的圖片。(如下圖)
它成功的將圖片中清晰可見的車牌掃描出來(lái)了,結(jié)果是 2 個(gè)。
對(duì)于完全沒了解過相關(guān)知識(shí)的我,能做到這一步,我還是覺得有些意外的。
我又嘗試了一下 Hugging Face
上的其他免費(fèi)模型,都挺有意思的,大家感興趣的可以自己去嘗試一下。
小結(jié)
Gorilla
目前提供給我的代碼,并沒有幫助我寫出一個(gè)可用的項(xiàng)目。
但是,它所提供的思路和方向是正確的,并且相關(guān)的模型也是可以使用的。
作為 0 基礎(chǔ)選手,通過 Gorilla
,確實(shí)可以快速的了解到機(jī)器學(xué)習(xí)的相關(guān)知識(shí),同時(shí)也可以快速的實(shí)現(xiàn)一個(gè)機(jī)器學(xué)習(xí)的項(xiàng)目。
下面附上一些相關(guān)資料,包含 Gorilla 教程:
Gorilla 官方地址
Gorilla Colab
Hugging Face 模型
最后一件事
如果您已經(jīng)看到這里了,希望您還是點(diǎn)個(gè)贊再走吧~
您的點(diǎn)贊是對(duì)作者的最大鼓勵(lì),也可以讓更多人看到本篇文章!
如果覺得本文對(duì)您有幫助,請(qǐng)幫忙在 github 上點(diǎn)亮 star
鼓勵(lì)一下吧!