中文亚洲精品无码_熟女乱子伦免费_人人超碰人人爱国产_亚洲熟妇女综合网

當前位置: 首頁 > news >正文

網(wǎng)站建設需要精通什么知識網(wǎng)絡推廣的優(yōu)勢有哪些

網(wǎng)站建設需要精通什么知識,網(wǎng)絡推廣的優(yōu)勢有哪些,遼寧省建設工程信息網(wǎng)客服電話,日本做攻略國內(nèi)交通網(wǎng)站隨著智慧農(nóng)業(yè)的快速發(fā)展,利用先進的技術手段對牲畜的行為進行自動化監(jiān)測和管理,已經(jīng)成為現(xiàn)代農(nóng)業(yè)中的重要研究方向之一。在傳統(tǒng)的農(nóng)業(yè)管理模式中,牲畜的行為監(jiān)測通常依賴于人工觀測,耗時耗力且難以實現(xiàn)大規(guī)模實時監(jiān)控。然而&#…

隨著智慧農(nóng)業(yè)的快速發(fā)展,利用先進的技術手段對牲畜的行為進行自動化監(jiān)測和管理,已經(jīng)成為現(xiàn)代農(nóng)業(yè)中的重要研究方向之一。在傳統(tǒng)的農(nóng)業(yè)管理模式中,牲畜的行為監(jiān)測通常依賴于人工觀測,耗時耗力且難以實現(xiàn)大規(guī)模實時監(jiān)控。然而,隨著物聯(lián)網(wǎng)、人工智能和深度學習等技術的成熟,利用智能化手段對牲畜進行行為檢測和管理成為可能。本文重點研究并實現(xiàn)了一種基于YOLOV8深度學習模型的山羊行為檢測系統(tǒng),該系統(tǒng)為智慧農(nóng)業(yè)中的山羊養(yǎng)殖提供了一種高效、智能的解決方案。

該系統(tǒng)利用目標檢測技術,能夠自動識別山羊在圖像或視頻流中的行為狀態(tài),主要包括站立和躺下兩種典型行為。通過大量的訓練數(shù)據(jù),系統(tǒng)學習并提取山羊行為的特征,從而在實際應用中能夠準確識別山羊的行為狀態(tài)。系統(tǒng)的核心模型是YOLOV8,這是一種最新的深度學習目標檢測算法,具有高效的特征提取能力和實時檢測性能。與傳統(tǒng)的目標檢測算法相比,YOLOV8不僅在檢測精度上有顯著提升,同時在檢測速度上也有明顯優(yōu)勢,能夠在低延遲的條件下實現(xiàn)對目標的實時跟蹤與識別。

在系統(tǒng)的開發(fā)過程中,本文構建了一個包含大量山羊行為圖像的數(shù)據(jù)集,用于模型的訓練和測試。通過數(shù)據(jù)增強和標簽標注等技術,進一步提升了模型的魯棒性和泛化能力。實驗結(jié)果表明,本文提出的山羊行為檢測系統(tǒng)在目標檢測精度、召回率和處理速度等方面均表現(xiàn)出色。在實驗環(huán)境中,系統(tǒng)在檢測山羊站立和躺下行為的過程中,平均精度(mAP)達到了較高水平,且系統(tǒng)能夠在每秒處理多幀圖像,滿足了實時監(jiān)測的需求。

除了高精度的檢測能力,該系統(tǒng)還具有良好的擴展性和實用性。它不僅可以應用于山羊的行為監(jiān)測,還能夠通過進一步訓練,擴展到其他牲畜種類或更多的行為類別,具有廣泛的應用前景。通過實時監(jiān)測山羊的行為狀態(tài),系統(tǒng)可以幫助養(yǎng)殖者及時發(fā)現(xiàn)異常行為,如長時間躺臥或不正常的活動,從而提高對牲畜健康和生活環(huán)境的管理效率。此外,系統(tǒng)生成的行為數(shù)據(jù)可以與農(nóng)業(yè)物聯(lián)網(wǎng)系統(tǒng)集成,為智能農(nóng)業(yè)平臺提供有價值的數(shù)據(jù)支持。

本文研究并實現(xiàn)的基于YOLOV8的山羊行為檢測系統(tǒng),為智慧農(nóng)業(yè)領域提供了一種新的自動化監(jiān)測工具。通過高效的目標檢測算法和深度學習技術,系統(tǒng)能夠?qū)崟r、準確地檢測山羊的行為狀態(tài),提升了養(yǎng)殖管理的自動化水平,并具有廣泛的應用價值。未來,隨著更多先進技術的引入和數(shù)據(jù)集的進一步擴展,該系統(tǒng)有望在更多農(nóng)業(yè)場景中得到推廣應用,為現(xiàn)代農(nóng)業(yè)的發(fā)展提供更強大的技術支撐。

算法流程

項目數(shù)據(jù)

通過搜集關于數(shù)據(jù)集為各種各樣的骨折相關圖像,并使用Labelimg標注工具對每張圖片進行標注,分2個檢測類別,分別是standing表示”站立”,lying表示”躺臥”。

目標檢測標注工具
(1)labelimg:開源的圖像標注工具,標簽可用于分類和目標檢測,它是用python寫的,并使用Qt作為其圖形界面,簡單好用(雖然是英文版的)。其注釋以 PASCAL VOC格式保存為XML文件,這是ImageNet使用的格式。此外,它還支持 COCO數(shù)據(jù)集格式。
(2)安裝labelimg 在cmd輸入以下命令 pip install labelimg -i https://pypi.tuna.tsinghua.edu.cn/simple

結(jié)束后,在cmd中輸入labelimg

初識labelimg

打開后,我們自己設置一下

在View中勾選Auto Save mode

接下來我們打開需要標注的圖片文件夾

并設置標注文件保存的目錄(上圖中的Change Save Dir)
接下來就開始標注,畫框,標記目標的label,然后d切換到下一張繼續(xù)標注,不斷重復重復。

Labelimg的快捷鍵

(3)數(shù)據(jù)準備
這里建議新建一個名為data的文件夾(這個是約定俗成,不這么做也行),里面創(chuàng)建一個名為images的文件夾存放我們需要打標簽的圖片文件;再創(chuàng)建一個名為labels存放標注的標簽文件;最后創(chuàng)建一個名為 classes.txt 的txt文件來存放所要標注的類別名稱。

data的目錄結(jié)構如下:
│─img_data
│─images 存放需要打標簽的圖片文件
│─labels 存放標注的標簽文件
└ classes.txt 定義自己要標注的所有類別(這個文件可有可無,但是在我們定義類別比較多的時候,最好有這個創(chuàng)建一個這樣的txt文件來存放類別)

首先在images這個文件夾放置待標注的圖片。
生成文件如下:

“classes.txt”定義了你的 YOLO 標簽所引用的類名列表。

(4)YOLO模式創(chuàng)建標簽的樣式

存放標簽信息的文件的文件名為與圖片名相同,內(nèi)容由N行5列數(shù)據(jù)組成。
每一行代表標注的一個目標,通常包括五個數(shù)據(jù),從左到右依次為:類別id、x_center、y_center、width、height。
其中:
–x類別id代表標注目標的類別;
–x_center和y_center代表標注框的相對中心坐標;
–xwidth和height代表標注框的相對寬和高。

注意:這里的中心點坐標、寬和高都是相對數(shù)據(jù)!!!

存放標簽類別的文件的文件名為classes.txt (固定不變),用于存放創(chuàng)建的標簽類別。

完成后可進行后續(xù)的yolo訓練方面的操作。

模型訓練

模型的訓練、評估與推理

1.YOLOv8的基本原理

YOLOv8是一個SOTA模型,它建立在Yolo系列歷史版本的基礎上,并引入了新的功能和改進點,以進一步提升性能和靈活性,使其成為實現(xiàn)目標檢測、圖像分割、姿態(tài)估計等任務的最佳選擇。其具體創(chuàng)新點包括一個新的骨干網(wǎng)絡、一個新的Ancher-Free檢測頭和一個新的損失函數(shù),可在CPU到GPU的多種硬件平臺上運行。

YOLOv8是Yolo系列模型的最新王者,各種指標全面超越現(xiàn)有對象檢測與實例分割模型,借鑒了Yolov5、Yolov6、YoloX等模型的設計優(yōu)點,在全面提升改進Yolov5模型結(jié)構的基礎上實現(xiàn),同時保持了Yolov5工程化簡潔易用的優(yōu)勢。

Yolov8模型網(wǎng)絡結(jié)構圖如下圖所示:

2.數(shù)據(jù)集準備與訓練

本研究使用了包含各種山羊行為相關圖像的數(shù)據(jù)集,并通過Labelimg標注工具對每張圖像中的目標邊框(Bounding Box)及其類別進行標注。然后主要基于YOLOv8n這種模型進行模型的訓練,訓練完成后對模型在驗證集上的表現(xiàn)進行全面的性能評估及對比分析。模型訓練和評估流程基本一致,包括:數(shù)據(jù)集準備、模型訓練、模型評估。本次標注的目標類別為站立和躺臥,數(shù)據(jù)集中共計包含416張圖像,其中訓練集占332張,驗證集占84張。部分圖像如下圖所示:

部分標注如下圖所示:

圖片數(shù)據(jù)的存放格式如下,在項目目錄中新建datasets目錄,同時將檢測的圖片分為訓練集與驗證集放入datasets目錄下。

接著需要新建一個data.yaml文件,用于存儲訓練數(shù)據(jù)的路徑及模型需要進行檢測的類別。YOLOv8在進行模型訓練時,會讀取該文件的信息,用于進行模型的訓練與驗證。
data.yaml的具體內(nèi)容如下:

train: E:/GoatPoseDetection_v8/datasets/images/train 訓練集的路徑
val: E:/GoatPoseDetection_v8/datasets/images/val 驗證集的路徑
#test: E:/GoatPoseDetection_v8/datasets/images/test 測試集的路徑

nc: 2 模型檢測的類別數(shù),共有2個類別。
names: [‘standing’,’lying’]

這個文件定義了用于模型訓練和驗證的數(shù)據(jù)集路徑,以及模型將要檢測的目標類別。

數(shù)據(jù)準備完成后,通過調(diào)用train.py文件進行模型訓練,epochs參數(shù)用于調(diào)整訓練的輪數(shù),batch參數(shù)用于調(diào)整訓練的批次大小(根據(jù)內(nèi)存大小調(diào)整,最小為1)。

CPU/GPU訓練代碼如下:

加載名為 yolov8n.pt 的預訓練YOLOv8模型,yolov8n.pt是預先訓練好的模型文件。
使用YOLO模型進行訓練,主要參數(shù)說明如下:
(1)data=data_yaml_path: 指定了用于訓練的數(shù)據(jù)集配置文件。
(2)epochs=150: 設定訓練的輪數(shù)為150輪。
(3)batch=4: 指定了每個批次的樣本數(shù)量為4。
(4)optimizer=’SGD’):SGD 優(yōu)化器。
(7)name=’train_v8′: 指定了此次訓練的命名標簽,用于區(qū)分不同的訓練實驗。

3.訓練結(jié)果評估

在深度學習的過程中,我們通常通過觀察損失函數(shù)下降的曲線來了解模型的訓練情況。對于YOLOv8模型的訓練,主要涉及三類損失:定位損失(box_loss)、分類損失(cls_loss)以及動態(tài)特征損失(dfl_loss)。訓練完成后,相關的訓練過程和結(jié)果文件會保存在 runs/ 目錄下,具體如下:

各損失函數(shù)作用說明:
定位損失box_loss:預測框與標定框之間的誤差(GIoU),越小定位得越準;
分類損失cls_loss:計算錨框與對應的標定分類是否正確,越小分類得越準;
動態(tài)特征損失(dfl_loss):DFLLoss是一種用于回歸預測框與目標框之間距離的損失函數(shù)。在計算損失時,目標框需要縮放到特征圖尺度,即除以相應的stride,并與預測的邊界框計算Ciou Loss,同時與預測的anchors中心點到各邊的距離計算回歸DFLLoss。這個過程是YOLOv8訓練流程中的一部分,通過計算DFLLoss可以更準確地調(diào)整預測框的位置,提高目標檢測的準確性。

訓練結(jié)果如下:

這張圖展示了YOLOv8模型在訓練和驗證過程中的多個重要指標的變化趨勢,具體如下:

train/box_loss:
(1)這是模型在訓練過程中計算的邊界框損失(Bounding Box Loss)。
(2)隨著訓練的進行,邊界框損失逐漸減小,表明模型越來越精確地定位目標。

train/cls_loss:
(1)這是分類損失(Classification Loss),表示模型在預測類別時的誤差。
(2)分類損失也隨著訓練下降,表明模型在目標類別分類上逐步提高了準確性。

train/dfl_loss:
(1)這是分布焦點損失(Distribution Focal Loss),用來優(yōu)化邊界框的定位。
(2)DFL損失也在逐漸減小,這個損失與邊界框預測的回歸精度有關。

metrics/precision(B):
(1)訓練過程中精確率(Precision)的變化。
(2)精度(precision)反映模型預測的正例中有多少是實際的正例,趨勢上精度有所提升。

metrics/recall(B):
(1)召回率(Recall)的變化。
(2)召回率(recall)逐漸增加,表明模型檢測到的目標逐漸增多。

val/box_loss:
(1)驗證集上的邊界框損失。
(2)驗證集的邊界框損失在下降,表明模型不僅在訓練集上收斂,在驗證集上也有較好的泛化能力。

val/cls_loss:
(1)驗證集上的分類損失。
(2)分類損失下降,驗證集上的分類性能也在提高。

val/dfl_loss:
(1)驗證集上的分布焦點損失。
(2)同樣,DFL損失下降,說明模型在邊界框預測方面表現(xiàn)得更好。

metrics/mAP50(B):
(1)mAP50表示在IoU閾值為0.5時的平均精度(Mean Average Precision)。
(2)驗證集的mAP@0.5在上升,表示模型的目標檢測性能持續(xù)提升。

metrics/mAP50-95(B):
(1)mAP50-95表示在IoU閾值從0.5到0.95的平均精度。
(2)驗證集的mAP@0.5-0.95也在上升,表明模型在多種IoU閾值下都有較好的檢測效果。

這些圖表反映了您的YOLOv8模型在訓練和驗證集上的逐步改進。損失函數(shù)的減少和mAP的提高表明模型正在有效地學習,檢測性能不斷優(yōu)化。

這張圖展示的是 Precision-Recall 曲線,用于評估模型在不同類別下的檢測性能。以下是詳細解釋:

Precision-Recall 曲線的含義:
(1)Precision(精度):表示模型預測為正類的樣本中,有多少是真正的正類樣本。
(2)Recall(召回率):表示所有正類樣本中,有多少被模型正確檢測出來。
(3)Precision-Recall 曲線:隨著模型預測閾值的變化,精度和召回率的關系也隨之變化。理想情況下,精度和召回率都應該接近1。

不同類別的曲線:
(1)藍色實線:表示所有類別的綜合性能,mAP@0.5為0.812,表明在IoU閾值為0.5時,模型的平均精度為81.2%。
(2)淺藍色線條:代表standing(站立)的檢測結(jié)果,mAP為0.864。曲線更接近圖的右上角,說明對于站立類別,模型的檢測效果更好。
(3)橙色線條:代表lying(躺下)的檢測結(jié)果,mAP為0.761,曲線稍微偏離右上角,說明模型在躺下目標的檢測上稍弱一些。

總體評價:
(1)站立(standing):精度和召回率都比較高,表現(xiàn)優(yōu)于躺下類別。
(2)躺下(lying):雖然精度和召回率略低于站立類別,但整體表現(xiàn)仍然較好。
(3)綜合表現(xiàn):mAP@0.5為0.812,說明模型總體上在兩類目標上都有不錯的檢測性能。

這張PR曲線顯示了模型在不同目標類別上的檢測性能。曲線越接近右上角,表示模型在該類別上的性能越好。從圖中可以看出,模型對站立目標的檢測效果要優(yōu)于躺下目標,不過總體檢測性能相當不錯。

4.檢測結(jié)果識別

模型訓練完成后,我們可以得到一個最佳的訓練結(jié)果模型best.pt文件,在runs/train/weights目錄下。我們可以使用該文件進行后續(xù)的推理檢測。
imgTest.py 圖片檢測代碼如下:

加載所需庫:
(1)from ultralytics import YOLO:導入YOLO模型類,用于進行目標檢測。
(2)import cv2:導入OpenCV庫,用于圖像處理和顯示。

加載模型路徑和圖片路徑:
(1)path = ‘models/best.pt’:指定預訓練模型的路徑,這個模型將用于目標檢測任務。
(2)img_path = “TestFiles/imagetest.jpg”:指定需要進行檢測的圖片文件的路徑。

加載預訓練模型:
(1)model = YOLO(path, task=’detect’):使用指定路徑加載YOLO模型,并指定檢測任務為目標檢測 (detect)。
(2)通過 conf 參數(shù)設置目標檢測的置信度閾值,通過 iou 參數(shù)設置非極大值抑制(NMS)的交并比(IoU)閾值。

檢測圖片:
(1)results = model(img_path):對指定的圖片執(zhí)行目標檢測,results 包含檢測結(jié)果。

顯示檢測結(jié)果:
(1)res = results[0].plot():將檢測到的結(jié)果繪制在圖片上。
(2)cv2.imshow(“YOLOv8 Detection”, res):使用OpenCV顯示檢測后的圖片,窗口標題為“YOLOv8 Detection”。
(3)cv2.waitKey(0):等待用戶按鍵關閉顯示窗口

此代碼的功能是加載一個預訓練的YOLOv8模型,對指定的圖片進行目標檢測,并將檢測結(jié)果顯示出來。

執(zhí)行imgTest.py代碼后,會將執(zhí)行的結(jié)果直接標注在圖片上,結(jié)果如下:

這段輸出是基于YOLOv8模型對圖片“imagetest.jpg”進行檢測的結(jié)果,具體內(nèi)容如下:

圖像信息:
(1)處理的圖像路徑為:TestFiles/imagetest.jpg。
(2)圖像尺寸為 448×640 像素。

檢測結(jié)果:
(1)模型檢測到圖片中有1個站立的山羊 (standing)。
(2)每張圖片的推理時間4.0毫秒。

處理速度:
(1)4.0ms preprocess:預處理時間。
(2)41.2ms inference:推理時間。
(3)57.1ms postprocess:后處理時間。

顯示了YOLOv8模型成功地檢測到了一張測試圖像中的一個站立的山羊,檢測速度較快,且結(jié)果已保存到指定的文件夾中。

運行效果

– 運行 MainProgram.py

1.主要功能:
(1)可用于實時檢測目標圖片中的骨折;
(2)支持圖片、視頻及攝像頭進行檢測,同時支持圖片的批量檢測;
(3)界面可實時顯示目標位置、目標總數(shù)、置信度、用時等信息;
(4)支持圖片或者視頻的檢測結(jié)果保存。

2.檢測結(jié)果說明:

這張圖表顯示了基于YOLOv8模型的目標檢測系統(tǒng)的檢測結(jié)果界面。以下是各個字段的含義解釋:

用時(Time taken):
(1)這表示模型完成檢測所用的時間為0.014秒。
(2)這顯示了模型的實時性,檢測速度非???。

目標數(shù)目(Number of objects detected):
(1)檢測到的目標數(shù)目為2,表示這是當前檢測到的第1目標。

目標選擇(下拉菜單):全部:
(1)這里有一個下拉菜單,用戶可以選擇要查看的目標類型。
(2)在當前情況下,選擇的是“全部”,意味著顯示所有檢測到的目標信息。

類型(Type):
(1)當前選中的類型為 “站立”,表示系統(tǒng)正在高亮顯示檢測到的“standing”。

置信度(Confidence):
(1)這表示模型對檢測到的目標屬于“站立”類別的置信度為96.85%。
(2)置信度反映了模型的信心,置信度越高,模型對這個檢測結(jié)果越有信心。

目標位置(Object location):
(1)xmin: 158, ymin: 29:目標的左上角的坐標(xmin, ymin),表示目標區(qū)域在圖像中的位置。
(2)xmax: 244, ymax: 295:目標的右下角的坐標(xmax, ymax),表示目標區(qū)域的邊界。

這張圖表明了一個系統(tǒng)對圖像中的目標進行了檢測,檢測到了兩個目標,并且對其中一個目標“站立”的識別置信度較高。

3.圖片檢測說明

(1)躺臥

(2)站立

點擊打開圖片按鈕,選擇需要檢測的圖片,或者點擊打開文件夾按鈕,選擇需要批量檢測圖片所在的文件夾。
操作演示如下:
(1)點擊目標下拉框后,可以選定指定目標的結(jié)果信息進行顯示。
(2)點擊保存按鈕,會對檢測結(jié)果進行保存,存儲路徑為:save_data目錄下。

檢測結(jié)果:系統(tǒng)識別出圖片中的站立,并顯示檢測結(jié)果,包括總目標數(shù)、用時、目標類型、置信度、以及目標的位置坐標信息。

4.視頻檢測說明

點擊視頻按鈕,打開選擇需要檢測的視頻,就會自動顯示檢測結(jié)果,再次點擊可以關閉視頻。
點擊保存按鈕,會對視頻檢測結(jié)果進行保存,存儲路徑為:save_data目錄下。

檢測結(jié)果:系統(tǒng)對視頻進行實時分析,檢測到站立并顯示檢測結(jié)果。表格顯示了視頻中多個檢測結(jié)果的置信度和位置信息。

這個界面展示了系統(tǒng)對視頻幀中的多目標檢測能力,能夠準確識別站立,并提供詳細的檢測結(jié)果和置信度評分。

5.攝像頭檢測說明

點擊打開攝像頭按鈕,可以打開攝像頭,可以實時進行檢測,再次點擊,可關閉攝像頭。

檢測結(jié)果:系統(tǒng)連接攝像頭進行實時分析,檢測到站立并顯示檢測結(jié)果。實時顯示攝像頭畫面,并將檢測到的行為位置標注在圖像上,表格下方記錄了每一幀中檢測結(jié)果的詳細信息。

6.保存圖片與視頻檢測說明

點擊保存按鈕后,會將當前選擇的圖片(含批量圖片)或者視頻的檢測結(jié)果進行保存。
檢測的圖片與視頻結(jié)果會存儲在save_data目錄下。
保存的檢測結(jié)果文件如下:

圖片文件保存的csv文件內(nèi)容如下,包括圖片路徑、目標在圖片中的編號、目標類別、置信度、目標坐標位置。
注:其中坐標位置是代表檢測框的左上角與右下角兩個點的x、y坐標。

(1)圖片保存

(2)視頻保存


– 運行 train.py
1.訓練參數(shù)設置

(1)data=data_yaml_path: 使用data.yaml中定義的數(shù)據(jù)集。
(2)epochs=150: 訓練的輪數(shù)設置為150輪。
(3)batch=4: 每個批次的圖像數(shù)量為4(批次大小)。
(4)name=’train_v8′: 訓練結(jié)果將保存到以train_v8為名字的目錄中。
(5)optimizer=’SGD’: 使用隨機梯度下降法(SGD)作為優(yōu)化器。

雖然在大多數(shù)深度學習任務中,GPU通常會提供更快的訓練速度。
但在某些情況下,可能由于硬件限制或其他原因,用戶需要在CPU上進行訓練。

溫馨提示:在CPU上訓練深度學習模型通常會比在GPU上慢得多,尤其是像YOLOv8這樣的計算密集型模型。除非特定需要,通常建議在GPU上進行訓練以節(jié)省時間。

2.訓練日志結(jié)果

這張圖展示了使用YOLOv8進行模型訓練的詳細過程和結(jié)果。

訓練總時長:
(1)模型在訓練了150輪后,總共耗時0.310小時。

R (召回率, Recall):
(1)all: 0.738,表示所有目標的召回率為73.8%,意味著實際存在的目標中,73.8%的目標被成功檢測到。
(2)standing: 0.798,站立目標的召回率為79.8%。
(3)lying: 0.678,躺下目標的召回率為67.8%。

mAP50 (平均精度 @ IoU=50%):
(1)all: 0.812,表示在IoU=0.5的閾值下,所有目標的平均精度為81.2%。
(2)standing: 0.864,站立目標的平均精度為86.4%。
(3)lying: 0.761,躺下目標的平均精度為76.1%。

mAP50-95 (平均精度 @ IoU=50%-95%):
(1)all: 0.652,表示在IoU=0.5到0.95多個閾值下,所有目標的平均精度為65.2%。
(2)standing: 0.717,站立目標的mAP50-95為71.7%。
(3)lying: 0.587,躺下目標的mAP50-95為58.7%。

推理速度:
(1)模型推理速度為17.62幀每秒,處理速度非???#xff0c;適用于實時檢測。

結(jié)果保存:
(1)Results saved to runs\detect\train_v8:驗證結(jié)果保存在 runs\detect\train_v8 目錄下。

完成信息:
(1)Process finished with exit code 0:表示整個驗證過程順利完成,沒有報錯。

該模型在站立目標的檢測精度和召回率較高,而躺下目標的召回率略低一些,但整體性能表現(xiàn)良好,尤其是精度和速度方面。這些結(jié)果表明模型能夠很好地檢測目標,適合應用于實際場景中的目標檢測任務。

http://www.risenshineclean.com/news/38137.html

相關文章:

  • 個人可以做幾個網(wǎng)站嗎百度快照是什么意思?
  • 網(wǎng)站開發(fā)與網(wǎng)站建設精準獲客
  • 網(wǎng)站 建設網(wǎng)站市場調(diào)研分析
  • 廈門做網(wǎng)站個人蘇州做網(wǎng)站的專業(yè)公司
  • 網(wǎng)站建設需要什么資料智能營銷方法
  • 松江新城投資建設集團有限公司網(wǎng)站網(wǎng)絡營銷第三版課本
  • 龍崗做網(wǎng)站的公司源碼之家
  • 網(wǎng)站建設到運營需要多少錢怎樣在百度上做廣告
  • 做品牌網(wǎng)站公司淄博網(wǎng)站營銷與推廣
  • 臺州專業(yè)網(wǎng)站設計系統(tǒng)網(wǎng)絡推廣有哪幾種方法
  • 做網(wǎng)站品牌怎么注冊自己公司的網(wǎng)址
  • 舟山市城鄉(xiāng)建設委員會網(wǎng)站seo搜索引擎優(yōu)化是通過優(yōu)化答案
  • 什么網(wǎng)站可以做自考試題seo教育
  • 品牌網(wǎng)站建設多少錢品牌推廣策略分析
  • 網(wǎng)站怎樣才有流量seo是指搜索引擎營銷
  • 深圳設計裝修公司哪家好百度關鍵詞優(yōu)化培訓
  • 合肥最好的網(wǎng)站建設公司化妝培訓
  • 上海松江做網(wǎng)站多少錢怎么做百度推廣平臺
  • 網(wǎng)站開發(fā)流程百度文庫北京關鍵詞優(yōu)化報價
  • 天津網(wǎng)站建設價格培訓課程安排
  • 小縣城做網(wǎng)站百度推廣平臺收費標準
  • 外貿(mào)cms 網(wǎng)站app推廣聯(lián)盟平臺
  • 廣州手機軟件開發(fā)制作初學seo網(wǎng)站推廣需要怎么做
  • 企業(yè)專屬網(wǎng)頁免費刷seo
  • 國內(nèi)h5 css3網(wǎng)站廣州seo排名收費
  • 鹽城做網(wǎng)站哪家好廣州網(wǎng)站建設方案維護
  • 怎么做卡蜜網(wǎng)站網(wǎng)站推廣計劃方法
  • 通遼網(wǎng)站建設tlyltdwindows優(yōu)化大師win10
  • 網(wǎng)站怎么做排名長沙網(wǎng)絡營銷推廣公司
  • 紹興網(wǎng)站建設設計完整html網(wǎng)頁代碼案例