網(wǎng)頁的動態(tài)效果網(wǎng)店關鍵詞怎么優(yōu)化
Tensorflow 提供了一系列在不同數(shù)據(jù)集上預訓練的目標檢測模型,包括 COCO 數(shù)據(jù)集、Kitti 數(shù)據(jù)集、Open Images 數(shù)據(jù)集、AVA v2.1 數(shù)據(jù)集、iNaturalist 物種檢測數(shù)據(jù)集 和 Snapshot Serengeti 數(shù)據(jù)集。這些模型可以直接用于推理,特別是當你對這些數(shù)據(jù)集中已有的類別感興趣時。同時,它們也可用于新數(shù)據(jù)集上訓練模型時的初始化。
下表列出了每個預訓練模型,包括:
- 模型名稱,對應于
samples/configs
目錄中用于訓練此模型的配置文件; - 包含預訓練模型的 tar.gz 文件的下載鏈接;
- 模型速度 —— 我們報告的是每張 600x600 圖像的運行時間(包括所有預處理和后處理),但請注意這些時間高度依賴于特定的硬件配置(這些時間是在 Nvidia GeForce GTX TITAN X 顯卡上測得的),在很多情況下應被視為相對時間。同時注意,桌面 GPU 的時間并不總是反映移動設備的運行時間。例如,Mobilenet V2 在移動設備上比 Mobilenet V1 快,但在桌面 GPU 上略慢;
- 在 COCO 驗證集的子集、Open Images 測試集、iNaturalist 測試集或 Snapshot Serengeti LILA.science 測試集上的檢測器性能,以數(shù)據(jù)集特定的 mAP 度量。這里,數(shù)值越高越好,我們只報告四舍五入到整數(shù)的邊界框 mAP。
- 輸出類型(
Boxes
,如果適用的話還有Masks
)
你可以通過例如以下命令來解壓縮每個 tar.gz 文件:
tar -xzvf ssd_mobilenet_v1_coco.tar.gz
在解壓縮后的目錄中,你將找到:
- 一個圖模型(
graph.pbtxt
) - 一個檢查點(
model.ckpt.data-00000-of-00001
、model.ckpt.index
、model.ckpt.meta
) - 一個將權重作為常量烘焙進圖的凍結圖模型(
frozen_inference_graph.pb
),用于直接推理(在 Jupyter 筆記本中試試這個!) - 一個用于生成圖的配置文件(
pipeline.config
)。這些直接對應于 samples/configs 目錄中的配置文件,但通常具有修改后的得分閾值。在較重的 Faster R-CNN 模型的情況下,我們還提供了一個使用更少提議數(shù)量以提高速度的模型版本。 - 僅限移動模型:一個可以部署在移動設備上的 TfLite 文件(
model.tflite
)。
關于凍結推理圖的一些說明:
- 如果你嘗試評估凍結圖,可能會發(fā)現(xiàn)一些模型的性能略低于我們在下表中報告的數(shù)值。這是因為在創(chuàng)建凍結圖時,我們丟棄了得分低于閾值(通常為 0.3)的檢測。這實際上相當于在檢測器的精確度召回曲線上選擇一個點(并丟棄該點之后的部分),這會對標準 mAP 度量產(chǎn)生負面影響。
- 我們的凍結推理圖是使用 Tensorflow 的 v1.12.0 版本生成的,我們不保證這些圖能與其它版本兼容;話雖如此,每個凍結推理圖都可以使用你當前版本的 Tensorflow 重新生成,方法是重新運行 exporter,指向模型目錄以及 samples/configs 中相應的配置文件。
COCO 訓練模型
模型名稱 | 速度(ms) | COCO mAP | 輸出 |
---|---|---|---|
ssd_mobilenet_v1_coco | 30 | 21 | Boxes |
ssd_mobilenet_v1_0.75_depth_coco ☆ | 26 | 18 | Boxes |
ssd_mobilenet_v1_quantized_coco ☆ | 29 | 18 | Boxes |
ssd_mobilenet_v1_0.75_depth_quantized_coco ☆ | 29 | 16 | Boxes |
ssd_mobilenet_v1_ppn_coco ☆ | 26 | 20 | Boxes |
ssd_mobilenet_v1_fpn_coco ☆ | 56 | 32 | Boxes |
ssd_resnet_50_fpn_coco ☆ | 76 | 35 | Boxes |
ssd_mobilenet_v2_coco | 31 | 22 | Boxes |
ssd_mobilenet_v2_quantized_coco | 29 | 22 | Boxes |
ssdlite_mobilenet_v2_coco | 27 | 22 | Boxes |
ssd_inception_v2_coco | 42 | 24 | Boxes |
faster_rcnn_inception_v2_coco | 58 | 28 | Boxes |
faster_rcnn_resnet50_coco | 89 | 30 | Boxes |
faster_rcnn_resnet50_lowproposals_coco | 64 | Boxes | |
rfcn_resnet101_coco | 92 | 30 | Boxes |
faster_rcnn_resnet101_coco | 106 | 32 | Boxes |
faster_rcnn_resnet101_lowproposals_coco | 82 | Boxes | |
faster_rcnn_inception_resnet_v2_atrous_coco | 620 | 37 | Boxes |
faster_rcnn_inception_resnet_v2_atrous_lowproposals_coco | 241 | Boxes | |
faster_rcnn_nas | 1833 | 43 | Boxes |
faster_rcnn_nas_lowproposals_coco | 540 | Boxes | |
mask_rcnn_inception_resnet_v2_atrous_coco | 771 | 36 | Masks |
mask_rcnn_inception_v2_coco | 79 | 25 | Masks |
mask_rcnn_resnet101_atrous_coco | 470 | 33 | Masks |
mask_rcnn_resnet50_atrous_coco | 343 | 29 | Masks |
注意:模型名稱后的星號(☆)表示該模型支持 TPU 訓練。
注意:如果你下載了量化模型的 tar.gz 文件并解壓,將得到一組不同的文件 - 一個檢查點、一個配置文件和 tflite 凍結圖(文本/二進制)。
移動模型
模型名稱 | Pixel 1 延遲(ms) | COCO mAP | 輸出 |
---|---|---|---|
ssd_mobiledet_cpu_coco | 113 | 24.0 | Boxes |
ssd_mobilenet_v2_mnasfpn_coco | 183 | 26.6 | Boxes |
ssd_mobilenet_v3_large_coco | 119 | 22.6 | Boxes |
ssd_mobilenet_v3_small_coco | 43 | 15.4 | Boxes |
Pixel4 Edge TPU 模型
模型名稱 | Pixel 4 Edge TPU 延遲(ms) | COCO mAP (fp32/uint8) | 輸出 |
---|---|---|---|
ssd_mobiledet_edgetpu_coco | 6.9 | 25.9/25.6 | Boxes |
ssd_mobilenet_edgetpu_coco | 6.6 | -/24.3 | Boxes |
Pixel4 DSP 模型
模型名稱 | Pixel 4 DSP 延遲(ms) | COCO mAP (fp32/uint8) | 輸出 |
---|---|---|---|
ssd_mobiledet_dsp_coco | 12.3 | 28.9/28.8 | Boxes |
Kitti 訓練模型
模型名稱 | 速度(ms) | Pascal mAP@0.5 | 輸出 |
---|---|---|---|
faster_rcnn_resnet101_kitti | 79 | 87 | Boxes |
Open Images 訓練模型
模型名稱 | 速度(ms) | Open Images mAP@0.5[^2] | 輸出 |
---|---|---|---|
faster_rcnn_inception_resnet_v2_atrous_oidv2 | 727 | 37 | Boxes |
faster_rcnn_inception_resnet_v2_atrous_lowproposals_oidv2 | 347 | Boxes | |
facessd_mobilenet_v2_quantized_open_image_v4 [^3] | 20 | 73 (faces) | Boxes |
模型名稱 | 速度(ms) | Open Images mAP@0.5[^4] | 輸出 |
---|---|---|---|
faster_rcnn_inception_resnet_v2_atrous_oidv4 | 425 | 54 | Boxes |
ssd_mobilenetv2_oidv4 | 89 | 36 | Boxes |
ssd_resnet_101_fpn_oidv4 | 237 | 38 | Boxes |
iNaturalist 物種訓練模型
模型名稱 | 速度(ms) | Pascal mAP@0.5 | 輸出 |
---|---|---|---|
faster_rcnn_resnet101_fgvc | 395 | 58 | Boxes |
faster_rcnn_resnet50_fgvc | 366 | 55 | Boxes |
AVA v2.1 訓練模型
模型名稱 | 速度(ms) | Pascal mAP@0.5 | 輸出 |
---|---|---|---|
faster_rcnn_resnet101_ava_v2.1 | 93 | 11 | Boxes |
Snapshot Serengeti Camera Trap 訓練模型
模型名稱 | COCO mAP@0.5 | 輸出 |
---|---|---|
faster_rcnn_resnet101_snapshot_serengeti | 38 | Boxes |
context_rcnn_resnet101_snapshot_serengeti | 56 | Boxes |
[^1]:提到的COCO mAP(平均精度均值)是在COCO 2014年的minival數(shù)據(jù)集上評估的。這個數(shù)據(jù)集的劃分與COCO 2017年的Val數(shù)據(jù)集不同。用于分割的完整圖像ID列表可以在這里找到。COCO評估協(xié)議的詳細信息可以在MSCOCO evaluation protocol查看。
[^2]:這里提到的是PASCAL mAP,但采用了稍微不同的真正例計算方法。具體細節(jié)可以在Open Images evaluation protocols中查看,特別是oid_V2_detection_metrics部分。
[^3]:在訓練過程中,非人臉框被丟棄,而在評估時,非人臉的真實框被忽略。
[^4]:這是Open Images挑戰(zhàn)賽的度量標準,具體細節(jié)也可以在Open Images evaluation protocols中查看,特別是oid_challenge_detection_metrics部分。
對于Open Images evaluation protocols,它包含了Open Images數(shù)據(jù)集的評估協(xié)議和度量標準,這些協(xié)議和標準用來評估目標檢測、圖像分類等任務的性能。這些評估協(xié)議詳細說明了如何計算精確度、召回率和平均精度(AP)等指標,以及如何處理邊界框的匹配和重疊問題。具體的評估協(xié)議和度量標準文檔可以在Open Images官方GitHub頁面或相關技術論文中找到。