İçeriğe geç

Hızlı Başlangıç Kılavuzu: Ultralytics YOLO11 ile NVIDIA Jetson

Bu kapsamlı kılavuz, Ultralytics YOLO11'i NVIDIA Jetson cihazlarına dağıtmak için ayrıntılı bir yol haritası sunar. Ek olarak, YOLO11'in bu küçük ve güçlü cihazlardaki yeteneklerini göstermek için performans kıyaslamalarını sergilemektedir.

Yeni ürün desteği

Bu kılavuzu, en popüler yapay zeka modellerini sorunsuz bir şekilde çalıştırmak için 67 TOPS'a kadar yapay zeka performansı sunan (önceki modele göre 1,7 kat iyileştirme) en son NVIDIA Jetson Orin Nano Süper Geliştirici Kiti ile güncelledik.



İzle: Ultralytics YOLO11, NVIDIA JETSON Cihazlarında Nasıl Kullanılır

NVIDIA Jetson Ekosistemi

Not

Bu kılavuz, JP6.2'nin en son kararlı JetPack sürümünü çalıştıran NVIDIA Jetson AGX Orin Geliştirici Kiti (64GB), JP6.1 JetPack sürümünü çalıştıran NVIDIA Jetson Orin Nano Süper Geliştirici Kiti, JP6.0/ JP5.1.3 JetPack sürümünü çalıştıran NVIDIA Jetson Orin NX 16GB tabanlı Seeed Studio reComputer J4012 ve JP4.6.1 JetPack sürümünü çalıştıran NVIDIA Jetson Nano 4GB tabanlı Seeed Studio reComputer J1020 v2 ile test edilmiştir. En son ve eski sürümler de dahil olmak üzere tüm NVIDIA Jetson donanım serisinde çalışması beklenmektedir.

NVIDIA Jetson nedir?

NVIDIA Jetson, hızlandırılmış yapay zeka (AI) işlemeyi uç cihazlara getirmek için tasarlanmış bir dizi gömülü bilgi işlem kartıdır. Bu kompakt ve güçlü cihazlar, NVIDIA'nın GPU mimarisi üzerine inşa edilmiştir ve bulut bilişim kaynaklarına ihtiyaç duymadan karmaşık AI algoritmalarını ve derin öğrenme modellerini doğrudan cihaz üzerinde çalıştırabilir. Jetson kartları genellikle robotik, otonom araçlar, endüstriyel otomasyon ve AI çıkarımının düşük gecikme süresi ve yüksek verimlilikle yerel olarak yapılması gereken diğer uygulamalarda kullanılır. Ek olarak, bu kartlar ARM64 mimarisine dayanır ve geleneksel GPU bilgi işlem cihazlarına kıyasla daha düşük güçte çalışır.

NVIDIA Jetson Serisi Karşılaştırması

Jetson Orin, önceki nesillere kıyasla büyük ölçüde geliştirilmiş yapay zeka performansı getiren NVIDIA Ampere mimarisine dayanan NVIDIA Jetson ailesinin en son sürümüdür. Aşağıdaki tabloda ekosistemdeki birkaç Jetson cihazı karşılaştırılmıştır.

Jetson AGX Orin 64GB Jetson Orin NX 16GB Jetson Orin Nano Süper Jetson AGX Xavier Jetson Xavier NX Jetson Nano
Yapay Zeka Performansı 275 TOPS 100 TOPS 67 TOPs 32 TOPS 21 TOPS 472 GFLOPS
GPU 64 adet Tensor Çekirdeğine sahip 2048 çekirdekli NVIDIA Ampere mimarisi GPU 32 Tensor Çekirdeği ile 1024 çekirdekli NVIDIA Ampere mimarisi GPU 32 Tensor Çekirdeği ile 1024 çekirdekli NVIDIA Ampere mimarisi GPU 64 Tensor Çekirdeği ile 512 çekirdekli NVIDIA Volta mimarisi GPU 48 Tensor Çekirdeği ile 384 çekirdekli NVIDIA Volta™ mimarisi GPU 128 çekirdekli NVIDIA Maxwell™ mimarisi GPU
GPU Maksimum Frekansı 1.3 GHz 918 MHz 1020 MHz 1377 MHz 1100 MHz 921MHz
CPU 12 çekirdekli NVIDIA Arm® Cortex A78AE v8.2 64-bit CPU 3MB L2 + 6MB L3 8 çekirdekli NVIDIA Arm® Cortex A78AE v8.2 64-bit CPU 2MB L2 + 4MB L3 6 çekirdekli Arm® Cortex®-A78AE v8.2 64-bit CPU 1.5MB L2 + 4MB L3 8 çekirdekli NVIDIA Carmel Arm®v8.2 64-bit CPU 8MB L2 + 4MB L3 6 çekirdekli NVIDIA Carmel Arm®v8.2 64-bit CPU 6MB L2 + 4MB L3 Dört Çekirdekli Arm® Cortex®-A57 MPCore işlemci
CPU Maksimum Frekansı 2.2 GHz 2.0 GHz 1.7 GHz 2.2 GHz 1.9 GHz 1.43GHz
Bellek 64GB 256-bit LPDDR5 204.8GB/s 16GB 128-bit LPDDR5 102.4GB/s 8GB 128-bit LPDDR5 102 GB/s 32GB 256-bit LPDDR4x 136.5GB/s 8GB 128-bit LPDDR4x 59.7GB/s 4GB 64-bit LPDDR4 25.6GB/s"

Daha ayrıntılı bir karşılaştırma tablosu için lütfen resmi NVIDIA Jetson sayfasının Teknik Özellikler bölümünü ziyaret edin.

NVIDIA JetPack nedir?

Jetson modüllerine güç veren NVIDIA JetPack SDK, uçtan uca hızlandırılmış yapay zeka uygulamaları oluşturmak ve pazara sunma süresini kısaltmak için en kapsamlı çözümdür ve eksiksiz bir geliştirme ortamı sağlar. JetPack, önyükleyici, Linux çekirdeği, Ubuntu masaüstü ortamı ve GPU hesaplama, multimedya, grafik ve bilgisayar görüşü'nün hızlandırılması için eksiksiz bir kitaplık seti ile Jetson Linux'u içerir. Ayrıca, hem ana bilgisayar hem de geliştirme kiti için örnekler, belgeler ve geliştirici araçları içerir ve akışlı video analizi için DeepStream, robotik için Isaac ve konuşmaya dayalı yapay zeka için Riva gibi daha üst düzey SDK'ları destekler.

NVIDIA Jetson'a JetPack'i Flash'la Yükleme

Bir NVIDIA Jetson cihazı edindikten sonraki ilk adım, cihaza NVIDIA JetPack'i yüklemektir. NVIDIA Jetson cihazlarını yüklemenin birkaç farklı yolu vardır.

  1. Jetson Orin Nano Geliştirici Kiti gibi resmi bir NVIDIA Geliştirme Kitiniz varsa, bir görüntü indirebilir ve cihazı başlatmak için JetPack ile bir SD kart hazırlayabilirsiniz.
  2. Başka bir NVIDIA Geliştirme Kitiniz varsa, SDK Manager'ı kullanarak JetPack'i cihaza yazabilirsiniz.
  3. Bir Seeed Studio reComputer J4012 cihazınız varsa, JetPack'i birlikte verilen SSD'ye yazabilirsiniz ve bir Seeed Studio reComputer J1020 v2 cihazınız varsa, JetPack'i eMMC/ SSD'ye yazabilirsiniz.
  4. NVIDIA Jetson modülüyle çalışan başka bir üçüncü taraf cihazınız varsa, komut satırı ile yazma işlemini takip etmeniz önerilir.

Not

Yukarıdaki 3. ve 4. yöntemler için, sistemi flash'ladıktan ve cihazı başlattıktan sonra, gerekli tüm JetPack bileşenlerini yüklemek için lütfen cihaz terminalinde "sudo apt update && sudo apt install nvidia-jetpack -y" komutunu girin.

Jetson Cihazına Dayalı JetPack Desteği

Aşağıdaki tabloda, farklı NVIDIA Jetson cihazları tarafından desteklenen NVIDIA JetPack sürümleri vurgulanmaktadır.

JetPack 4 JetPack 5 JetPack 6
Jetson Nano
Jetson TX2
Jetson Xavier NX
Jetson AGX Xavier
Jetson AGX Orin
Jetson Orin NX
Jetson Orin Nano

Docker ile Hızlı Başlangıç

NVIDIA Jetson'da Ultralytics YOLO11'e başlamanın en hızlı yolu, Jetson için önceden oluşturulmuş docker görüntüleriyle çalıştırmaktır. Yukarıdaki tabloya bakın ve sahip olduğunuz Jetson cihazına göre JetPack sürümünü seçin.

t=ultralytics/ultralytics:latest-jetson-jetpack4
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t
t=ultralytics/ultralytics:latest-jetson-jetpack5
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t
t=ultralytics/ultralytics:latest-jetson-jetpack6
sudo docker pull $t && sudo docker run -it --ipc=host --runtime=nvidia $t

Bu işlem tamamlandıktan sonra, NVIDIA Jetson'da TensorRT Kullanımı bölümüne geçin.

Yerel Kurulum ile başlayın

Docker olmadan yerel bir kurulum için lütfen aşağıdaki adımlara bakın.

JetPack 6.1 üzerinde çalıştırın

Ultralytics Paketini Kurulumu

Burada, PyTorch modellerini diğer farklı formatlara aktarabilmemiz için isteğe bağlı bağımlılıklarla birlikte Ultralytics paketini Jetson'a kuracağız. Esas olarak NVIDIA TensorRT aktarımlarına odaklanacağız çünkü TensorRT, Jetson cihazlarından maksimum performansı almamızı sağlayacaktır.

  1. Paketler listesini güncelleyin, pip'i kurun ve en son sürüme yükseltin

    sudo apt update
    sudo apt install python3-pip -y
    pip install -U pip
    
  2. Kurulum ultralytics isteğe bağlı bağımlılıkları olan pip paketi

    pip install ultralytics[export]
    
  3. Cihazı yeniden başlatın

    sudo reboot
    

PyTorch ve Torchvision'ı yükle

Yukarıdaki Ultralytics kurulumu, Torch ve Torchvision'ı kuracaktır. Ancak, pip aracılığıyla kurulan bu 2 paket, ARM64 mimarisine dayalı olan Jetson platformunda çalışmak için uyumlu değildir. Bu nedenle, önceden oluşturulmuş PyTorch pip wheel'i manuel olarak kurmamız ve Torchvision'ı kaynaktan derleyip/kurmamız gerekir.

Kurulum torch 2.5.0 ve torchvision 0.20 JP6.1'e göre

pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torch-2.5.0a0+872d972e41.nv24.08-cp310-cp310-linux_aarch64.whl
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torchvision-0.20.0a0+afc54f7-cp310-cp310-linux_aarch64.whl

Not

Farklı JetPack sürümleri için PyTorch'un tüm farklı versiyonlarına erişmek için Jetson için PyTorch sayfasına gidin. PyTorch, Torchvision uyumluluğu hakkında daha ayrıntılı bir liste için PyTorch ve Torchvision uyumluluk sayfasını ziyaret edin.

Kurulum cuSPARSELt ile ilgili bir bağımlılık sorununu düzeltmek için torch 2.5.0

wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/arm64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
sudo apt-get update
sudo apt-get -y install libcusparselt0 libcusparselt-dev

Kurulum onnxruntime-gpu

onnxruntime-gpu PyPI'de barındırılan paket şuna sahip değil: aarch64 Jetson için ikili dosyalar. Bu nedenle bu paketi manuel olarak kurmamız gerekiyor. Bu paket, bazı dışa aktarmalar için gereklidir.

Mevcut tüm onnxruntime-gpu paketler—JetPack sürümüne, Python sürümüne ve diğer uyumluluk ayrıntılarına göre düzenlenmiş—içinde Jetson Zoo ONNX Runtime uyumluluk matrisi. Burada indirecek ve kuracağız onnxruntime-gpu 1.20.0 ile Python3.10 destek.

pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/onnxruntime_gpu-1.20.0-cp310-cp310-linux_aarch64.whl

Not

onnxruntime-gpu numpy sürümünü otomatik olarak en son sürüme geri döndürecektir. Bu nedenle numpy'yi tekrar kurmamız gerekiyor: 1.23.5 şu komutu çalıştırarak bir sorunu düzeltmek için:

pip install numpy==1.23.5

JetPack 5.1.2 üzerinde çalıştırın

Ultralytics Paketini Kurulumu

Burada, PyTorch modellerini diğer farklı formatlara aktarabilmemiz için isteğe bağlı bağımlılıklarla birlikte Ultralytics paketini Jetson'a kuracağız. Esas olarak NVIDIA TensorRT aktarımlarına odaklanacağız çünkü TensorRT, Jetson cihazlarından maksimum performansı almamızı sağlayacaktır.

  1. Paketler listesini güncelleyin, pip'i kurun ve en son sürüme yükseltin

    sudo apt update
    sudo apt install python3-pip -y
    pip install -U pip
    
  2. Kurulum ultralytics isteğe bağlı bağımlılıkları olan pip paketi

    pip install ultralytics[export]
    
  3. Cihazı yeniden başlatın

    sudo reboot
    

PyTorch ve Torchvision'ı yükle

Yukarıdaki Ultralytics kurulumu, Torch ve Torchvision'ı kuracaktır. Ancak, pip aracılığıyla kurulan bu 2 paket, ARM64 mimarisine dayalı olan Jetson platformunda çalışmak için uyumlu değildir. Bu nedenle, önceden oluşturulmuş PyTorch pip wheel'i manuel olarak kurmamız ve Torchvision'ı kaynaktan derleyip/kurmamız gerekir.

  1. Şu anda kurulu olan PyTorch ve Torchvision'ı kaldırın

    pip uninstall torch torchvision
    
  2. Kurulum torch 2.2.0 ve torchvision 0.17.2 JP5.1.2'ye göre

    pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torch-2.2.0-cp38-cp38-linux_aarch64.whl
    pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torchvision-0.17.2+c1d70fe-cp38-cp38-linux_aarch64.whl
    

Not

Farklı JetPack sürümleri için PyTorch'un tüm farklı versiyonlarına erişmek için Jetson için PyTorch sayfasına gidin. PyTorch, Torchvision uyumluluğu hakkında daha ayrıntılı bir liste için PyTorch ve Torchvision uyumluluk sayfasını ziyaret edin.

Kurulum onnxruntime-gpu

onnxruntime-gpu PyPI'de barındırılan paket şuna sahip değil: aarch64 Jetson için ikili dosyalar. Bu nedenle bu paketi manuel olarak kurmamız gerekiyor. Bu paket, bazı dışa aktarmalar için gereklidir.

Mevcut tüm onnxruntime-gpu paketler—JetPack sürümüne, Python sürümüne ve diğer uyumluluk ayrıntılarına göre düzenlenmiş—içinde Jetson Zoo ONNX Runtime uyumluluk matrisi. Burada indirecek ve kuracağız onnxruntime-gpu 1.17.0 ile Python3.8 destek.

wget https://nvidia.box.com/shared/static/zostg6agm00fb6t5uisw51qi6kpcuwzd.whl -O onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl
pip install onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl

Not

onnxruntime-gpu numpy sürümünü otomatik olarak en son sürüme geri döndürecektir. Bu nedenle numpy'yi tekrar kurmamız gerekiyor: 1.23.5 şu komutu çalıştırarak bir sorunu düzeltmek için:

pip install numpy==1.23.5

NVIDIA Jetson'da TensorRT kullanın

Ultralytics tarafından desteklenen tüm model dışa aktarma biçimleri arasında TensorRT, NVIDIA Jetson cihazlarında en yüksek çıkarım performansını sunar ve bu da onu Jetson dağıtımları için en iyi önerimiz yapar. Kurulum talimatları ve gelişmiş kullanım için özel TensorRT entegrasyon kılavuzumuza bakın.

Modeli TensorRT'ye Dönüştürün ve Çıkarım Çalıştırın

PyTorch formatındaki YOLO11n modeli, dışa aktarılan modelle çıkarım çalıştırmak için TensorRT'ye dönüştürülür.

Örnek

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Export the model to TensorRT
model.export(format="engine")  # creates 'yolo11n.engine'

# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")

# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format
yolo export model=yolo11n.pt format=engine # creates 'yolo11n.engine'

# Run inference with the exported model
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'

Not

Modelleri farklı model formatlarına aktarırken ek argümanlara erişmek için Dışa Aktarma sayfasına gidin

NVIDIA Derin Öğrenme Hızlandırıcısı'nı (DLA) kullanın

NVIDIA Derin Öğrenme Hızlandırıcısı (DLA), NVIDIA Jetson cihazlarına yerleştirilmiş, enerji verimliliği ve performans için derin öğrenme çıkarımını optimize eden özel bir donanım bileşenidir. Görevleri GPU'dan boşaltarak (daha yoğun işlemler için serbest bırakarak) DLA, modellerin daha düşük güç tüketimiyle çalışmasını sağlarken yüksek verimi korur, bu da gömülü sistemler ve gerçek zamanlı yapay zeka uygulamaları için idealdir.

Aşağıdaki Jetson cihazları, DLA donanımına sahiptir:

Jetson Cihazı DLA Çekirdekleri DLA Maksimum Frekansı
Jetson AGX Orin Serisi 2 1.6 GHz
Jetson Orin NX 16GB 2 614 MHz
Jetson Orin NX 8GB 1 614 MHz
Jetson AGX Xavier Serisi 2 1.4 GHz
Jetson Xavier NX Serisi 2 1.1 GHz

Örnek

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Export the model to TensorRT with DLA enabled (only works with FP16 or INT8)
model.export(format="engine", device="dla:0", half=True)  # dla:0 or dla:1 corresponds to the DLA cores

# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")

# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format with DLA enabled (only works with FP16 or INT8)
# Once DLA core number is specified at export, it will use the same core at inference
yolo export model=yolo11n.pt format=engine device="dla:0" half=True # dla:0 or dla:1 corresponds to the DLA cores

# Run inference with the exported model on the DLA
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'

Not

DLA dışa aktarımlarını kullanırken, bazı katmanlar DLA üzerinde çalışmayı desteklemeyebilir ve yürütme için GPU'ya geri dönebilir. Bu geri dönüş, ek gecikmeye neden olabilir ve genel çıkarım performansını etkileyebilir. Bu nedenle, DLA öncelikle TensorRT'nin tamamen GPU üzerinde çalışmasına kıyasla çıkarım gecikmesini azaltmak için tasarlanmamıştır. Bunun yerine, temel amacı verimi artırmak ve enerji verimliliğini iyileştirmektir.

NVIDIA Jetson Orin YOLO11 Kıyaslamaları

YOLO11 kıyaslamaları, Ultralytics ekibi tarafından hız ve doğruluğu ölçen 10 farklı model formatında çalıştırılmıştır: PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel, TF GraphDef, TF Lite, MNN, NCNN. Kıyaslamalar, NVIDIA Jetson AGX Orin Geliştirici Kiti (64GB), NVIDIA Jetson Orin Nano Süper Geliştirici Kiti ve Jetson Orin NX 16GB cihazı ile güçlendirilmiş Seeed Studio reComputer J4012 üzerinde, varsayılan 640 giriş görüntü boyutuyla FP32 kesinliğinde çalıştırılmıştır.

Karşılaştırma Grafikleri

Tüm model dışa aktarımları NVIDIA Jetson ile çalışmasına rağmen, aşağıdaki karşılaştırma tablosuna yalnızca PyTorch, TorchScript, TensorRT'yi dahil ettik, çünkü bunlar Jetson'daki GPU'yu kullanıyor ve en iyi sonuçları üretecekleri garanti ediliyor. Diğer tüm dışa aktarımlar yalnızca CPU'yu kullanır ve performans yukarıdaki üçü kadar iyi değildir. Tüm dışa aktarımlar için kıyaslamaları bu tablodan sonraki bölümde bulabilirsiniz.

NVIDIA Jetson AGX Orin Geliştirici Kiti (64GB)

Jetson AGX Orin Kıyaslamaları
Ultralytics 8.3.157 ile kıyaslandı

NVIDIA Jetson Orin Nano Süper Geliştirici Kiti

Jetson Orin Nano Süper Kıyaslamaları
Ultralytics 8.3.157 ile kıyaslandı

NVIDIA Jetson Orin NX 16GB

Jetson Orin NX 16GB Kıyaslamaları
Ultralytics 8.3.157 ile kıyaslandı

Ayrıntılı Karşılaştırma Tabloları

Aşağıdaki tablo, beş farklı model (YOLO11n, YOLO11s, YOLO11m, YOLO11l, YOLO11x) için on farklı formatta (PyTorch, TorchScript, ONNX, OpenVINO, TensorRT, TF SavedModel, TF GraphDef, TF Lite, MNN, NCNN) elde edilen benchmark sonuçlarını göstermektedir ve bize her kombinasyon için durumu, boyutu, mAP50-95(B) metriğini ve çıkarım süresini vermektedir.

NVIDIA Jetson AGX Orin Geliştirici Kiti (64GB)

Performans

Format Durum Disk üzerindeki boyut (MB) mAP50-95(B) Çıkarım süresi (ms/im)
PyTorch 5.4 0.5101 9.40
TorchScript 10.5 0.5083 11.00
ONNX 10.2 0.5077 48.32
OpenVINO 10.4 0.5058 27.24
TensorRT (FP32) 12.1 0.5085 3.93
TensorRT (FP16) 8.3 0.5063 2.55
TensorRT (INT8) 5.4 0.4719 2.18
TF SavedModel 25.9 0.5077 66.87
TF GraphDef 10.3 0.5077 65.68
TF Lite 10.3 0.5077 272.92
MNN 10.1 0.5059 36.33
NCNN 10.2 0.5031 28.51
Format Durum Disk üzerindeki boyut (MB) mAP50-95(B) Çıkarım süresi (ms/im)
PyTorch 18.4 0.5783 12.10
TorchScript 36.5 0.5782 11.01
ONNX 36.3 0.5782 107.54
OpenVINO 36.4 0.5810 55.03
TensorRT (FP32) 38.1 0.5781 6.52
TensorRT (FP16) 21.4 0.5803 3.65
TensorRT (INT8) 12.1 0.5735 2.81
TF SavedModel 91.0 0.5782 132.73
TF GraphDef 36.4 0.5782 134.96
TF Lite 36.3 0.5782 798.21
MNN 36.2 0.5777 82.35
NCNN 36.2 0.5784 56.07
Format Durum Disk üzerindeki boyut (MB) mAP50-95(B) Çıkarım süresi (ms/im)
PyTorch 38.8 0.6265 22.20
TorchScript 77.3 0.6307 21.47
ONNX 76.9 0.6307 270.89
OpenVINO 77.1 0.6284 129.10
TensorRT (FP32) 78.8 0.6306 12.53
TensorRT (FP16) 41.9 0.6305 6.25
TensorRT (INT8) 23.2 0.6291 4.69
TF SavedModel 192.7 0.6307 299.95
TF GraphDef 77.1 0.6307 310.58
TF Lite 77.0 0.6307 2400.54
MNN 76.8 0.6308 213.56
NCNN 76.8 0.6284 141.18
Format Durum Disk üzerindeki boyut (MB) mAP50-95(B) Çıkarım süresi (ms/im)
PyTorch 49.0 0.6364 27.70
TorchScript 97.6 0.6399 27.94
ONNX 97.0 0.6409 345.47
OpenVINO 97.3 0.6378 161.93
TensorRT (FP32) 99.1 0.6406 16.11
TensorRT (FP16) 52.6 0.6376 8.08
TensorRT (INT8) 30.8 0.6208 6.12
TF SavedModel 243.1 0.6409 390.78
TF GraphDef 97.2 0.6409 398.76
TF Lite 97.1 0.6409 3037.05
MNN 96.9 0.6372 265.46
NCNN 96.9 0.6364 179.68
Format Durum Disk üzerindeki boyut (MB) mAP50-95(B) Çıkarım süresi (ms/im)
PyTorch 109.3 0.7005 44.40
TorchScript 218.1 0.6898 47.49
ONNX 217.5 0.6900 682.98
OpenVINO 217.8 0.6876 298.15
TensorRT (FP32) 219.6 0.6904 28.50
TensorRT (FP16) 112.2 0.6887 13.55
TensorRT (INT8) 60.0 0.6574 9.40
TF SavedModel 544.3 0.6900 749.85
TF GraphDef 217.7 0.6900 753.86
TF Lite 217.6 0.6900 6603.27
MNN 217.3 0.6868 519.77
NCNN 217.3 0.6849 298.58

Ultralytics 8.3.157 ile kıyaslandı

Not

Çıkarım süresi, ön/son işlemeyi içermez.

NVIDIA Jetson Orin Nano Süper Geliştirici Kiti

Performans

Format Durum Disk üzerindeki boyut (MB) mAP50-95(B) Çıkarım süresi (ms/im)
PyTorch 5.4 0.5101 13.70
TorchScript 10.5 0.5082 13.69
ONNX 10.2 0.5081 14.47
OpenVINO 10.4 0.5058 56.66
TensorRT (FP32) 12.0 0.5081 7.44
TensorRT (FP16) 8.2 0.5061 4.53
TensorRT (INT8) 5.4 0.4825 3.70
TF SavedModel 25.9 0.5077 116.23
TF GraphDef 10.3 0.5077 114.92
TF Lite 10.3 0.5077 340.75
MNN 10.1 0.5059 76.26
NCNN 10.2 0.5031 45.03
Format Durum Disk üzerindeki boyut (MB) mAP50-95(B) Çıkarım süresi (ms/im)
PyTorch 18.4 0.5790 20.90
TorchScript 36.5 0.5781 21.22
ONNX 36.3 0.5781 25.07
OpenVINO 36.4 0.5810 122.98
TensorRT (FP32) 37.9 0.5783 13.02
TensorRT (FP16) 21.8 0.5779 6.93
TensorRT (INT8) 12.2 0.5735 5.08
TF SavedModel 91.0 0.5782 250.65
TF GraphDef 36.4 0.5782 252.69
TF Lite 36.3 0.5782 998.68
MNN 36.2 0.5781 188.01
NCNN 36.2 0.5784 101.37
Format Durum Disk üzerindeki boyut (MB) mAP50-95(B) Çıkarım süresi (ms/im)
PyTorch 38.8 0.6266 46.50
TorchScript 77.3 0.6307 47.95
ONNX 76.9 0.6307 53.06
OpenVINO 77.1 0.6284 301.63
TensorRT (FP32) 78.8 0.6305 27.86
TensorRT (FP16) 41.7 0.6309 13.50
TensorRT (INT8) 23.2 0.6291 9.12
TF SavedModel 192.7 0.6307 622.24
TF GraphDef 77.1 0.6307 628.74
TF Lite 77.0 0.6307 2997.93
MNN 76.8 0.6299 509.96
NCNN 76.8 0.6284 292.99
Format Durum Disk üzerindeki boyut (MB) mAP50-95(B) Çıkarım süresi (ms/im)
PyTorch 49.0 0.6364 56.50
TorchScript 97.6 0.6409 62.51
ONNX 97.0 0.6399 68.35
OpenVINO 97.3 0.6378 376.03
TensorRT (FP32) 99.2 0.6396 35.59
TensorRT (FP16) 52.1 0.6361 17.48
TensorRT (INT8) 30.9 0.6207 11.87
TF SavedModel 243.1 0.6409 807.47
TF GraphDef 97.2 0.6409 822.88
TF Lite 97.1 0.6409 3792.23
MNN 96.9 0.6372 631.16
NCNN 96.9 0.6364 350.46
Format Durum Disk üzerindeki boyut (MB) mAP50-95(B) Çıkarım süresi (ms/im)
PyTorch 109.3 0.7005 90.00
TorchScript 218.1 0.6901 113.40
ONNX 217.5 0.6901 122.94
OpenVINO 217.8 0.6876 713.1
TensorRT (FP32) 219.5 0.6904 66.93
TensorRT (FP16) 112.2 0.6892 32.58
TensorRT (INT8) 61.5 0.6612 19.90
TF SavedModel 544.3 0.6900 1605.4
TF GraphDef 217.8 0.6900 2961.8
TF Lite 217.6 0.6900 8234.86
MNN 217.3 0.6893 1254.18
NCNN 217.3 0.6849 725.50

Ultralytics 8.3.157 ile kıyaslandı

Not

Çıkarım süresi, ön/son işlemeyi içermez.

NVIDIA Jetson Orin NX 16GB

Performans

Format Durum Disk üzerindeki boyut (MB) mAP50-95(B) Çıkarım süresi (ms/im)
PyTorch 5.4 0.5101 12.90
TorchScript 10.5 0.5082 13.17
ONNX 10.2 0.5081 15.43
OpenVINO 10.4 0.5058 39.80
TensorRT (FP32) 11.8 0.5081 7.94
TensorRT (FP16) 8.1 0.5085 4.73
TensorRT (INT8) 5.4 0.4786 3.90
TF SavedModel 25.9 0.5077 88.48
TF GraphDef 10.3 0.5077 86.67
TF Lite 10.3 0.5077 302.55
MNN 10.1 0.5059 52.73
NCNN 10.2 0.5031 32.04
Format Durum Disk üzerindeki boyut (MB) mAP50-95(B) Çıkarım süresi (ms/im)
PyTorch 18.4 0.5790 21.70
TorchScript 36.5 0.5781 22.71
ONNX 36.3 0.5781 26.49
OpenVINO 36.4 0.5810 84.73
TensorRT (FP32) 37.8 0.5783 13.77
TensorRT (FP16) 21.2 0.5796 7.31
TensorRT (INT8) 12.0 0.5735 5.33
TF SavedModel 91.0 0.5782 185.06
TF GraphDef 36.4 0.5782 186.45
TF Lite 36.3 0.5782 882.58
MNN 36.2 0.5775 126.36
NCNN 36.2 0.5784 66.73
Format Durum Disk üzerindeki boyut (MB) mAP50-95(B) Çıkarım süresi (ms/im)
PyTorch 38.8 0.6266 45.00
TorchScript 77.3 0.6307 51.87
ONNX 76.9 0.6307 56.00
OpenVINO 77.1 0.6284 202.69
TensorRT (FP32) 78.7 0.6305 30.38
TensorRT (FP16) 41.8 0.6302 14.48
TensorRT (INT8) 23.2 0.6291 9.74
TF SavedModel 192.7 0.6307 445.58
TF GraphDef 77.1 0.6307 460.94
TF Lite 77.0 0.6307 2653.65
MNN 76.8 0.6308 339.38
NCNN 76.8 0.6284 187.64
Format Durum Disk üzerindeki boyut (MB) mAP50-95(B) Çıkarım süresi (ms/im)
PyTorch 49.0 0.6364 56.60
TorchScript 97.6 0.6409 66.72
ONNX 97.0 0.6399 71.92
OpenVINO 97.3 0.6378 254.17
TensorRT (FP32) 99.2 0.6406 38.89
TensorRT (FP16) 51.9 0.6363 18.59
TensorRT (INT8) 30.9 0.6207 12.60
TF SavedModel 243.1 0.6409 575.98
TF GraphDef 97.2 0.6409 583.79
TF Lite 97.1 0.6409 3353.41
MNN 96.9 0.6367 421.33
NCNN 96.9 0.6364 228.26
Format Durum Disk üzerindeki boyut (MB) mAP50-95(B) Çıkarım süresi (ms/im)
PyTorch 109.3 0.7005 98.50
TorchScript 218.1 0.6901 123.03
ONNX 217.5 0.6901 129.55
OpenVINO 217.8 0.6876 483.44
TensorRT (FP32) 219.6 0.6904 75.92
TensorRT (FP16) 112.1 0.6885 35.78
TensorRT (INT8) 61.6 0.6592 21.60
TF SavedModel 544.3 0.6900 1120.43
TF GraphDef 217.7 0.6900 1172.35
TF Lite 217.6 0.6900 7283.63
MNN 217.3 0.6877 840.16
NCNN 217.3 0.6849 474.41

Ultralytics 8.3.157 ile kıyaslandı

Not

Çıkarım süresi, ön/son işlemeyi içermez.

NVIDIA Jetson donanımının farklı sürümlerinde çalışan Seeed Studio tarafından daha fazla kıyaslama çabasını keşfedin.

Sonuçlarımızı Tekrar Üretin

Yukarıdaki Ultralytics kıyaslamalarını tüm dışa aktarma biçimlerinde yeniden oluşturmak için bu kodu çalıştırın:

Örnek

from ultralytics import YOLO

# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")

# Benchmark YOLO11n speed and accuracy on the COCO128 dataset for all all export formats
results = model.benchmark(data="coco128.yaml", imgsz=640)
# Benchmark YOLO11n speed and accuracy on the COCO128 dataset for all all export formats
yolo benchmark model=yolo11n.pt data=coco128.yaml imgsz=640

Karşılaştırma sonuçlarının, bir sistemin kesin donanım ve yazılım yapılandırmasına ve ayrıca karşılaştırmaların çalıştırıldığı sırada sistemin mevcut iş yüküne bağlı olarak değişebileceğini unutmayın. En güvenilir sonuçlar için çok sayıda görüntü içeren bir veri kümesi kullanın, örneğin: data='coco.yaml' (5000 doğrulama görüntüsü).

NVIDIA Jetson kullanırken En İyi Uygulamalar

NVIDIA Jetson kullanırken, YOLO11 çalıştıran NVIDIA Jetson'da maksimum performansı sağlamak için izlenecek birkaç en iyi uygulama vardır.

  1. MAX Güç Modunu Etkinleştir

    Jetson'da MAX Güç Modunu Etkinleştirmek, tüm CPU, GPU çekirdeklerinin açık olduğundan emin olacaktır.

    sudo nvpmodel -m 0
    
  2. Jetson Saatlerini Etkinleştir

    Jetson Saatlerini Etkinleştirmek, tüm CPU, GPU çekirdeklerinin maksimum frekanslarında saatlenmesini sağlayacaktır.

    sudo jetson_clocks
    
  3. Jetson İstatistik Uygulamasını Yükle

    Sistem bileşenlerinin sıcaklıklarını izlemek ve CPU, GPU, RAM kullanımını görüntüleme, güç modlarını değiştirme, maksimum saatlere ayarlama, JetPack bilgilerini kontrol etme gibi diğer sistem ayrıntılarını kontrol etmek için jetson istatistikleri uygulamasını kullanabiliriz

    sudo apt update
    sudo pip install jetson-stats
    sudo reboot
    jtop
    

Jetson İstatistikleri

Sonraki Adımlar

NVIDIA Jetson'ınızda YOLO11'i başarıyla kurduğunuz için tebrikler! Daha fazla öğrenme ve destek için Ultralytics YOLO11 Belgeleri'ndeki kılavuzu ziyaret edin!

SSS

Ultralytics YOLO11'i NVIDIA Jetson cihazlarına nasıl dağıtırım?

Ultralytics YOLO11'i NVIDIA Jetson cihazlarına dağıtmak basit bir işlemdir. İlk olarak, Jetson cihazınızı NVIDIA JetPack SDK ile flashlayın. Ardından, hızlı kurulum için önceden oluşturulmuş bir Docker görüntüsü kullanın veya gerekli paketleri manuel olarak kurun. Her yaklaşım için ayrıntılı adımlar, Docker ile Hızlı Başlangıç ve Yerel Kurulum ile Başlangıç bölümlerinde bulunabilir.

NVIDIA Jetson cihazlarında YOLO11 modellerinden hangi performans kıyaslamalarını bekleyebilirim?

YOLO11 modelleri, çeşitli NVIDIA Jetson cihazlarında önemli performans iyileştirmeleri göstererek kıyaslanmıştır. Örneğin, TensorRT formatı en iyi çıkarım performansını sunar. Ayrıntılı Karşılaştırma Tabloları bölümündeki tablo, farklı model formatlarında mAP50-95 ve çıkarım süresi gibi performans metriklerine kapsamlı bir bakış sunar.

YOLO11'i NVIDIA Jetson'da dağıtmak için neden TensorRT kullanmalıyım?

TensorRT, optimum performansı nedeniyle YOLO11 modellerini NVIDIA Jetson'da dağıtmak için şiddetle tavsiye edilir. Jetson'ın GPU yeteneklerinden yararlanarak çıkarımı hızlandırır ve maksimum verimlilik ve hız sağlar. TensorRT'ye nasıl dönüştürüleceği ve çıkarımın nasıl çalıştırılacağı hakkında daha fazla bilgiyi NVIDIA Jetson'da TensorRT Kullanımı bölümünde bulabilirsiniz.

NVIDIA Jetson'a PyTorch ve Torchvision'ı nasıl kurabilirim?

NVIDIA Jetson'a PyTorch ve Torchvision'ı kurmak için, öncelikle pip aracılığıyla yüklenmiş olabilecek mevcut sürümleri kaldırın. Ardından, Jetson'ın ARM64 mimarisi için uyumlu PyTorch ve Torchvision sürümlerini manuel olarak kurun. Bu işlem için ayrıntılı talimatlar, PyTorch ve Torchvision'ı Kurulum bölümünde verilmiştir.

YOLO11 kullanırken NVIDIA Jetson'da performansı en üst düzeye çıkarmak için en iyi uygulamalar nelerdir?

YOLO11 ile NVIDIA Jetson'da performansı en üst düzeye çıkarmak için şu en iyi uygulamaları izleyin:

  1. Tüm CPU ve GPU çekirdeklerini kullanmak için MAX Güç Modunu etkinleştirin.
  2. Tüm çekirdekleri maksimum frekanslarında çalıştırmak için Jetson Saatlerini etkinleştirin.
  3. Sistem metriklerini izlemek için Jetson Stats uygulamasını kurun.

Komutlar ve ek ayrıntılar için, NVIDIA Jetson kullanırken En İyi Uygulamalar bölümüne bakın.



📅 1 yıl önce oluşturuldu ✏️ 23 gün önce güncellendi

Yorumlar