Intel OpenVINO 輸出
このガイドでは、エクスポートについて説明しますYOLO11 OpenVINO形式へのモデル変換により、 CPU速度が最大3倍向上し、 YOLO 推論Intel GPUおよびNPUハードウェア。
OpenVINOOpen Visual Inference &Neural NetworkOptimization toolkitの略で、AI推論モデルの最適化と展開のための包括的なツールキットである。名前にVisualが含まれていますが、OpenVINO 、言語、音声、時系列など様々な追加タスクもサポートしています。
見るんだ: OpenVINO を使った推論のためにUltralytics YOLOv8 モデルをエクスポートして最適化する方法 .
使用例
YOLO11nモデルをエクスポートするOpenVINO エクスポートされたモデルをフォーマットして推論を実行します。
例
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Export the model
model.export(format="openvino") # creates 'yolo11n_openvino_model/'
# Load the exported OpenVINO model
ov_model = YOLO("yolo11n_openvino_model/")
# Run inference
results = ov_model("https://ultralytics.com/images/bus.jpg")
# Run inference with specified device, available devices: ["intel:gpu", "intel:npu", "intel:cpu"]
results = ov_model("https://ultralytics.com/images/bus.jpg", device="intel:gpu")
# Export a YOLO11n PyTorch model to OpenVINO format
yolo export model=yolo11n.pt format=openvino # creates 'yolo11n_openvino_model/'
# Run inference with the exported model
yolo predict model=yolo11n_openvino_model source='https://ultralytics.com/images/bus.jpg'
# Run inference with specified device, available devices: ["intel:gpu", "intel:npu", "intel:cpu"]
yolo predict model=yolo11n_openvino_model source='https://ultralytics.com/images/bus.jpg' device="intel:gpu"
エクスポートの引数
議論 | タイプ | デフォルト | 説明 |
---|---|---|---|
format |
str |
'openvino' |
エクスポートされたモデルのターゲットフォーマットで、さまざまな展開環境との互換性を定義します。 |
imgsz |
int または tuple |
640 |
モデル入力に必要な画像サイズ。正方形画像の場合は整数,正方形画像の場合はタプルになります. (height, width) 具体的な寸法については |
half |
bool |
False |
FP16(半精度)量子化を有効にし、モデルサイズを縮小し、サポートされているハードウェアでの推論を高速化する可能性があります。 |
int8 |
bool |
False |
INT8量子化を有効にし、モデルをさらに圧縮し、主にエッジデバイスのために、最小限の精度損失で推論を高速化する。 |
dynamic |
bool |
False |
ダイナミックな入力サイズを可能にし、さまざまな画像サイズに柔軟に対応。 |
nms |
bool |
False |
正確で効率的な検出の後処理に不可欠なNMS(Non-Maximum Suppression)を追加。 |
batch |
int |
1 |
エクスポートモデルのバッチ推論サイズ、またはエクスポートされたモデルが同時に処理する画像の最大数を指定します。 predict モードだ。 |
data |
str |
'coco8.yaml' |
への道 データセット 設定ファイル(デフォルト: coco8.yaml )、量子化に不可欠である。 |
fraction |
float |
1.0 |
INT8の量子化較正に使用するデータセットの割合を指定します。完全なデータセットのサブセットで較正を行うことができ、実験やリソースが限られている場合に便利です。INT8を有効にして指定しない場合は、完全なデータセットが使用されます。 |
エクスポートプロセスの詳細については、Ultralytics ドキュメントのエクスポートに関するページをご覧ください。
警告
OpenVINO™ はほとんどの Intel® プロセッサーと互換性がありますが、最適なパフォーマンスを確保するには次の点に注意してください。
-
OpenVINO™ のサポートを確認するIntelの互換性リストを使用して、Intel® チップが OpenVINO™ で正式にサポートされているかどうかを確認します。
-
アクセラレータを特定する プロセッサに統合NPU(ニューラルプロセッシングユニット)が含まれているか、 GPU (統合GPU ) については、 Intelのハードウェア ガイドを参照してください。
-
最新のドライバーをインストールする チップがNPUまたはGPU OpenVINO™ が検出しない場合は、関連ドライバーをインストールまたはアップデートする必要がある可能性があります。ドライバーのインストール手順に従って、アクセラレーションを完全に有効化してください。
これら 3 つの手順に従うことで、OpenVINO™ が Intel® ハードウェア上で最適に実行されるようになります。
メリットOpenVINO
- パフォーマンス:Intel CPU、統合GPU、ディスクリートGPU、FPGAのパワーを活用することで、OpenVINO 、高性能な推論を実現。
- ヘテロジニアス実行のサポート:OpenVINO は、一度書けば、サポートされているIntel ハードウェア(CPU 、GPU 、FPGA、VPUなど)にデプロイできるAPIを提供する。
- モデル・オプティマイザー:OpenVINO は、PyTorch などの一般的なディープラーニング・フレームワークのモデルをインポート、変換、最適化するモデル・オプティマイザーを提供する、 TensorFlowTensorFlow Lite、Keras、ONNX 、PaddlePaddle 、Caffe。
- 使いやすさ:ツールキットには、ツールキットのさまざまな側面を教える80以上のチュートリアルノートブック (YOLOv8 最適化を含む)が付属しています。
OpenVINO 輸出構造
モデルをOpenVINO フォーマットにエクスポートすると、次のようなディレクトリが作成されます:
- XMLファイル:ネットワークのトポロジーを記述する。
- BINファイル:weights and biases バイナリデータを含む。
- マッピングファイル:元のモデル出力テンソルのOpenVINO tensor へのマッピングを保持する。
これらのファイルを使用して、OpenVINO 推論エンジンで推論を実行することができる。
デプロイメントでOpenVINO エクスポートを使用する
モデルが正常にエクスポートされると、 OpenVINO 形式によっては、推論を実行するための 2 つの主なオプションがあります。
-
を使用する。
ultralytics
パッケージは高レベルのAPIを提供し、 OpenVINO ランタイム。 -
ネイティブを使う
openvino
推論動作をより高度に、またはカスタマイズして制御するためのパッケージ。
推論Ultralytics
そのultralytics パッケージを使用すると、エクスポートされたOpenVINO 予測メソッドでモデルを予測します。また、ターゲットデバイス(例: intel:gpu
, intel:npu
, intel:cpu
) をデバイス引数を使用して実行します。
from ultralytics import YOLO
# Load the exported OpenVINO model
ov_model = YOLO("yolo11n_openvino_model/") # the path of your exported OpenVINO model
# Run inference with the exported model
ov_model.predict(device="intel:gpu") # specify the device you want to run inference on
このアプローチは、推論パイプラインを完全に制御する必要がない場合に、迅速なプロトタイピングやデプロイメントに最適です。
推論OpenVINO ランタイム
そのopenvino ランタイムは、サポートされているすべての推論に統合されたAPIを提供します。 Intel ハードウェア。また、負荷分散などの高度な機能も提供します。 Intel ハードウェアと非同期実行。推論の実行に関する詳細については、 YOLO11ノートブックを参照してください。
Runtimeでモデルを正しくセットアップして使用するには、XMLファイルとBINファイル、および入力サイズや正規化のためのスケールファクターなど、アプリケーション固有の設定が必要であることを忘れないでください。
デプロイメント・アプリケーションでは、通常、以下の手順を実行する:
- を作成してOpenVINO を初期化する。
core = Core()
. - モデルをロードするには
core.read_model()
メソッドを使用する。 - モデルをコンパイルするには
core.compile_model()
関数である。 - 入力(画像、テキスト、音声など)を準備する。
- を使用して推論を実行する。
compiled_model(input_data)
.
より詳細な手順とコード・スニペットについては、OpenVINO ドキュメントまたはAPI チュートリアルを参照してください。
OpenVINO YOLO11 ベンチマーク
そのUltralytics チームのベンチマークYOLO11 さまざまなモデル形式と精度にわたって、さまざまな速度と精度を評価しますIntel 対応デバイスOpenVINO 。
注
以下のベンチマーク結果は参考値であり、システムの正確なハードウェアおよびソフトウェア構成、ベンチマーク実行時のシステムの現在の作業負荷によって異なる場合があります。
すべてのベンチマークは openvino
Python パッケージバージョン 2025.1.0.
Intel コアCPU
インテル® Core® シリーズは、Intel の高性能プロセッサー製品群である。ラインナップには、Core i3(エントリーレベル)、Core i5(ミッドレンジ)、Core i7(ハイエンド)、Core i9(エクストリームパフォーマンス)がある。各シリーズは、日常的なタスクから要求の厳しいプロフェッショナルなワークロードまで、さまざまなコンピューティングニーズと予算に対応しています。新しい世代になるごとに、パフォーマンス、エネルギー効率、機能が改善されています。
以下のベンチマークは第12世代Intel® Core® i9-12900KSで実行されていますCPU FP32 精度で。

モデル | フォーマット | ステータス | サイズ (MB) | メトリック/mAP50-95(B) | 推論時間(ms/im) |
---|---|---|---|---|---|
YOLO11n | PyTorch | ✅ | 5.4 | 0.61 | 28.73 |
YOLO11n | TorchScript | ✅ | 10.5 | 0.6082 | 36.27 |
YOLO11n | ONNX | ✅ | 10.2 | 0.6082 | 19.62 |
YOLO11n | OpenVINO | ✅ | 10.4 | 0.6082 | 12.72 |
YOLO11s | PyTorch | ✅ | 18.4 | 0.7526 | 35.28 |
YOLO11s | TorchScript | ✅ | 36.6 | 0.74 | 54.57 |
YOLO11s | ONNX | ✅ | 36.3 | 0.74 | 37.91 |
YOLO11s | OpenVINO | ✅ | 36.4 | 0.74 | 34.38 |
YOLO11m | PyTorch | ✅ | 38.8 | 0.7598 | 82.46 |
YOLO11m | TorchScript | ✅ | 77.3 | 0.7643 | 121.66 |
YOLO11m | ONNX | ✅ | 76.9 | 0.7643 | 87.21 |
YOLO11m | OpenVINO | ✅ | 77.1 | 0.7643 | 78.94 |
YOLO11l | PyTorch | ✅ | 49.0 | 0.743 | 111.51 |
YOLO11l | TorchScript | ✅ | 97.7 | 0.725 | 161.36 |
YOLO11l | ONNX | ✅ | 97.0 | 0.725 | 109.23 |
YOLO11l | OpenVINO | ✅ | 97.3 | 0.725 | 100.42 |
YOLO11x | PyTorch | ✅ | 109.3 | 0.8288 | 241.93 |
YOLO11x | TorchScript | ✅ | 218.1 | 0.8308 | 307.04 |
YOLO11x | ONNX | ✅ | 217.5 | 0.8308 | 205.75 |
YOLO11x | OpenVINO | ✅ | 217.8 | 0.8308 | 211.69 |
インテル® Core™ ウルトラ
インテル® Core™ Ultra™ シリーズは、ゲーマーやクリエイターからAIを活用するプロフェッショナルまで、現代のユーザーの進化するニーズに応えるよう設計された、ハイパフォーマンスコンピューティングの新たなベンチマークです。この次世代ラインナップは、従来のラインナップにとどまりません。 CPU シリーズ;強力なCPU コア、統合された高性能GPU 機能と専用のニューラル プロセッシング ユニット (NPU) を 1 つのチップ内に統合し、多様で集中的なコンピューティング ワークロードに対応する統合ソリューションを提供します。
インテル® Core™ Ultra™ アーキテクチャーの中核は、従来の処理タスクで優れたパフォーマンスを実現するハイブリッド設計です。 GPUワークロードの高速化、AIを活用した運用など、幅広いアプリケーションで活用できます。NPUの搭載により、デバイス上でのAI推論が強化され、より高速で効率的な機械学習とデータ処理が幅広いアプリケーションで実現します。
Core Ultra™ファミリーには、さまざまなパフォーマンスニーズに合わせてカスタマイズされた様々なモデルがあり、省電力設計から「H」マークの付いた高出力モデルまで、幅広いオプションが用意されています。これは、高度なコンピューティングパワーを必要とするノートパソコンやコンパクトなフォームファクターに最適です。ラインナップ全体を通して、ユーザーは以下の相乗効果を享受できます。 CPU 、 GPU 、NPU 統合により、優れた効率性、応答性、マルチタスク機能を実現します。
の一環としてIntel Core Ultra™シリーズは、継続的なイノベーションによって、未来を見据えたコンピューティングの新たなスタンダードを確立しました。複数のモデルが用意されており、さらに新しいモデルも登場予定であるこのシリーズは、 Intelは、次世代のインテリジェントな AI 強化デバイス向けに最先端のソリューションを提供するというコミットメントを果たします。
以下のベンチマークは、FP32 および INT8 精度で Intel® Core™ Ultra™ 7 258V で実行されます。
インテル® Core™ Ultra™ 7 258V
ベンチマーク
モデル | フォーマット | 精密 | ステータス | サイズ (MB) | メトリック/mAP50-95(B) | 推論時間(ms/im) |
---|---|---|---|---|---|---|
YOLO11n | PyTorch | FP32 | ✅ | 5.4 | 0.6316 | 39.52 |
YOLO11n | OpenVINO | FP32 | ✅ | 10.4 | 0.6112 | 19.59 |
YOLO11n | OpenVINO | INT8 | ✅ | 3.3 | 0.6219 | 14.43 |
YOLO11s | PyTorch | FP32 | ✅ | 18.4 | 0.7469 | 104.09 |
YOLO11s | OpenVINO | FP32 | ✅ | 36.4 | 0.7414 | 16.274 |
YOLO11s | OpenVINO | INT8 | ✅ | 9.8 | 0.7086 | 19.436 |
YOLO11m | PyTorch | FP32 | ✅ | 38.8 | 0.7642 | 286.281 |
YOLO11m | OpenVINO | FP32 | ✅ | 77.1 | 0.7642 | 18.69 |
YOLO11m | OpenVINO | INT8 | ✅ | 20.2 | 0.7445 | 21.74 |
YOLO11l | PyTorch | FP32 | ✅ | 49.0 | 0.7401 | 352.25 |
YOLO11l | OpenVINO | FP32 | ✅ | 97.3 | 0.7264 | 31.90 |
YOLO11l | OpenVINO | INT8 | ✅ | 25.7 | 0.7376 | 25.64 |
YOLO11x | PyTorch | FP32 | ✅ | 109.3 | 0.8467 | 731.15 |
YOLO11x | OpenVINO | FP32 | ✅ | 217.8 | 0.8308 | 45.12 |
YOLO11x | OpenVINO | INT8 | ✅ | 55.9 | 0.8156 | 32.57 |

モデル | フォーマット | 精密 | ステータス | サイズ (MB) | メトリック/mAP50-95(B) | 推論時間(ms/im) |
---|---|---|---|---|---|---|
YOLO11n | PyTorch | FP32 | ✅ | 5.4 | 0.6316 | 39.52 |
YOLO11n | OpenVINO | FP32 | ✅ | 10.4 | 0.6082 | 30.21 |
YOLO11n | OpenVINO | INT8 | ✅ | 3.3 | 0.6256 | 17.98 |
YOLO11s | PyTorch | FP32 | ✅ | 18.4 | 0.7469 | 104.09 |
YOLO11s | OpenVINO | FP32 | ✅ | 36.4 | 0.7400 | 81.09 |
YOLO11s | OpenVINO | INT8 | ✅ | 9.8 | 0.7488 | 41.04 |
YOLO11m | PyTorch | FP32 | ✅ | 38.8 | 0.7642 | 286.28 |
YOLO11m | OpenVINO | FP32 | ✅ | 77.1 | 0.7642 | 204.31 |
YOLO11m | OpenVINO | INT8 | ✅ | 20.2 | 0.7504 | 109.51 |
YOLO11l | PyTorch | FP32 | ✅ | 49.0 | 0.7401 | 352.25 |
YOLO11l | OpenVINO | FP32 | ✅ | 97.3 | 0.7249 | 319.97 |
YOLO11l | OpenVINO | INT8 | ✅ | 25.7 | 0.7318 | 136.44 |
YOLO11x | PyTorch | FP32 | ✅ | 109.3 | 0.8467 | 731.15 |
YOLO11x | OpenVINO | FP32 | ✅ | 217.8 | 0.8308 | 742.98 |
YOLO11x | OpenVINO | INT8 | ✅ | 55.9 | 0.819 | 288.02 |

モデル | フォーマット | 精密 | ステータス | サイズ (MB) | メトリック/mAP50-95(B) | 推論時間(ms/im) |
---|---|---|---|---|---|---|
YOLO11n | PyTorch | FP32 | ✅ | 5.4 | 0.6316 | 39.52 |
YOLO11n | OpenVINO | FP32 | ✅ | 10.4 | 0.6096 | 11.58 |
YOLO11n | OpenVINO | INT8 | ✅ | 3.3 | 0.6380 | 12.60 |
YOLO11s | PyTorch | FP32 | ✅ | 18.4 | 0.7469 | 104.09 |
YOLO11s | OpenVINO | FP32 | ✅ | 36.4 | 0.7430 | 15.15 |
YOLO11s | OpenVINO | INT8 | ✅ | 9.8 | 0.744 | 21.22 |
YOLO11m | PyTorch | FP32 | ✅ | 38.8 | 0.7642 | 286.28 |
YOLO11m | OpenVINO | FP32 | ✅ | 77.1 | 0.7642 | 32.92 |
YOLO11m | OpenVINO | INT8 | ✅ | 20.2 | 0.7445 | 21.74 |
YOLO11l | PyTorch | FP32 | ✅ | 49.0 | 0.7401 | 352.25 |
YOLO11l | OpenVINO | FP32 | ✅ | 97.3 | 0.7264 | 43.15 |
YOLO11l | OpenVINO | INT8 | ✅ | 25.7 | 0.7313 | 42.27 |
YOLO11x | PyTorch | FP32 | ✅ | 109.3 | 0.8467 | 731.15 |
YOLO11x | OpenVINO | FP32 | ✅ | 217.8 | 0.8308 | 74.33 |
YOLO11x | OpenVINO | INT8 | ✅ | 55.9 | 0.8211 | 59.41 |

結果を再現する
上記のUltralytics のベンチマークをすべてのエクスポートフォーマットで再現するには、以下のコードを実行してください:
例
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Benchmark YOLO11n speed and accuracy on the COCO8 dataset for all export formats
results = model.benchmark(data="coco8.yaml")
# Benchmark YOLO11n speed and accuracy on the COCO8 dataset for all export formats
yolo benchmark model=yolo11n.pt data=coco8.yaml
ベンチマークの結果は、システムの正確なハードウェアとソフトウェアの構成、およびベンチマークの実行時のシステムの現在の作業負荷によって異なる可能性があることに注意してください。最も信頼性の高い結果を得るには、画像数の多いデータセットを使用します。 data='coco128.yaml'
(または data='coco.yaml'
(5000バル画像)。
結論
ベンチマークの結果は、輸出の利点を明確に示しています。 YOLO11 モデルにOpenVINO フォーマット。異なるモデルやハードウェアプラットフォーム間で、 OpenVINO この形式は、同等の精度を維持しながら、推論速度の点で一貫して他の形式を上回ります。
ベンチマークは、ディープラーニングモデルを展開するツールとしてのOpenVINO の有効性を強調しています。モデルをOpenVINO 形式に変換することで、開発者は大幅な性能向上を達成することができ、これらのモデルを実世界のアプリケーションに展開することが容易になります。
OpenVINO の詳しい情報や使用方法については、 OpenVINO の公式ドキュメントを参照してください。
よくあるご質問
エクスポートするにはどうすればいいですか? YOLO11 モデルをOpenVINO 形式?
エクスポートYOLO11 モデルをOpenVINO フォーマットは大幅に強化されますCPU スピードと有効化GPU NPUアクセラレーションIntel ハードウェア。エクスポートするには、 Python またはCLI 以下のように表示されます。
例
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Export the model
model.export(format="openvino") # creates 'yolo11n_openvino_model/'
# Export a YOLO11n PyTorch model to OpenVINO format
yolo export model=yolo11n.pt format=openvino # creates 'yolo11n_openvino_model/'
詳細については、エクスポート・フォーマットのドキュメントを参照してください。
使用することのメリットは何ですか? OpenVINO とYOLO11 モデルですか?
使用IntelのOpenVINO ツールキット付きYOLO11 モデルにはいくつかの利点があります:
- パフォーマンス:CPU 推論で最大3倍のスピードアップを達成し、Intel GPUとNPUをアクセラレーションに活用。
- モデル・オプティマイザー:PyTorch 、TensorFlow 、ONNX のような一般的なフレームワークからモデルを変換、最適化、実行します。
- 使いやすさ: 80以上のチュートリアルノートブックが用意されており、ユーザーが使い始めるのに役立ちます。 YOLO11 。
- ヘテロジニアス実行:統一された API を使用して、さまざまなIntel ハードウェア上にモデルを展開します。
詳細な性能比較については、ベンチマークセクションをご覧ください。
推論を実行するにはどうすればいいですか? YOLO11 モデルをエクスポートOpenVINO ?
YOLO11nモデルをエクスポートした後OpenVINO 形式では、推論を実行することができますPython またはCLI :
例
from ultralytics import YOLO
# Load the exported OpenVINO model
ov_model = YOLO("yolo11n_openvino_model/")
# Run inference
results = ov_model("https://ultralytics.com/images/bus.jpg")
# Run inference with the exported model
yolo predict model=yolo11n_openvino_model source='https://ultralytics.com/images/bus.jpg'
詳細については、予測モードのドキュメントを参照してください。
なぜ選ぶべきなのかUltralytics YOLO11 他のモデルよりもOpenVINO 輸出?
Ultralytics YOLO11 高精度かつ高速なリアルタイム物体検出に最適化されています。具体的には、 OpenVINO 、 YOLO11 提供するもの:
- Intel CPUで最大3倍のスピードアップ
- Intel GPUおよびNPUへのシームレスな展開
- 様々なエクスポートフォーマットで一貫した同等の精度
詳細なパフォーマンス分析については、さまざまなハードウェアでの詳細なYOLO11ベンチマークを確認してください。
ベンチマークできますかYOLO11 さまざまな形式のモデル、例えばPyTorch 、 ONNX 、 そしてOpenVINO ?
はい、ベンチマークできますYOLO11 さまざまな形式のモデルを含むPyTorch 、 TorchScript 、 ONNX 、 そしてOpenVINO選択したデータセットでベンチマークを実行するには、次のコード スニペットを使用します。
例
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Benchmark YOLO11n speed and [accuracy](https://www.ultralytics.com/glossary/accuracy) on the COCO8 dataset for all export formats
results = model.benchmark(data="coco8.yaml")
# Benchmark YOLO11n speed and accuracy on the COCO8 dataset for all export formats
yolo benchmark model=yolo11n.pt data=coco8.yaml
詳細なベンチマーク結果については、ベンチマークセクションおよびエクスポートフォーマットのドキュメントを参照してください。