Intel OpenVINO التصدير
في هذا الدليل، نغطي التصدير YOLO11 نماذج إلى تنسيق OpenVINO ، والتي يمكن أن توفر تسريع CPU بما يصل إلى 3 أضعاف، بالإضافة إلى تسريع YOLO الاستدلال على Intel أجهزة GPU و NPU .
OpenVINOوهي اختصار لـ Open Visual Inference & Neural Network Optimization Toolkit، وهي مجموعة أدوات شاملة لتحسين ونشر نماذج الاستدلال بالذكاء الاصطناعي. على الرغم من أن الاسم يحتوي على Visual، إلا أن OpenVINO يدعم أيضًا العديد من المهام الإضافية المختلفة بما في ذلك اللغة والصوت والسلاسل الزمنية وما إلى ذلك.
شاهد: كيفية تصدير وتحسين نموذج Ultralytics YOLOv8 للاستدلال باستخدام OpenVINO.
أمثلة على الاستخدام
تصدير نموذج YOLO11n إلى OpenVINO تنسيق وتشغيل الاستدلال باستخدام النموذج المُصدَّر.
مثال على ذلك
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Export the model
model.export(format="openvino") # creates 'yolo11n_openvino_model/'
# Load the exported OpenVINO model
ov_model = YOLO("yolo11n_openvino_model/")
# Run inference
results = ov_model("https://ultralytics.com/images/bus.jpg")
# Run inference with specified device, available devices: ["intel:gpu", "intel:npu", "intel:cpu"]
results = ov_model("https://ultralytics.com/images/bus.jpg", device="intel:gpu")
# Export a YOLO11n PyTorch model to OpenVINO format
yolo export model=yolo11n.pt format=openvino # creates 'yolo11n_openvino_model/'
# Run inference with the exported model
yolo predict model=yolo11n_openvino_model source='https://ultralytics.com/images/bus.jpg'
# Run inference with specified device, available devices: ["intel:gpu", "intel:npu", "intel:cpu"]
yolo predict model=yolo11n_openvino_model source='https://ultralytics.com/images/bus.jpg' device="intel:gpu"
حجج التصدير
الجدال | النوع | افتراضي | الوصف |
---|---|---|---|
format |
str |
'openvino' |
التنسيق المستهدف للنموذج المُصدَّر، وتحديد التوافق مع بيئات النشر المختلفة. |
imgsz |
int أو tuple |
640 |
حجم الصورة المطلوب لإدخال النموذج. يمكن أن يكون عددًا صحيحًا للصور المربعة أو مضاعفًا (height, width) لأبعاد محددة. |
half |
bool |
False |
تمكين تكميم FP16 (نصف دقة)، مما يقلل من حجم النموذج وربما يسرع الاستدلال على الأجهزة المدعومة. |
int8 |
bool |
False |
ينشّط التكميم INT8، مما يزيد من ضغط النموذج ويسرّع عملية الاستدلال بأقل خسارة في الدقة، خاصةً للأجهزة الطرفية. |
dynamic |
bool |
False |
يسمح بأحجام إدخال ديناميكية، مما يعزز المرونة في التعامل مع أبعاد الصور المختلفة. |
nms |
bool |
False |
يضيف الكبت غير الأقصى (NMS)، وهو أمر ضروري للكشف الدقيق والفعال بعد المعالجة. |
batch |
int |
1 |
يحدد حجم الاستدلال على دفعة نموذج التصدير أو الحد الأقصى لعدد الصور التي سيعالجها النموذج المُصدَّر في نفس الوقت في predict الوضع. |
data |
str |
'coco8.yaml' |
الطريق إلى مجموعة البيانات ملف التكوين (افتراضي: coco8.yaml )، ضروري للتقدير الكمي. |
fraction |
float |
1.0 |
يحدد جزءًا من مجموعة البيانات المراد استخدامها لمعايرة INT8 الكمية. يسمح بالمعايرة على مجموعة فرعية من مجموعة البيانات الكاملة، وهو أمر مفيد للتجارب أو عندما تكون الموارد محدودة. إذا لم يتم تحديده مع تمكين INT8، فسيتم استخدام مجموعة البيانات الكاملة. |
لمزيد من التفاصيل حول عملية التصدير، يرجى زيارة صفحة التوثيقUltralytics الخاصة بالتصدير.
تحذير
يعد OpenVINO™ متوافقًا مع معظم معالجات Intel® ولكن لضمان الأداء الأمثل:
-
التحقق من دعم OpenVINO™ تحقق مما إذا كانت شريحة Intel® الخاصة بك مدعومة رسميًا بواسطة OpenVINO™ باستخدام قائمة التوافق الخاصة بشركة Intel .
-
حدد المسرع الخاص بك حدد ما إذا كان المعالج الخاص بك يتضمن وحدة معالجة عصبية (NPU) متكاملة أم لا GPU (مدمج GPU ) من خلال استشارة دليل الأجهزة الخاص بشركة Intel .
-
قم بتثبيت أحدث برامج التشغيل إذا كانت الشريحة الخاصة بك تدعم وحدة NPU أو GPU إذا لم يكتشف OpenVINO™ المشكلة، فقد تحتاج إلى تثبيت أو تحديث برامج التشغيل المرتبطة. اتبع تعليمات تثبيت برنامج التشغيل لتمكين التسريع الكامل.
من خلال اتباع هذه الخطوات الثلاث، يمكنك التأكد من تشغيل OpenVINO™ بشكل مثالي على أجهزة Intel® الخاصة بك.
فوائد OpenVINO
- الأداء: OpenVINO يوفر استنتاجاً عالي الأداء من خلال الاستفادة من قوة وحدات المعالجة المركزية Intel ووحدات معالجة الرسومات المدمجة والمنفصلة ووحدات معالجة الرسومات FPGA.
- دعم التنفيذ غير المتجانس: OpenVINO يوفر واجهة برمجة تطبيقات للكتابة مرة واحدة والنشر على أي أجهزة Intel مدعومة (CPU ، GPU ، FPGA، VPU، إلخ).
- مُحسِّن النماذج: OpenVINO يوفر مُحسِّن النماذج الذي يقوم باستيراد النماذج وتحويلها وتحسينها من أطر التعلم العميق الشائعة مثل PyTorch, TensorFlowTensorFlow Lite و Keras و ONNX و PaddlePaddle و Caffe.
- سهولة الاستخدام: تأتي مجموعة الأدوات مع أكثر من 80 دفتر ملاحظات تعليمي (بما في ذلك التحسينYOLOv8 ) لتعليم جوانب مختلفة من مجموعة الأدوات.
OpenVINO هيكل التصدير
عند تصدير نموذج إلى تنسيق OpenVINO ، ينتج عن ذلك دليل يحتوي على ما يلي:
- ملف XML: يصف طوبولوجيا الشبكة.
- ملف BIN: يحتوي على البيانات الثنائية weights and biases .
- ملف التعيين: يحتفظ بتعيين مجلدات مخرجات النموذج الأصلي إلى OpenVINO tensor الأسماء.
يمكنك استخدام هذه الملفات لتشغيل الاستدلال باستخدام محرك الاستدلال OpenVINO .
استخدام OpenVINO التصدير في النشر
بمجرد تصدير النموذج الخاص بك بنجاح إلى OpenVINO التنسيق، لديك خياران رئيسيان لتشغيل الاستدلال:
-
استخدم
ultralytics
الحزمة، التي توفر واجهة برمجة تطبيقات عالية المستوى وتغلف OpenVINO وقت التشغيل. -
استخدم الأصلي
openvino
حزمة للتحكم بشكل أكثر تقدمًا أو تخصيصًا في سلوك الاستدلال.
الاستدلال مع Ultralytics
ال ultralytics تتيح لك الحزمة تشغيل الاستدلال بسهولة باستخدام المصدر OpenVINO نموذج عبر طريقة التنبؤ. يمكنك أيضًا تحديد الجهاز المستهدف (مثلًا، intel:gpu
, intel:npu
, intel:cpu
) باستخدام وسيطة الجهاز.
from ultralytics import YOLO
# Load the exported OpenVINO model
ov_model = YOLO("yolo11n_openvino_model/") # the path of your exported OpenVINO model
# Run inference with the exported model
ov_model.predict(device="intel:gpu") # specify the device you want to run inference on
يعد هذا النهج مثاليًا للنماذج الأولية السريعة أو النشر عندما لا تحتاج إلى التحكم الكامل في خط أنابيب الاستدلال.
الاستدلال مع OpenVINO وقت التشغيل
ال openvino يوفر وقت التشغيل واجهة برمجة تطبيقات موحدة للاستدلال عبر جميع الأنظمة المدعومة Intel الأجهزة. كما يوفر أيضًا إمكانيات متقدمة مثل موازنة التحميل عبر Intel التنفيذ غير المتزامن والعتادي. لمزيد من المعلومات حول تشغيل الاستدلال، راجع دفاتر YOLO11 .
تذكّر أنك ستحتاج إلى ملفات XML و BIN بالإضافة إلى أي إعدادات خاصة بالتطبيق مثل حجم الإدخال، ومعامل القياس للتطبيع، وما إلى ذلك، لإعداد النموذج واستخدامه بشكل صحيح مع وقت التشغيل.
في تطبيق النشر الخاص بك، عادةً ما تقوم بالخطوات التالية:
- تهيئة OpenVINO بإنشاء عن طريق إنشاء
core = Core()
. - قم بتحميل النموذج باستخدام
core.read_model()
الطريقة. - قم بتجميع النموذج باستخدام
core.compile_model()
الوظيفة. - قم بإعداد المدخلات (صورة، نص، نص، صوت، إلخ).
- تشغيل الاستدلال باستخدام
compiled_model(input_data)
.
للمزيد من الخطوات التفصيلية ومقتطفات التعليمات البرمجية، راجع وثائقOpenVINO أو البرنامج التعليمي لواجهة برمجة التطبيقات.
OpenVINO YOLO11 المعايير
ال Ultralytics الفريق الذي تم تقييمه YOLO11 عبر تنسيقات النماذج المختلفة والدقة ، وتقييم السرعة والدقة على مختلف Intel الأجهزة المتوافقة مع OpenVINO .
ملاحظة
نتائج القياس المرجعية أدناه هي للإشارة وقد تختلف بناءً على التكوين الدقيق للأجهزة والبرامج الخاصة بالنظام، بالإضافة إلى عبء العمل الحالي للنظام في وقت تشغيل المعايير.
يتم تشغيل جميع المعايير باستخدام openvino
Python إصدار الحزمة 2025.1.0.
Intel الأساسيات CPU
سلسلة Intel® Core® Core® هي مجموعة من المعالجات عالية الأداء من Intel. وتتضمن المجموعة Core i3 (مستوى المبتدئين)، و Core i5 (متوسط المدى)، و Core i7 (عالي الأداء)، و Core i9 (أداء فائق). تلبي كل سلسلة احتياجات وميزانيات الحوسبة المختلفة، بدءًا من المهام اليومية إلى أعباء العمل الاحترافية الصعبة. مع كل جيل جديد، يتم إجراء تحسينات على الأداء وكفاءة الطاقة والميزات.
تعمل المعايير أدناه على معالج Intel® Core® i9-12900KS من الجيل الثاني عشر CPU بدقة FP32.

الطراز | التنسيق | الحالة | الحجم (ميغابايت) | المقاييس/خطة العمل 50-95 (ب) | زمن الاستدلال (م/م) |
---|---|---|---|---|---|
يولو 11 ن | PyTorch | ✅ | 5.4 | 0.61 | 28.73 |
يولو 11 ن | TorchScript | ✅ | 10.5 | 0.6082 | 36.27 |
يولو 11 ن | ONNX | ✅ | 10.2 | 0.6082 | 19.62 |
يولو 11 ن | OpenVINO | ✅ | 10.4 | 0.6082 | 12.72 |
YOLO11s | PyTorch | ✅ | 18.4 | 0.7526 | 35.28 |
YOLO11s | TorchScript | ✅ | 36.6 | 0.74 | 54.57 |
YOLO11s | ONNX | ✅ | 36.3 | 0.74 | 37.91 |
YOLO11s | OpenVINO | ✅ | 36.4 | 0.74 | 34.38 |
يولو 11 م | PyTorch | ✅ | 38.8 | 0.7598 | 82.46 |
يولو 11 م | TorchScript | ✅ | 77.3 | 0.7643 | 121.66 |
يولو 11 م | ONNX | ✅ | 76.9 | 0.7643 | 87.21 |
يولو 11 م | OpenVINO | ✅ | 77.1 | 0.7643 | 78.94 |
يولو 11ل | PyTorch | ✅ | 49.0 | 0.743 | 111.51 |
يولو 11ل | TorchScript | ✅ | 97.7 | 0.725 | 161.36 |
يولو 11ل | ONNX | ✅ | 97.0 | 0.725 | 109.23 |
يولو 11ل | OpenVINO | ✅ | 97.3 | 0.725 | 100.42 |
يولو11x | PyTorch | ✅ | 109.3 | 0.8288 | 241.93 |
يولو11x | TorchScript | ✅ | 218.1 | 0.8308 | 307.04 |
يولو11x | ONNX | ✅ | 217.5 | 0.8308 | 205.75 |
يولو11x | OpenVINO | ✅ | 217.8 | 0.8308 | 211.69 |
إنتل® كور™ ألترا
تُمثل سلسلة Intel® Core™ Ultra™ معيارًا جديدًا في الحوسبة عالية الأداء، وهي مصممة لتلبية المتطلبات المتطورة للمستخدمين المعاصرين، من اللاعبين والمبدعين إلى المحترفين الذين يستخدمون الذكاء الاصطناعي. هذه التشكيلة من الجيل التالي تتجاوز مجرد تشكيلة تقليدية CPU سلسلة؛ فهي تجمع بين القوة CPU النوى المتكاملة عالية الأداء GPU وتتضمن شريحة واحدة قدرات معالجة عصبية مخصصة (NPU)، مما يوفر حلاً موحدًا لأحمال العمل الحاسوبية المتنوعة والمكثفة.
يوجد في قلب بنية Intel® Core Ultra™ تصميم هجين يتيح أداءً استثنائيًا عبر مهام المعالجة التقليدية، GPU - تسريع أحمال العمل، وعمليات تعتمد على الذكاء الاصطناعي. يُحسّن تضمين وحدة المعالجة العصبية (NPU) استدلال الذكاء الاصطناعي على الجهاز، مما يُتيح تعلمًا آليًا ومعالجة بيانات أسرع وأكثر كفاءة عبر مجموعة واسعة من التطبيقات.
تتضمن عائلة Core Ultra™ طُرزًا متنوعة مصممة لتلبية احتياجات الأداء المختلفة، مع خيارات تتراوح من التصاميم الموفرة للطاقة إلى الطُرز عالية الطاقة التي تحمل علامة "H"، وهي مثالية لأجهزة الكمبيوتر المحمولة والصغيرة الحجم التي تتطلب قوة حوسبة هائلة. يستفيد المستخدمون من تضافر جهود CPU ، GPU ، وتكامل NPU، مما يوفر كفاءة ملحوظة واستجابة وقدرات متعددة المهام.
كجزء من Intel مع استمرار ابتكارات 'كور ألترا'، تُرسي سلسلة 'كور ألترا' معيارًا جديدًا للحوسبة المُجهّزة للمستقبل. مع توفر طُرز مُتعددة والمزيد في الأفق، تُؤكد هذه السلسلة على Intel التزامها بتقديم حلول متطورة للجيل القادم من الأجهزة الذكية المعززة بالذكاء الاصطناعي.
تعمل المعايير التالية على Intel® Core™ Ultra™ 7 258V بدقة FP32 وINT8.
Intel® Core™ Ultra™ 7 258V
المعايير
الطراز | التنسيق | الدقة | الحالة | الحجم (ميغابايت) | المقاييس/خطة العمل 50-95 (ب) | زمن الاستدلال (م/م) |
---|---|---|---|---|---|---|
يولو 11 ن | PyTorch | FP32 | ✅ | 5.4 | 0.6316 | 39.52 |
يولو 11 ن | OpenVINO | FP32 | ✅ | 10.4 | 0.6112 | 19.59 |
يولو 11 ن | OpenVINO | INT8 | ✅ | 3.3 | 0.6219 | 14.43 |
YOLO11s | PyTorch | FP32 | ✅ | 18.4 | 0.7469 | 104.09 |
YOLO11s | OpenVINO | FP32 | ✅ | 36.4 | 0.7414 | 16.274 |
YOLO11s | OpenVINO | INT8 | ✅ | 9.8 | 0.7086 | 19.436 |
يولو 11 م | PyTorch | FP32 | ✅ | 38.8 | 0.7642 | 286.281 |
يولو 11 م | OpenVINO | FP32 | ✅ | 77.1 | 0.7642 | 18.69 |
يولو 11 م | OpenVINO | INT8 | ✅ | 20.2 | 0.7445 | 21.74 |
يولو 11ل | PyTorch | FP32 | ✅ | 49.0 | 0.7401 | 352.25 |
يولو 11ل | OpenVINO | FP32 | ✅ | 97.3 | 0.7264 | 31.90 |
يولو 11ل | OpenVINO | INT8 | ✅ | 25.7 | 0.7376 | 25.64 |
يولو11x | PyTorch | FP32 | ✅ | 109.3 | 0.8467 | 731.15 |
يولو11x | OpenVINO | FP32 | ✅ | 217.8 | 0.8308 | 45.12 |
يولو11x | OpenVINO | INT8 | ✅ | 55.9 | 0.8156 | 32.57 |

الطراز | التنسيق | الدقة | الحالة | الحجم (ميغابايت) | المقاييس/خطة العمل 50-95 (ب) | زمن الاستدلال (م/م) |
---|---|---|---|---|---|---|
يولو 11 ن | PyTorch | FP32 | ✅ | 5.4 | 0.6316 | 39.52 |
يولو 11 ن | OpenVINO | FP32 | ✅ | 10.4 | 0.6082 | 30.21 |
يولو 11 ن | OpenVINO | INT8 | ✅ | 3.3 | 0.6256 | 17.98 |
YOLO11s | PyTorch | FP32 | ✅ | 18.4 | 0.7469 | 104.09 |
YOLO11s | OpenVINO | FP32 | ✅ | 36.4 | 0.7400 | 81.09 |
YOLO11s | OpenVINO | INT8 | ✅ | 9.8 | 0.7488 | 41.04 |
يولو 11 م | PyTorch | FP32 | ✅ | 38.8 | 0.7642 | 286.28 |
يولو 11 م | OpenVINO | FP32 | ✅ | 77.1 | 0.7642 | 204.31 |
يولو 11 م | OpenVINO | INT8 | ✅ | 20.2 | 0.7504 | 109.51 |
يولو 11ل | PyTorch | FP32 | ✅ | 49.0 | 0.7401 | 352.25 |
يولو 11ل | OpenVINO | FP32 | ✅ | 97.3 | 0.7249 | 319.97 |
يولو 11ل | OpenVINO | INT8 | ✅ | 25.7 | 0.7318 | 136.44 |
يولو11x | PyTorch | FP32 | ✅ | 109.3 | 0.8467 | 731.15 |
يولو11x | OpenVINO | FP32 | ✅ | 217.8 | 0.8308 | 742.98 |
يولو11x | OpenVINO | INT8 | ✅ | 55.9 | 0.819 | 288.02 |

الطراز | التنسيق | الدقة | الحالة | الحجم (ميغابايت) | المقاييس/خطة العمل 50-95 (ب) | زمن الاستدلال (م/م) |
---|---|---|---|---|---|---|
يولو 11 ن | PyTorch | FP32 | ✅ | 5.4 | 0.6316 | 39.52 |
يولو 11 ن | OpenVINO | FP32 | ✅ | 10.4 | 0.6096 | 11.58 |
يولو 11 ن | OpenVINO | INT8 | ✅ | 3.3 | 0.6380 | 12.60 |
YOLO11s | PyTorch | FP32 | ✅ | 18.4 | 0.7469 | 104.09 |
YOLO11s | OpenVINO | FP32 | ✅ | 36.4 | 0.7430 | 15.15 |
YOLO11s | OpenVINO | INT8 | ✅ | 9.8 | 0.744 | 21.22 |
يولو 11 م | PyTorch | FP32 | ✅ | 38.8 | 0.7642 | 286.28 |
يولو 11 م | OpenVINO | FP32 | ✅ | 77.1 | 0.7642 | 32.92 |
يولو 11 م | OpenVINO | INT8 | ✅ | 20.2 | 0.7445 | 21.74 |
يولو 11ل | PyTorch | FP32 | ✅ | 49.0 | 0.7401 | 352.25 |
يولو 11ل | OpenVINO | FP32 | ✅ | 97.3 | 0.7264 | 43.15 |
يولو 11ل | OpenVINO | INT8 | ✅ | 25.7 | 0.7313 | 42.27 |
يولو11x | PyTorch | FP32 | ✅ | 109.3 | 0.8467 | 731.15 |
يولو11x | OpenVINO | FP32 | ✅ | 217.8 | 0.8308 | 74.33 |
يولو11x | OpenVINO | INT8 | ✅ | 55.9 | 0.8211 | 59.41 |

إعادة إنتاج نتائجنا
لإعادة إنتاج معايير Ultralytics أعلاه على جميع تنسيقات التصدير قم بتشغيل هذا الرمز:
مثال على ذلك
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Benchmark YOLO11n speed and accuracy on the COCO8 dataset for all export formats
results = model.benchmark(data="coco8.yaml")
# Benchmark YOLO11n speed and accuracy on the COCO8 dataset for all export formats
yolo benchmark model=yolo11n.pt data=coco8.yaml
لاحظ أن نتائج القياس المعياري قد تختلف بناءً على التكوين الدقيق للأجهزة والبرمجيات الخاصة بالنظام، بالإضافة إلى عبء العمل الحالي للنظام في وقت تشغيل المعايير. للحصول على نتائج أكثر موثوقية استخدم مجموعة بيانات تحتوي على عدد كبير من الصور، أي data='coco128.yaml'
(128 صورة ذات قيمة 128 فال)، أو data='coco.yaml'
(5000 صورة فالي).
الخاتمة
وتوضح نتائج المقارنة بوضوح فوائد التصدير YOLO11 نموذج ل OpenVINO التنسيق. عبر نماذج ومنصات أجهزة مختلفة، OpenVINO يتفوق التنسيق باستمرار على التنسيقات الأخرى من حيث سرعة الاستدلال مع الحفاظ على دقة قابلة للمقارنة.
تؤكد المعايير على فعالية OpenVINO كأداة لنشر نماذج التعلم العميق. من خلال تحويل النماذج إلى تنسيق OpenVINO ، يمكن للمطورين تحقيق تحسينات كبيرة في الأداء، مما يسهل نشر هذه النماذج في تطبيقات العالم الحقيقي.
لمزيد من المعلومات والإرشادات التفصيلية حول استخدام OpenVINO ، راجع الوثائق الرسمية OpenVINO .
الأسئلة الشائعة
كيف أقوم بالتصدير YOLO11 نماذج ل OpenVINO شكل؟
تصدير YOLO11 نماذج إلى OpenVINO يمكن أن يعزز التنسيق بشكل كبير CPU السرعة والتمكين GPU وتسريعات NPU على Intel الأجهزة. للتصدير، يمكنك استخدام أيٍّ من Python أو CLI كما هو موضح أدناه:
مثال على ذلك
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Export the model
model.export(format="openvino") # creates 'yolo11n_openvino_model/'
# Export a YOLO11n PyTorch model to OpenVINO format
yolo export model=yolo11n.pt format=openvino # creates 'yolo11n_openvino_model/'
لمزيد من المعلومات، راجع وثائق تنسيقات التصدير.
ما هي فوائد استخدام OpenVINO مع YOLO11 نماذج؟
استخدام Intel 'س OpenVINO مجموعة أدوات مع YOLO11 تقدم النماذج العديد من الفوائد:
- الأداء: تحقيق تسريع يصل إلى 3 أضعاف في الاستدلال CPU والاستفادة من وحدات معالجة الرسومات Intel ووحدات المعالجة العصبية للتسريع.
- مُحسِّن النماذج: تحويل النماذج وتحسينها وتنفيذها من أطر العمل الشائعة مثل PyTorch و TensorFlow و ONNX.
- سهولة الاستخدام : يتوفر أكثر من 80 دفترًا تعليميًا لمساعدة المستخدمين على البدء، بما في ذلك تلك الخاصة بـ YOLO11 .
- تنفيذ غير متجانس: نشر النماذج على أجهزة مختلفة Intel باستخدام واجهة برمجة تطبيقات موحدة.
للحصول على مقارنات مفصّلة للأداء، تفضل بزيارة قسم المعايير لدينا.
كيف يمكنني تشغيل الاستدلال باستخدام YOLO11 النموذج تم تصديره إلى OpenVINO ؟
بعد تصدير نموذج YOLO11n إلى OpenVINO التنسيق، يمكنك تشغيل الاستدلال باستخدام Python أو CLI :
مثال على ذلك
from ultralytics import YOLO
# Load the exported OpenVINO model
ov_model = YOLO("yolo11n_openvino_model/")
# Run inference
results = ov_model("https://ultralytics.com/images/bus.jpg")
# Run inference with the exported model
yolo predict model=yolo11n_openvino_model source='https://ultralytics.com/images/bus.jpg'
ارجع إلى وثائق الوضع التوقعي لمزيد من التفاصيل.
لماذا يجب علي أن أختار Ultralytics YOLO11 على النماذج الأخرى ل OpenVINO يصدّر؟
Ultralytics YOLO11 مُحسّن لاكتشاف الأجسام في الوقت الفعلي بدقة وسرعة عاليتين. تحديدًا، عند دمجه مع OpenVINO ، YOLO11 يوفر:
- تسريع يصل إلى 3 أضعاف السرعة على وحدات المعالجة المركزية Intel
- نشر سلس على وحدات معالجة الرسوميات ووحدات المعالجة العصبية Intel
- دقة متسقة وقابلة للمقارنة عبر تنسيقات التصدير المختلفة
لتحليل الأداء المتعمق، راجع معايير YOLO11 التفصيلية الخاصة بنا على أجهزة مختلفة.
هل يمكنني إجراء معايرة؟ YOLO11 نماذج بتنسيقات مختلفة مثل PyTorch ، ONNX ، و OpenVINO ؟
نعم، يمكنك إجراء معايرة YOLO11 نماذج في أشكال مختلفة بما في ذلك PyTorch ، TorchScript ، ONNX ، و OpenVINO استخدم مقتطف التعليمات البرمجية التالي لتشغيل معايير الأداء على مجموعة البيانات التي اخترتها:
مثال على ذلك
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Benchmark YOLO11n speed and [accuracy](https://www.ultralytics.com/glossary/accuracy) on the COCO8 dataset for all export formats
results = model.benchmark(data="coco8.yaml")
# Benchmark YOLO11n speed and accuracy on the COCO8 dataset for all export formats
yolo benchmark model=yolo11n.pt data=coco8.yaml
للحصول على نتائج معيارية مفصلة، راجع قسم المعايير ووثائق تنسيقات التصدير.