İçeriğe geç

YOLOv3 ve YOLOv3u

Genel Bakış

Bu belge, YOLOv3, YOLOv3-Ultralytics ve YOLOv3u olmak üzere yakından ilişkili üç nesne algılama modeline genel bir bakış sunmaktadır.

  1. YOLOv3: Bu, You Only Look Once (YOLO) nesne algılama algoritmasının üçüncü sürümüdür. Başlangıçta Joseph Redmon tarafından geliştirilen YOLOv3, çok ölçekli tahminler ve üç farklı boyutta algılama çekirdeği gibi özellikler sunarak öncekilerini geliştirdi.

  2. YOLOv3u: Bu, YOLOv8 modellerinde kullanılan ankraj içermeyen, nesne içermeyen bölünmüş başlığı içeren, güncellenmiş bir YOLOv3-Ultralytics sürümüdür. YOLOv3u, YOLOv3 ile aynı backbone ve boyun mimarisini korur, ancak YOLOv8'den güncellenmiş algılama başlığı ile birlikte.

Ultralytics YOLOv3

Temel Özellikler

  • YOLOv3: 13x13, 26x26 ve 52x52 olmak üzere üç farklı boyutta algılama çekirdeği kullanarak, algılama için üç farklı ölçek kullanımını tanıttı. Bu, farklı boyutlardaki nesneler için algılama doğruluğunu önemli ölçüde artırdı. Ek olarak, YOLOv3 her sınırlayıcı kutu için çok etiketli tahminler ve daha iyi bir özellik çıkarıcı ağ gibi özellikler ekledi.

  • YOLOv3u: Bu güncellenmiş model, YOLOv8'den ankrajsız, nesnesiz bölünmüş başlığı içerir. Önceden tanımlanmış ankraj kutularına ve nesnellik puanlarına olan ihtiyacı ortadan kaldırarak, bu algılama başlığı tasarımı modelin değişen boyut ve şekillerdeki nesneleri algılama yeteneğini geliştirebilir. Bu, YOLOv3u'yu nesne algılama görevleri için daha sağlam ve doğru hale getirir.

Desteklenen Görevler ve Modlar

YOLOv3 özellikle şunlar için tasarlanmıştır: nesne tespiti görevler. Ultralytics, YOLOv3'ün üç çeşidini destekler: yolov3u, yolov3-tinyu ve yolov3-sppu. Şunu u adındaki bu modellerin, orijinal mimarilerinin aksine, YOLOv8'in ankrajsız (anchor-free) başlığını kullandığını gösterir. Bu modeller, doğruluk ve hızı dengeleyerek çeşitli gerçek dünya senaryolarındaki etkinlikleriyle ünlüdür. Her bir varyant, benzersiz özellikler ve optimizasyonlar sunarak çeşitli uygulamalar için uygun hale gelir.

Her üç model de kapsamlı bir mod kümesini destekleyerek, model dağıtımının ve geliştirmenin çeşitli aşamalarında çok yönlülük sağlar. Bu modlar, kullanıcılara etkili nesne algılama için eksiksiz bir araç seti sağlayan Çıkarım, Doğrulama, Eğitim ve Dışa Aktarma içerir.

Model Türü Önceden Eğitilmiş Ağırlıklar Desteklenen Görevler Çıkarım Doğrulama Eğitim Dışa aktar
YOLOv3(u) yolov3u.pt Nesne Algılama
YOLOv3-Tiny(u) yolov3-tinyu.pt Nesne Algılama
YOLOv3u-SPP(u) yolov3-sppu.pt Nesne Algılama

Bu tablo, her YOLOv3 varyantının yeteneklerine ilişkin genel bir bakış sunarak, nesne algılama iş akışlarındaki çeşitli görevler ve çalışma modları için çok yönlülüklerini ve uygunluklarını vurgulamaktadır.

Kullanım Örnekleri

Bu örnek, basit YOLOv3 eğitimi ve çıkarım örnekleri sunar. Bunlar ve diğer modlar hakkında tam dokümantasyon için Tahmin, Eğitim, Değerlendirme ve Dışa Aktarma doküman sayfalarına bakın.

Örnek

PyTorch önceden eğitilmiş *.pt modellerin yanı sıra yapılandırma *.yaml dosyaları YOLO() python'da bir model örneği oluşturmak için sınıfa geçirilebilir:

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv3u model
model = YOLO("yolov3u.pt")

# Display model information (optional)
model.info()

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLOv3u model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

Modelleri doğrudan çalıştırmak için CLI komutları mevcuttur:

# Load a COCO-pretrained YOLOv3u model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov3u.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLOv3u model and run inference on the 'bus.jpg' image
yolo predict model=yolov3u.pt source=path/to/bus.jpg

Alıntılar ve Teşekkürler

Araştırmanızda YOLOv3 kullanıyorsanız, lütfen orijinal YOLO makalelerine ve Ultralytics YOLOv3 deposuna atıfta bulunun:

@article{redmon2018yolov3,
  title={YOLOv3: An Incremental Improvement},
  author={Redmon, Joseph and Farhadi, Ali},
  journal={arXiv preprint arXiv:1804.02767},
  year={2018}
}

Orijinal YOLOv3'ü geliştirdikleri için Joseph Redmon ve Ali Farhadi'ye teşekkür ederiz.

SSS

YOLOv3, YOLOv3-Ultralytics ve YOLOv3u arasındaki farklar nelerdir?

YOLOv3, Joseph Redmon tarafından geliştirilen ve doğruluk ve hız dengesiyle bilinen, algılamalar için üç farklı ölçek (13x13, 26x26 ve 52x52) kullanan YOLO'nun (You Only Look Once) nesne algılama algoritmasının üçüncü yinelemesidir. YOLOv3-Ultralytics, Ultralytics'in daha fazla önceden eğitilmiş model için destek ekleyen ve daha kolay model özelleştirmesini kolaylaştıran YOLOv3 uyarlamasıdır. YOLOv3u, YOLOv8'den ankrajsız, nesnesiz bölünmüş başlığı entegre eden, çeşitli nesne boyutları için algılama sağlamlığını ve doğruluğunu artıran, YOLOv3-Ultralytics'in yükseltilmiş bir varyantıdır. Varyantlar hakkında daha fazla ayrıntı için YOLOv3 serisine bakın.

Ultralytics kullanarak bir YOLOv3 modelini nasıl eğitebilirim?

Ultralytics ile bir YOLOv3 modeli eğitmek basittir. Modeli python veya CLI kullanarak eğitebilirsiniz:

Örnek

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv3u model
model = YOLO("yolov3u.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Load a COCO-pretrained YOLOv3u model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov3u.pt data=coco8.yaml epochs=100 imgsz=640

Daha kapsamlı eğitim seçenekleri ve yönergeler için Eğitim modu belgelerimizi ziyaret edin.

YOLOv3u'yu nesne algılama görevleri için daha doğru yapan nedir?

YOLOv3u, YOLOv8 modellerinde kullanılan ankrajsız, nesnesiz bölünmüş başlığı dahil ederek YOLOv3 ve YOLOv3-Ultralytics'i geliştirir. Bu yükseltme, önceden tanımlanmış ankraj kutularına ve nesne puanlarına olan ihtiyacı ortadan kaldırarak, çeşitli boyut ve şekillerdeki nesneleri daha hassas bir şekilde algılama yeteneğini artırır. Bu, YOLOv3u'yu karmaşık ve çeşitli nesne algılama görevleri için daha iyi bir seçim haline getirir. Daha fazla bilgi için, Temel Özellikler bölümüne bakın.

Çıkarım için YOLOv3 modellerini nasıl kullanabilirim?

YOLOv3 modellerini Python betikleri veya CLI komutları kullanarak çıkarım yapabilirsiniz:

Örnek

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv3u model
model = YOLO("yolov3u.pt")

# Run inference with the YOLOv3u model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
# Load a COCO-pretrained YOLOv3u model and run inference on the 'bus.jpg' image
yolo predict model=yolov3u.pt source=path/to/bus.jpg

YOLO modellerini çalıştırma hakkında daha fazla ayrıntı için Çıkarım modu belgelerine bakın.

YOLOv3 ve türevleri hangi görevleri destekler?

YOLOv3, YOLOv3-Tiny ve YOLOv3-SPP öncelikle nesne algılama görevlerini destekler. Bu modeller, Çıkarım, Doğrulama, Eğitim ve Dışa Aktarım gibi model dağıtımının ve geliştirilmesinin çeşitli aşamalarında kullanılabilir. Desteklenen görevlerin kapsamlı bir seti ve daha ayrıntılı bilgi için Nesne Algılama görevleri belgelerimizi ziyaret edin.

Araştırmamda YOLOv3'e atıfta bulunmak için kaynakları nerede bulabilirim?

Araştırmanızda YOLOv3 kullanıyorsanız, lütfen orijinal YOLO makalelerine ve Ultralytics YOLOv3 deposuna atıfta bulunun. Örnek BibTeX alıntısı:

@article{redmon2018yolov3,
  title={YOLOv3: An Incremental Improvement},
  author={Redmon, Joseph and Farhadi, Ali},
  journal={arXiv preprint arXiv:1804.02767},
  year={2018}
}

Daha fazla atıf ayrıntısı için Atıflar ve Teşekkürler bölümüne bakın.



📅 1 yıl önce oluşturuldu ✏️ 4 ay önce güncellendi

Yorumlar