Ir para o conteúdo

Início Rápido do YOLOv5 🚀

Embarque em sua jornada no reino dinâmico da detecção de objetos em tempo real com o Ultralytics YOLOv5! Este guia foi elaborado para servir como um ponto de partida abrangente para entusiastas e profissionais de IA que desejam dominar o YOLOv5. Desde a configuração inicial até as técnicas de treinamento avançadas, nós temos tudo o que você precisa. Ao final deste guia, você terá o conhecimento para implementar o YOLOv5 em seus projetos com confiança, usando métodos de aprendizado profundo de última geração. Vamos ligar os motores e voar para o YOLOv5!

Instalar

Prepare-se para o lançamento clonando o repositório YOLOv5 e estabelecendo o ambiente. Isso garante que todos os requisitos necessários sejam instalados. Verifique se você tem Python>=3.8.0 e PyTorch>=1.8 prontos para a decolagem. Essas ferramentas fundamentais são cruciais para executar o YOLOv5 de forma eficaz.

git clone https://github.com/ultralytics/yolov5 # clone repository
cd yolov5
pip install -r requirements.txt # install dependencies

Inferência com PyTorch Hub

Experimente a simplicidade da inferência do PyTorch Hub do YOLOv5, onde os modelos são baixados perfeitamente da última versão do YOLOv5. Este método aproveita o poder do PyTorch para facilitar o carregamento e a execução do modelo, tornando simples a obtenção de previsões.

import torch

# Model loading
model = torch.hub.load("ultralytics/yolov5", "yolov5s")  # Can be 'yolov5n' - 'yolov5x6', or 'custom'

# Inference on images
img = "https://ultralytics.com/images/zidane.jpg"  # Can be a file, Path, PIL, OpenCV, numpy, or list of images

# Run inference
results = model(img)

# Display results
results.print()  # Other options: .show(), .save(), .crop(), .pandas(), etc. Explore these in the Predict mode documentation.

Inferência com detect.py

Aproveitar detect.py para versátil inferência em várias fontes. Ele busca automaticamente modelos do mais recente YOLOv5 lançamento e guarda os resultados com facilidade. Este script é ideal para uso na linha de comandos e para integrar o YOLOv5 em sistemas maiores, suportando entradas como imagens, vídeos, diretórios, webcams e até transmissões ao vivo.

python detect.py --weights yolov5s.pt --source 0                              # webcam
python detect.py --weights yolov5s.pt --source image.jpg                      # image
python detect.py --weights yolov5s.pt --source video.mp4                      # video
python detect.py --weights yolov5s.pt --source screen                         # screenshot
python detect.py --weights yolov5s.pt --source path/                          # directory
python detect.py --weights yolov5s.pt --source list.txt                       # list of images
python detect.py --weights yolov5s.pt --source list.streams                   # list of streams
python detect.py --weights yolov5s.pt --source 'path/*.jpg'                   # glob pattern
python detect.py --weights yolov5s.pt --source 'https://youtu.be/LNwODJXcvt4' # YouTube video
python detect.py --weights yolov5s.pt --source 'rtsp://example.com/media.mp4' # RTSP, RTMP, HTTP stream

Treinamento

Replicar o YOLOv5 Conjunto de dados COCO benchmarks seguindo o instruções de treinamento abaixo. O necessário modelos e conjuntos de dados (como coco128.yaml ou o completo coco.yaml) são extraídos diretamente do YOLOv5 mais recente lançamento. Treinando YOLOv5n/s/m/l/x em uma V100 GPU normalmente deve levar 1/2/4/6/8 dias, respectivamente (note que Treinamento Multi-GPU as configurações funcionam mais rápido). Maximize o desempenho usando o mais alto possível --batch-size ou use --batch-size -1 para o YOLOv5 AutoBatch recurso, que encontra automaticamente o ideal tamanho de lote. Os seguintes tamanhos de lote são ideais para GPUs V100-16GB. Consulte o nosso guia de configuração para detalhes sobre arquivos de configuração do modelo (*.yaml).

# Train YOLOv5n on COCO128 for 3 epochs
python train.py --data coco128.yaml --epochs 3 --weights yolov5n.pt --batch-size 128

# Train YOLOv5s on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5s.yaml --batch-size 64

# Train YOLOv5m on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5m.yaml --batch-size 40

# Train YOLOv5l on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5l.yaml --batch-size 24

# Train YOLOv5x on COCO for 300 epochs
python train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov5x.yaml --batch-size 16

Curvas de treinamento do YOLOv5 mostrando as métricas mAP e de perda ao longo das épocas para diferentes tamanhos de modelo (n, s, m, l, x) no conjunto de dados COCO

Para concluir, o YOLOv5 não é apenas uma ferramenta de última geração para detecção de objetos, mas também um testemunho do poder do aprendizado de máquina na transformação da forma como interagimos com o mundo através da compreensão visual. À medida que avança neste guia e começa a aplicar o YOLOv5 aos seus projetos, lembre-se de que está na vanguarda de uma revolução tecnológica, capaz de realizar feitos notáveis em visão computacional. Caso necessite de mais informações ou suporte de outros visionários, convidamo-lo ao nosso repositório GitHub, lar de uma próspera comunidade de desenvolvedores e pesquisadores. Explore outros recursos como o Ultralytics HUB para gerenciamento de conjuntos de dados e treinamento de modelos sem código, ou confira nossa página de Soluções para aplicações e inspirações do mundo real. Continue explorando, continue inovando e aproveite as maravilhas do YOLOv5. Boa detecção! 🌠🔍



📅 Criado há 1 ano ✏️ Atualizado há 3 meses

Comentários