Modos do Ultralytics YOLO11
Introdução
O Ultralytics YOLO11 não é apenas mais um modelo de detecção de objetos; é uma estrutura versátil projetada para cobrir todo o ciclo de vida dos modelos de aprendizado de máquina — desde a ingestão de dados e o treinamento do modelo até a validação, a implantação e o rastreamento no mundo real. Cada modo tem um propósito específico e é projetado para oferecer a flexibilidade e a eficiência necessárias para diferentes tarefas e casos de uso.
Assista: Tutorial de Modos Ultralytics: Treinar, Validar, Prever, Exportar e Avaliar.
Modos em resumo
Compreender os diferentes modos que o Ultralytics YOLO11 suporta é fundamental para tirar o máximo proveito de seus modelos:
- Modo Train: Ajuste seu modelo em conjuntos de dados personalizados ou pré-carregados.
- Modo Val: Um checkpoint pós-treinamento para validar o desempenho do modelo.
- Modo Predict: Libere o poder preditivo do seu modelo em dados do mundo real.
- Modo Export: Prepare seu modelo para implantação em vários formatos.
- Modo Track: Expanda seu modelo de detecção de objetos para aplicações de rastreamento em tempo real.
- Modo Benchmark: Analise a velocidade e a precisão do seu modelo em diversos ambientes de implementação.
Este guia abrangente tem como objetivo fornecer uma visão geral e insights práticos sobre cada modo, ajudando você a aproveitar todo o potencial do YOLO11.
Treinar
O modo de treino é usado para treinar um modelo YOLO11 em um conjunto de dados personalizado. Neste modo, o modelo é treinado usando o conjunto de dados e os hiperparâmetros especificados. O processo de treino envolve a otimização dos parâmetros do modelo para que ele possa prever com precisão as classes e localizações de objetos em uma imagem. O treino é essencial para criar modelos que possam reconhecer objetos específicos relevantes para sua aplicação.
Validar
O modo Val é usado para validar um modelo YOLO11 após o treinamento. Neste modo, o modelo é avaliado em um conjunto de validação para medir sua precisão e desempenho de generalização. A validação ajuda a identificar problemas potenciais como overfitting e fornece métricas como Precisão Média Média (mAP) para quantificar o desempenho do modelo. Este modo é crucial para ajustar os hiperparâmetros e melhorar a eficácia geral do modelo.
Prever
O modo de previsão é usado para fazer previsões usando um modelo YOLO11 treinado em novas imagens ou vídeos. Neste modo, o modelo é carregado a partir de um arquivo de checkpoint, e o usuário pode fornecer imagens ou vídeos para realizar a inferência. O modelo identifica e localiza objetos na mídia de entrada, tornando-o pronto para aplicações no mundo real. O modo de previsão é a porta de entrada para aplicar seu modelo treinado para resolver problemas práticos.
Exportar
O modo de exportação é usado para converter um modelo YOLO11 em formatos adequados para implantação em diferentes plataformas e dispositivos. Este modo transforma seu modelo PyTorch em formatos otimizados como ONNX, TensorRT ou CoreML, permitindo a implantação em ambientes de produção. A exportação é essencial para integrar seu modelo com vários aplicativos de software ou dispositivos de hardware, muitas vezes resultando em melhorias significativas de desempenho.
Rastrear
O modo de rastreamento estende os recursos de detecção de objetos do YOLO11 para rastrear objetos em frames de vídeo ou transmissões ao vivo. Este modo é particularmente valioso para aplicações que exigem identificação persistente de objetos, como sistemas de vigilância ou carros autônomos. O modo de rastreamento implementa algoritmos sofisticados como o ByteTrack para manter a identidade do objeto entre os frames, mesmo quando os objetos desaparecem temporariamente da vista.
Benchmark
O modo de benchmark avalia a velocidade e a precisão de vários formatos de exportação para YOLO11. Este modo fornece métricas abrangentes sobre o tamanho do modelo, precisão (mAP50-95 para tarefas de detecção ou accuracy_top5 para classificação) e tempo de inferência em diferentes formatos como ONNX, OpenVINO e TensorRT. O benchmarking ajuda você a selecionar o formato de exportação ideal com base em seus requisitos específicos de velocidade e precisão em seu ambiente de implantação.
FAQ
Como faço para treinar um modelo de detecção de objetos personalizado com Ultralytics YOLO11?
Treinar um modelo de detecção de objetos personalizado com Ultralytics YOLO11 envolve o uso do modo train. Você precisa de um conjunto de dados formatado no formato YOLO, contendo imagens e arquivos de anotação correspondentes. Use o seguinte comando para iniciar o processo de treinamento:
Exemplo
from ultralytics import YOLO
# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")
# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo train data=path/to/dataset.yaml epochs=100 imgsz=640
Para obter instruções mais detalhadas, você pode consultar o Guia de Treinamento Ultralytics.
Quais métricas o Ultralytics YOLO11 usa para validar o desempenho do modelo?
Ultralytics YOLO11 usa várias métricas durante o processo de validação para avaliar o desempenho do modelo. Estes incluem:
- mAP (Precisão Média Média): Isso avalia a precisão da detecção de objetos.
- IOU (Intersecção sobre União): Mede a sobreposição entre caixas delimitadoras previstas e verdadeiras.
- Precisão e Recall: Precisão mede a proporção de detecções verdadeiras positivas em relação ao total de positivos detectados, enquanto recall mede a proporção de detecções verdadeiras positivas em relação ao total de positivos reais.
Você pode executar o seguinte comando para iniciar a validação:
Exemplo
from ultralytics import YOLO
# Load a pre-trained or custom YOLO model
model = YOLO("yolo11n.pt")
# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val data=path/to/validation.yaml
Consulte o Guia de Validação para obter mais detalhes.
Como posso exportar meu modelo YOLO11 para implantação?
O Ultralytics YOLO11 oferece funcionalidade de exportação para converter seu modelo treinado em vários formatos de implementação, como ONNX, TensorRT, CoreML e outros. Use o exemplo a seguir para exportar seu modelo:
Exemplo
from ultralytics import YOLO
# Load your trained YOLO model
model = YOLO("yolo11n.pt")
# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo11n.pt format=onnx
Etapas detalhadas para cada formato de exportação podem ser encontradas no Guia de Exportação.
Qual é o propósito do modo de benchmark no Ultralytics YOLO11?
O modo de benchmark no Ultralytics YOLO11 é usado para analisar a velocidade e precisão de vários formatos de exportação, como ONNX, TensorRT e OpenVINO. Ele fornece métricas como tamanho do modelo, mAP50-95
para detecção de objetos e tempo de inferência em diferentes configurações de hardware, ajudando você a escolher o formato mais adequado para suas necessidades de implementação.
Exemplo
from ultralytics.utils.benchmarks import benchmark
# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo11n.pt data='coco8.yaml' imgsz=640 half=False device=0
Para mais detalhes, consulte o Guia de Benchmark.
Como posso realizar o rastreamento de objetos em tempo real usando o Ultralytics YOLO11?
O rastreamento de objetos em tempo real pode ser alcançado usando o modo de rastreamento no Ultralytics YOLO11. Este modo estende os recursos de detecção de objetos para rastrear objetos em quadros de vídeo ou feeds ao vivo. Use o exemplo a seguir para ativar o rastreamento:
Exemplo
from ultralytics import YOLO
# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")
# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4
Para obter instruções detalhadas, visite o Guia de Rastreamento.