Conjunto de Dados Dog-Pose
Introdução
O dataset Ultralytics Dog-pose é um dataset extenso e de alta qualidade, especificamente selecionado para a estimativa de pontos-chave de cães. Com 6.773 imagens de treino e 1.703 imagens de teste, este dataset fornece uma base sólida para treinar modelos robustos de estimativa de pose.
Assista: Como Treinar o Ultralytics YOLO11 no Dataset Stanford Dog Pose Estimation | Tutorial Passo a Passo 🚀
Cada imagem anotada inclui 24 pontos-chave com 3 dimensões por ponto-chave (x, y, visibilidade), tornando-o um recurso valioso para pesquisa e desenvolvimento avançados em visão computacional.
Este conjunto de dados destina-se ao uso com o HUB Ultralytics e YOLO11.
YAML do Conjunto de Dados
Um arquivo YAML (Yet Another Markup Language) é usado para definir a configuração do conjunto de dados. Ele inclui caminhos, detalhes de pontos-chave e outras informações relevantes. No caso do conjunto de dados Dog-pose, o dog-pose.yaml
está disponível em https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/dog-pose.yaml.
ultralytics/cfg/datasets/dog-pose.yaml
# Ultralytics 🚀 AGPL-3.0 License - https://ultralytics.com/license
# Dogs dataset http://vision.stanford.edu/aditya86/ImageNetDogs/ by Stanford
# Documentation: https://docs.ultralytics.com/datasets/pose/dog-pose/
# Example usage: yolo train data=dog-pose.yaml
# parent
# ├── ultralytics
# └── datasets
# └── dog-pose ← downloads here (337 MB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: dog-pose # dataset root dir
train: images/train # train images (relative to 'path') 6773 images
val: images/val # val images (relative to 'path') 1703 images
# Keypoints
kpt_shape: [24, 3] # number of keypoints, number of dims (2 for x,y or 3 for x,y,visible)
# Classes
names:
0: dog
# Download script/URL (optional)
download: https://github.com/ultralytics/assets/releases/download/v0.0.0/dog-pose.zip
Utilização
Para treinar um modelo YOLO11n-pose no conjunto de dados Dog-pose por 100 epochs com um tamanho de imagem de 640, você pode usar os seguintes trechos de código. Para uma lista completa de argumentos disponíveis, consulte a página de Treinamento do modelo.
Exemplo de Treinamento
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.pt") # load a pretrained model (recommended for training)
# Train the model
results = model.train(data="dog-pose.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo pose train data=dog-pose.yaml model=yolo11n-pose.pt epochs=100 imgsz=640
Amostras de Imagens e Anotações
Aqui estão alguns exemplos de imagens do conjunto de dados Dog-pose, juntamente com suas anotações correspondentes:
- Imagem em Mosaico: Esta imagem demonstra um lote de treinamento composto por imagens de conjunto de dados em mosaico. O mosaico é uma técnica usada durante o treinamento que combina várias imagens em uma única imagem para aumentar a variedade de objetos e cenas dentro de cada lote de treinamento. Isso ajuda a melhorar a capacidade do modelo de generalizar para diferentes tamanhos de objetos, proporções e contextos.
O exemplo mostra a variedade e a complexidade das imagens no conjunto de dados Dog-pose e os benefícios de usar mosaicos durante o processo de treinamento.
Citações e Agradecimentos
Se você usar o conjunto de dados Dog-pose em seu trabalho de pesquisa ou desenvolvimento, por favor, cite o seguinte artigo:
@inproceedings{khosla2011fgvc,
title={Novel dataset for Fine-Grained Image Categorization},
author={Aditya Khosla and Nityananda Jayadevaprakash and Bangpeng Yao and Li Fei-Fei},
booktitle={First Workshop on Fine-Grained Visual Categorization (FGVC), IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},
year={2011}
}
@inproceedings{deng2009imagenet,
title={ImageNet: A Large-Scale Hierarchical Image Database},
author={Jia Deng and Wei Dong and Richard Socher and Li-Jia Li and Kai Li and Li Fei-Fei},
booktitle={IEEE Computer Vision and Pattern Recognition (CVPR)},
year={2009}
}
Gostaríamos de agradecer à equipe de Stanford por criar e manter este valioso recurso para a comunidade de visão computacional. Para obter mais informações sobre o conjunto de dados Dog-pose e seus criadores, visite o site do Stanford Dogs Dataset.
FAQ
O que é o conjunto de dados Dog-pose e como ele é usado com o Ultralytics YOLO11?
O dataset Dog-Pose apresenta 6.773 imagens de treinamento e 1.703 imagens de teste anotadas com 24 pontos-chave para estimativa de pose de cães. Ele é projetado para treinar e validar modelos com Ultralytics YOLO11, suportando aplicações como análise de comportamento animal, monitoramento de animais de estimação e estudos veterinários. As anotações abrangentes do dataset o tornam ideal para desenvolver modelos precisos de estimativa de pose para caninos.
Como faço para treinar um modelo YOLO11 usando o dataset Dog-pose no Ultralytics?
Para treinar um modelo YOLO11n-pose no conjunto de dados Dog-pose por 100 épocas com um tamanho de imagem de 640, siga estes exemplos:
Exemplo de Treinamento
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-pose.pt")
# Train the model
results = model.train(data="dog-pose.yaml", epochs=100, imgsz=640)
yolo pose train data=dog-pose.yaml model=yolo11n-pose.pt epochs=100 imgsz=640
Para uma lista completa de argumentos de treinamento, consulte a página de Treinamento do modelo.
Quais são os benefícios de usar o conjunto de dados Dog-pose?
O conjunto de dados Dog-pose oferece vários benefícios:
Conjunto de Dados Grande e Diversificado: Com mais de 8.400 imagens, fornece dados substanciais que abrangem uma ampla gama de poses, raças e contextos de cães, permitindo um treino e avaliação robustos do modelo.
Anotações Detalhadas de Pontos-Chave: Cada imagem inclui 24 pontos-chave com 3 dimensões por ponto-chave (x, y, visibilidade), oferecendo anotações precisas para treinar modelos de detecção de pose precisos.
Cenários do Mundo Real: Inclui imagens de ambientes variados, aprimorando a capacidade do modelo de generalizar para aplicações do mundo real, como monitoramento de animais de estimação e análise de comportamento.
Vantagem da Transferência de Aprendizagem: O conjunto de dados funciona bem com técnicas de transferência de aprendizagem, permitindo que modelos pré-treinados em conjuntos de dados de pose humana se adaptem a recursos específicos de cães.
Para mais informações sobre os seus recursos e utilização, consulte a seção Introdução ao Dataset.
Como o mosaicing beneficia o processo de treinamento do YOLO11 usando o conjunto de dados Dog-pose?
O mosaico, conforme ilustrado nas sample_images do conjunto de dados Dog-pose, mescla várias imagens em uma única composição, enriquecendo a diversidade de objetos e cenas em cada lote de treinamento. Esta técnica oferece vários benefícios:
- Aumenta a variedade de poses, tamanhos e fundos de cães em cada lote
- Melhora a capacidade do modelo de detectar cães em diferentes contextos e escalas
- Aprimora a generalização expondo o modelo a padrões visuais mais diversos
- Reduz o overfitting, criando novas combinações de exemplos de treinamento
Esta abordagem leva a modelos mais robustos que têm um desempenho melhor em cenários do mundo real. Para exemplos de imagens, consulte a seção Imagens de Amostra e Anotações.
Onde posso encontrar o arquivo YAML do conjunto de dados Dog-pose e como usá-lo?
O arquivo YAML do conjunto de dados Dog-pose pode ser encontrado em https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/dog-pose.yaml. Este arquivo define a configuração do conjunto de dados, incluindo caminhos, classes, detalhes de pontos-chave e outras informações relevantes. O YAML especifica 24 pontos-chave com 3 dimensões por ponto-chave, tornando-o adequado para tarefas detalhadas de estimativa de pose.
Para usar este arquivo com scripts de treinamento YOLO11, simplesmente faça referência a ele no seu comando de treinamento, conforme mostrado na seção Uso. O conjunto de dados será baixado automaticamente quando usado pela primeira vez, tornando a configuração direta.
Para mais perguntas frequentes e documentação detalhada, visite a Documentação Ultralytics.