Ir para o conteúdo

Conjunto de Dados COCO-Pose

O conjunto de dados COCO-Pose é uma versão especializada do conjunto de dados COCO (Common Objects in Context), projetada para tarefas de estimativa de pose. Ele aproveita as imagens e rótulos do COCO Keypoints 2017 para permitir o treinamento de modelos como o YOLO para tarefas de estimativa de pose.

Imagem de amostra de pose

Modelos Pré-treinados COCO-Pose

Modelo tamanho
(pixels)
mAPpose
50-95
mAPpose
50
Velocidade
CPU ONNX
(ms)
Velocidade
T4 TensorRT10
(ms)
parâmetros
(M)
FLOPs
(B)
YOLO11n-pose 640 50.0 81.0 52.4 ± 0.5 1.7 ± 0.0 2.9 7.6
YOLO11s-pose 640 58.9 86.3 90.5 ± 0.6 2,6 ± 0,0 9.9 23.2
YOLO11m-pose 640 64.9 89.4 187,3 ± 0,8 4,9 ± 0,1 20.9 71.7
YOLO11l-pose 640 66.1 89.9 247,7 ± 1,1 6,4 ± 0,1 26.2 90.7
YOLO11x-pose 640 69.5 91.1 488,0 ± 13,9 12,1 ± 0,2 58.8 203.3

Principais Características

  • O COCO-Pose se baseia no conjunto de dados COCO Keypoints 2017, que contém 200 mil imagens rotuladas com pontos-chave para tarefas de estimativa de pose.
  • O conjunto de dados suporta 17 keypoints para figuras humanas, facilitando a estimativa detalhada de pose.
  • Assim como o COCO, ele fornece métricas de avaliação padronizadas, incluindo a Similaridade de Pontos-Chave de Objeto (OKS) para tarefas de estimativa de pose, tornando-o adequado para comparar o desempenho do modelo.

Estrutura do Conjunto de Dados

O conjunto de dados COCO-Pose é dividido em três subconjuntos:

  1. Train2017: Este subconjunto contém 56599 imagens do conjunto de dados COCO, anotadas para treinar modelos de estimativa de pose.
  2. Val2017: Este subconjunto possui 2346 imagens usadas para fins de validação durante o treinamento do modelo.
  3. Test2017: Este subconjunto consiste em imagens usadas para testar e avaliar os modelos treinados. As anotações de ground truth para este subconjunto não estão disponíveis publicamente, e os resultados são enviados para o servidor de avaliação COCO para avaliação de desempenho.

Aplicações

O conjunto de dados COCO-Pose é especificamente usado para treinar e avaliar modelos de aprendizado profundo em tarefas de detecção de pontos-chave e estimativa de pose, como o OpenPose. O grande número de imagens anotadas e as métricas de avaliação padronizadas do conjunto de dados o tornam um recurso essencial para pesquisadores e profissionais de visão computacional focados na estimativa de pose.

YAML do Conjunto de Dados

Um arquivo YAML (Yet Another Markup Language) é usado para definir a configuração do conjunto de dados. Ele contém informações sobre os caminhos, classes e outras informações relevantes do conjunto de dados. No caso do conjunto de dados COCO-Pose, o coco-pose.yaml arquivo é mantido em https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml.

ultralytics/cfg/datasets/coco-pose.yaml

# Ultralytics 🚀 AGPL-3.0 License - https://ultralytics.com/license

# COCO 2017 Keypoints dataset https://cocodataset.org by Microsoft
# Documentation: https://docs.ultralytics.com/datasets/pose/coco/
# Example usage: yolo train data=coco-pose.yaml
# parent
# ├── ultralytics
# └── datasets
#     └── coco-pose ← downloads here (20.1 GB)

# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: coco-pose # dataset root dir
train: train2017.txt # train images (relative to 'path') 56599 images
val: val2017.txt # val images (relative to 'path') 2346 images
test: test-dev2017.txt # 20288 of 40670 images, submit to https://codalab.lisn.upsaclay.fr/competitions/7403

# Keypoints
kpt_shape: [17, 3] # number of keypoints, number of dims (2 for x,y or 3 for x,y,visible)
flip_idx: [0, 2, 1, 4, 3, 6, 5, 8, 7, 10, 9, 12, 11, 14, 13, 16, 15]

# Classes
names:
  0: person

# Download script/URL (optional)
download: |
  from pathlib import Path

  from ultralytics.utils.downloads import download

  # Download labels
  dir = Path(yaml["path"])  # dataset root dir
  url = "https://github.com/ultralytics/assets/releases/download/v0.0.0/"
  urls = [f"{url}coco2017labels-pose.zip"]
  download(urls, dir=dir.parent)
  # Download data
  urls = [
      "http://images.cocodataset.org/zips/train2017.zip",  # 19G, 118k images
      "http://images.cocodataset.org/zips/val2017.zip",  # 1G, 5k images
      "http://images.cocodataset.org/zips/test2017.zip",  # 7G, 41k images (optional)
  ]
  download(urls, dir=dir / "images", threads=3)

Utilização

Para treinar um modelo YOLO11n-pose no conjunto de dados COCO-Pose por 100 epochs com um tamanho de imagem de 640, você pode usar os seguintes trechos de código. Para uma lista completa de argumentos disponíveis, consulte a página de Treinamento do modelo.

Exemplo de Treinamento

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="coco-pose.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo pose train data=coco-pose.yaml model=yolo11n-pose.pt epochs=100 imgsz=640

Amostras de Imagens e Anotações

O conjunto de dados COCO-Pose contém um conjunto diversificado de imagens com figuras humanas anotadas com pontos-chave. Aqui estão alguns exemplos de imagens do conjunto de dados, juntamente com suas anotações correspondentes:

Imagem de amostra do conjunto de dados

  • Imagem em Mosaico: Esta imagem demonstra um lote de treinamento composto por imagens de conjunto de dados em mosaico. O mosaico é uma técnica usada durante o treinamento que combina várias imagens em uma única imagem para aumentar a variedade de objetos e cenas dentro de cada lote de treinamento. Isso ajuda a melhorar a capacidade do modelo de generalizar para diferentes tamanhos de objetos, proporções e contextos.

O exemplo mostra a variedade e a complexidade das imagens no conjunto de dados COCO-Pose e os benefícios de usar mosaicos durante o processo de treinamento.

Citações e Agradecimentos

Se você usar o conjunto de dados COCO-Pose em seu trabalho de pesquisa ou desenvolvimento, por favor, cite o seguinte artigo:

@misc{lin2015microsoft,
      title={Microsoft COCO: Common Objects in Context},
      author={Tsung-Yi Lin and Michael Maire and Serge Belongie and Lubomir Bourdev and Ross Girshick and James Hays and Pietro Perona and Deva Ramanan and C. Lawrence Zitnick and Piotr Dollár},
      year={2015},
      eprint={1405.0312},
      archivePrefix={arXiv},
      primaryClass={cs.CV}
}

Gostaríamos de agradecer ao COCO Consortium por criar e manter este valioso recurso para a comunidade de visão computacional. Para obter mais informações sobre o conjunto de dados COCO-Pose e seus criadores, visite o site do conjunto de dados COCO.

FAQ

O que é o conjunto de dados COCO-Pose e como ele é usado com o Ultralytics YOLO para estimativa de pose?

O conjunto de dados COCO-Pose é uma versão especializada do conjunto de dados COCO (Common Objects in Context) projetada para tarefas de estimativa de pose. Ele se baseia nas imagens e anotações do COCO Keypoints 2017, permitindo o treinamento de modelos como o Ultralytics YOLO para estimativa de pose detalhada. Por exemplo, você pode usar o conjunto de dados COCO-Pose para treinar um modelo YOLO11n-pose carregando um modelo pré-treinado e treinando-o com uma configuração YAML. Para exemplos de treinamento, consulte a documentação de Treinamento.

Como posso treinar um modelo YOLO11 no conjunto de dados COCO-Pose?

Treinar um modelo YOLO11 no conjunto de dados COCO-Pose pode ser realizado usando comandos Python ou CLI. Por exemplo, para treinar um modelo YOLO11n-pose por 100 épocas com um tamanho de imagem de 640, você pode seguir os passos abaixo:

Exemplo de Treinamento

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="coco-pose.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo pose train data=coco-pose.yaml model=yolo11n-pose.pt epochs=100 imgsz=640

Para mais detalhes sobre o processo de treinamento e os argumentos disponíveis, consulte a página de treinamento.

Quais são as diferentes métricas fornecidas pelo dataset COCO-Pose para avaliar o desempenho do modelo?

O conjunto de dados COCO-Pose fornece várias métricas de avaliação padronizadas para tarefas de estimativa de pose, semelhantes ao conjunto de dados COCO original. As principais métricas incluem a Similaridade de Pontos-Chave de Objeto (OKS), que avalia a precisão dos pontos-chave previstos em relação às anotações de verdade fundamental. Essas métricas permitem comparações completas de desempenho entre diferentes modelos. Por exemplo, os modelos pré-treinados COCO-Pose, como YOLO11n-pose, YOLO11s-pose e outros, têm métricas de desempenho específicas listadas na documentação, como mAPpose50-95 e mAPpose50.

Como o conjunto de dados é estruturado e dividido para o conjunto de dados COCO-Pose?

O conjunto de dados COCO-Pose é dividido em três subconjuntos:

  1. Train2017: Contém 56599 imagens COCO, anotadas para treinar modelos de estimativa de pose.
  2. Val2017: 2346 imagens para fins de validação durante o treinamento do modelo.
  3. Test2017: Imagens usadas para testar e avaliar modelos treinados. As anotações de ground truth para este subconjunto não estão disponíveis publicamente; os resultados são enviados para o servidor de avaliação COCO para avaliação de desempenho.

Esses subconjuntos ajudam a organizar as fases de treinamento, validação e teste de forma eficaz. Para detalhes de configuração, explore o coco-pose.yaml arquivo disponível em GitHub.

Quais são as principais características e aplicações do dataset COCO-Pose?

O conjunto de dados COCO-Pose estende as anotações COCO Keypoints 2017 para incluir 17 pontos-chave para figuras humanas, permitindo a estimativa detalhada de poses. Métricas de avaliação padronizadas (por exemplo, OKS) facilitam comparações entre diferentes modelos. As aplicações do conjunto de dados COCO-Pose abrangem vários domínios, como análise esportiva, saúde e interação humano-computador, sempre que a estimativa detalhada de poses de figuras humanas é necessária. Para uso prático, aproveitar modelos pré-treinados como os fornecidos na documentação (por exemplo, YOLO11n-pose) pode simplificar significativamente o processo (Principais Características).

Se você usar o conjunto de dados COCO-Pose em seu trabalho de pesquisa ou desenvolvimento, por favor, cite o artigo com a seguinte entrada BibTeX.



📅 Criado há 1 ano ✏️ Atualizado há 6 meses

Comentários