Ir para o conteúdo

Visão Geral dos Conjuntos de Dados de Segmentação de Instâncias

A segmentação de instâncias é uma tarefa de visão computacional que envolve a identificação e delimitação de objetos individuais dentro de uma imagem. Este guia fornece uma visão geral dos formatos de conjuntos de dados suportados pelo Ultralytics YOLO para tarefas de segmentação de instâncias, juntamente com instruções sobre como preparar, converter e usar estes conjuntos de dados para treinar os seus modelos.

Formatos de Conjunto de Dados Suportados

Formato YOLO da Ultralytics

O formato de rótulo do conjunto de dados usado para treinar modelos de segmentação YOLO é o seguinte:

  1. Um arquivo de texto por imagem: Cada imagem no conjunto de dados tem um arquivo de texto correspondente com o mesmo nome do arquivo de imagem e a extensão ".txt".
  2. Uma linha por objeto: Cada linha no arquivo de texto corresponde a uma instância de objeto na imagem.
  3. Informações do objeto por linha: Cada linha contém as seguintes informações sobre a instância do objeto:
    • Índice da classe do objeto: Um inteiro representando a classe do objeto (por exemplo, 0 para pessoa, 1 para carro, etc.).
    • Coordenadas de contorno do objeto: As coordenadas de contorno ao redor da área da máscara, normalizadas para estarem entre 0 e 1.

O formato para uma única linha no arquivo de conjunto de dados de segmentação é o seguinte:

<class-index> <x1> <y1> <x2> <y2> ... <xn> <yn>

Neste formato, <class-index> é o índice da classe para o objeto, e <x1> <y1> <x2> <y2> ... <xn> <yn> são as coordenadas delimitadoras da máscara de segmentação do objeto. As coordenadas são separadas por espaços.

Aqui está um exemplo do formato do conjunto de dados YOLO para uma única imagem com dois objetos compostos por um segmento de 3 pontos e um segmento de 5 pontos.

0 0.681 0.485 0.670 0.487 0.676 0.487
1 0.504 0.000 0.501 0.004 0.498 0.004 0.493 0.010 0.492 0.0104

Dica

  • O comprimento de cada linha não precisa ser igual.
  • Cada rótulo de segmentação deve ter um mínimo de 3 pontos xy: <class-index> <x1> <y1> <x2> <y2> <x3> <y3>

Formato YAML do Conjunto de Dados

O framework Ultralytics usa um formato de arquivo YAML para definir o conjunto de dados e a configuração do modelo para treinar Modelos de Segmentação. Aqui está um exemplo do formato YAML usado para definir um conjunto de dados de segmentação:

# Ultralytics 🚀 AGPL-3.0 License - https://ultralytics.com/license

# COCO8-seg dataset (first 8 images from COCO train2017) by Ultralytics
# Documentation: https://docs.ultralytics.com/datasets/segment/coco8-seg/
# Example usage: yolo train data=coco8-seg.yaml
# parent
# ├── ultralytics
# └── datasets
#     └── coco8-seg ← downloads here (1 MB)

# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: coco8-seg # dataset root dir
train: images/train # train images (relative to 'path') 4 images
val: images/val # val images (relative to 'path') 4 images
test: # test images (optional)

# Classes
names:
  0: person
  1: bicycle
  2: car
  3: motorcycle
  4: airplane
  5: bus
  6: train
  7: truck
  8: boat
  9: traffic light
  10: fire hydrant
  11: stop sign
  12: parking meter
  13: bench
  14: bird
  15: cat
  16: dog
  17: horse
  18: sheep
  19: cow
  20: elephant
  21: bear
  22: zebra
  23: giraffe
  24: backpack
  25: umbrella
  26: handbag
  27: tie
  28: suitcase
  29: frisbee
  30: skis
  31: snowboard
  32: sports ball
  33: kite
  34: baseball bat
  35: baseball glove
  36: skateboard
  37: surfboard
  38: tennis racket
  39: bottle
  40: wine glass
  41: cup
  42: fork
  43: knife
  44: spoon
  45: bowl
  46: banana
  47: apple
  48: sandwich
  49: orange
  50: broccoli
  51: carrot
  52: hot dog
  53: pizza
  54: donut
  55: cake
  56: chair
  57: couch
  58: potted plant
  59: bed
  60: dining table
  61: toilet
  62: tv
  63: laptop
  64: mouse
  65: remote
  66: keyboard
  67: cell phone
  68: microwave
  69: oven
  70: toaster
  71: sink
  72: refrigerator
  73: book
  74: clock
  75: vase
  76: scissors
  77: teddy bear
  78: hair drier
  79: toothbrush

# Download script/URL (optional)
download: https://github.com/ultralytics/assets/releases/download/v0.0.0/coco8-seg.zip

O train e val os campos especificam os caminhos para os diretórios que contêm as imagens de treinamento e validação, respectivamente.

names é um dicionário de nomes de classes. A ordem dos nomes deve corresponder à ordem dos índices de classe de objeto nos arquivos de conjunto de dados YOLO.

Utilização

Exemplo

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.pt epochs=100 imgsz=640

Conjuntos de Dados Suportados

O YOLO da Ultralytics suporta vários conjuntos de dados para tarefas de segmentação de instâncias. Aqui está uma lista dos mais comumente usados:

  • COCO: Um conjunto de dados abrangente para detecção de objetos, segmentação e legendagem, apresentando mais de 200 mil imagens rotuladas em uma ampla gama de categorias.
  • COCO8-seg: Um subconjunto compacto de 8 imagens do COCO, projetado para testes rápidos de treinamento de modelos de segmentação, ideal para verificações de CI e validação de fluxo de trabalho no ultralytics repositório.
  • COCO128-seg: Um conjunto de dados menor para tarefas de segmentação de instâncias, contendo um subconjunto de 128 imagens COCO com anotações de segmentação.
  • Carparts-seg: Um conjunto de dados especializado focado na segmentação de peças de carros, ideal para aplicações automotivas. Inclui uma variedade de veículos com anotações detalhadas de componentes individuais do carro.
  • Crack-seg: Um conjunto de dados feito sob medida para a segmentação de rachaduras em várias superfícies. Essencial para a manutenção da infraestrutura e controle de qualidade, fornece imagens detalhadas para modelos de treinamento para identificar fraquezas estruturais.
  • Package-seg: Um conjunto de dados dedicado à segmentação de diferentes tipos de materiais e formatos de embalagem. É particularmente útil para logística e automação de armazéns, auxiliando no desenvolvimento de sistemas para manuseio e triagem de embalagens.

Adicionando seu próprio conjunto de dados

Se você tiver seu próprio conjunto de dados e quiser usá-lo para treinar modelos de segmentação com o formato Ultralytics YOLO, certifique-se de que ele siga o formato especificado acima em "Formato Ultralytics YOLO". Converta suas anotações para o formato necessário e especifique os caminhos, o número de classes e os nomes das classes no arquivo de configuração YAML.

Converter ou Adaptar Formatos de Etiqueta

Formato de Conjunto de Dados COCO para Formato YOLO

Você pode converter facilmente rótulos do popular formato de conjunto de dados COCO para o formato YOLO usando o seguinte trecho de código:

Exemplo

from ultralytics.data.converter import convert_coco

convert_coco(labels_dir="path/to/coco/annotations/", use_segments=True)

Esta ferramenta de conversão pode ser usada para converter o conjunto de dados COCO ou qualquer conjunto de dados no formato COCO para o formato Ultralytics YOLO.

Lembre-se de verificar novamente se o conjunto de dados que você deseja usar é compatível com seu modelo e segue as convenções de formato necessárias. Conjuntos de dados formatados corretamente são cruciais para treinar modelos de detecção de objetos bem-sucedidos.

Auto-Anotação

A auto-anotação é um recurso essencial que permite gerar um conjunto de dados de segmentação usando um modelo de detecção pré-treinado. Ele permite que você anote de forma rápida e precisa um grande número de imagens sem a necessidade de rotulagem manual, economizando tempo e esforço.

Gerar Conjunto de Dados de Segmentação Usando um Modelo de Detecção

Para auto-anotar seu conjunto de dados usando o framework Ultralytics, você pode usar o auto_annotate função conforme mostrado abaixo:

Exemplo

from ultralytics.data.annotator import auto_annotate

auto_annotate(data="path/to/images", det_model="yolo11x.pt", sam_model="sam_b.pt")
Argumento Tipo Padrão Descrição
data str obrigatório Caminho para o diretório contendo as imagens alvo para anotação ou segmentação.
det_model str 'yolo11x.pt' Caminho do modelo de detecção de objetos YOLO para detecção de objetos inicial.
sam_model str 'sam_b.pt' Caminho do modelo SAM para segmentação (suporta variantes SAM, SAM2 e modelos mobile_sam).
device str '' Dispositivo de computação (por exemplo, 'cuda:0', 'cpu' ou '' para detecção automática de dispositivo).
conf float 0.25 Limite de confiança da detecção YOLO para filtrar detecções fracas.
iou float 0.45 Limite de IoU para Supressão Não Máxima para filtrar caixas sobrepostas.
imgsz int 640 Tamanho de entrada para redimensionar imagens (deve ser múltiplo de 32).
max_det int 300 Número máximo de detecções por imagem para eficiência de memória.
classes list[int] None Lista de índices de classe para detectar (por exemplo, [0, 1] para pessoa e bicicleta).
output_dir str None Diretório para salvar as anotações (o padrão é './labels' relativo ao caminho dos dados).

O auto_annotate função recebe o caminho para suas imagens, juntamente com argumentos opcionais para especificar os modelos de detecção pré-treinados, ou seja, YOLO11, YOLOv8 ou outro modelos e modelos de segmentação, ou seja, SAM, SAM2 ou MobileSAM, o dispositivo para executar os modelos e o diretório de saída para salvar os resultados anotados.

Ao aproveitar o poder dos modelos pré-treinados, a auto-anotação pode reduzir significativamente o tempo e o esforço necessários para criar conjuntos de dados de segmentação de alta qualidade. Este recurso é particularmente útil para pesquisadores e desenvolvedores que trabalham com grandes coleções de imagens, pois permite que eles se concentrem no desenvolvimento e avaliação de modelos, em vez de na anotação manual.

Visualizar Anotações do Conjunto de Dados

Antes de treinar seu modelo, geralmente é útil visualizar as anotações do seu conjunto de dados para garantir que estejam corretas. A Ultralytics fornece uma função de utilidade para isso:

from ultralytics.data.utils import visualize_image_annotations

label_map = {  # Define the label map with all annotated class labels.
    0: "person",
    1: "car",
}

# Visualize
visualize_image_annotations(
    "path/to/image.jpg",  # Input image path.
    "path/to/annotations.txt",  # Annotation file path for the image.
    label_map,
)

Esta função desenha caixas delimitadoras, rotula objetos com nomes de classe e ajusta a cor do texto para melhor legibilidade, ajudando você a identificar e corrigir quaisquer erros de anotação antes do treinamento.

Convertendo Máscaras de Segmentação para o Formato YOLO

Se você tiver máscaras de segmentação em formato binário, pode convertê-las para o formato de segmentação YOLO usando:

from ultralytics.data.converter import convert_segment_masks_to_yolo_seg

# For datasets like COCO with 80 classes
convert_segment_masks_to_yolo_seg(masks_dir="path/to/masks_dir", output_dir="path/to/output_dir", classes=80)

Este utilitário converte imagens de máscara binária para o formato de segmentação YOLO e as salva no diretório de saída especificado.

FAQ

Quais formatos de dataset o Ultralytics YOLO suporta para segmentação de instâncias?

O Ultralytics YOLO suporta vários formatos de conjunto de dados para segmentação de instâncias, sendo o formato principal o seu próprio formato Ultralytics YOLO. Cada imagem em seu conjunto de dados precisa de um arquivo de texto correspondente com informações do objeto segmentadas em várias linhas (uma linha por objeto), listando o índice da classe e as coordenadas de delimitação normalizadas. Para obter instruções mais detalhadas sobre o formato do conjunto de dados YOLO, visite a Visão Geral dos Conjuntos de Dados de Segmentação de Instâncias.

Como posso converter anotações do conjunto de dados COCO para o formato YOLO?

Converter anotações no formato COCO para o formato YOLO é simples usando as ferramentas Ultralytics. Você pode usar o convert_coco função do ultralytics.data.converter módulo:

from ultralytics.data.converter import convert_coco

convert_coco(labels_dir="path/to/coco/annotations/", use_segments=True)

Este script converte as anotações do seu conjunto de dados COCO para o formato YOLO necessário, tornando-o adequado para treinar seus modelos YOLO. Para mais detalhes, consulte Portar ou Converter Formatos de Etiqueta.

Como preparar um arquivo YAML para treinar modelos Ultralytics YOLO?

Para preparar um arquivo YAML para treinar modelos YOLO com Ultralytics, você precisa definir os caminhos do conjunto de dados e os nomes das classes. Aqui está um exemplo de configuração YAML:

# Ultralytics 🚀 AGPL-3.0 License - https://ultralytics.com/license

# COCO8-seg dataset (first 8 images from COCO train2017) by Ultralytics
# Documentation: https://docs.ultralytics.com/datasets/segment/coco8-seg/
# Example usage: yolo train data=coco8-seg.yaml
# parent
# ├── ultralytics
# └── datasets
#     └── coco8-seg ← downloads here (1 MB)

# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: coco8-seg # dataset root dir
train: images/train # train images (relative to 'path') 4 images
val: images/val # val images (relative to 'path') 4 images
test: # test images (optional)

# Classes
names:
  0: person
  1: bicycle
  2: car
  3: motorcycle
  4: airplane
  5: bus
  6: train
  7: truck
  8: boat
  9: traffic light
  10: fire hydrant
  11: stop sign
  12: parking meter
  13: bench
  14: bird
  15: cat
  16: dog
  17: horse
  18: sheep
  19: cow
  20: elephant
  21: bear
  22: zebra
  23: giraffe
  24: backpack
  25: umbrella
  26: handbag
  27: tie
  28: suitcase
  29: frisbee
  30: skis
  31: snowboard
  32: sports ball
  33: kite
  34: baseball bat
  35: baseball glove
  36: skateboard
  37: surfboard
  38: tennis racket
  39: bottle
  40: wine glass
  41: cup
  42: fork
  43: knife
  44: spoon
  45: bowl
  46: banana
  47: apple
  48: sandwich
  49: orange
  50: broccoli
  51: carrot
  52: hot dog
  53: pizza
  54: donut
  55: cake
  56: chair
  57: couch
  58: potted plant
  59: bed
  60: dining table
  61: toilet
  62: tv
  63: laptop
  64: mouse
  65: remote
  66: keyboard
  67: cell phone
  68: microwave
  69: oven
  70: toaster
  71: sink
  72: refrigerator
  73: book
  74: clock
  75: vase
  76: scissors
  77: teddy bear
  78: hair drier
  79: toothbrush

# Download script/URL (optional)
download: https://github.com/ultralytics/assets/releases/download/v0.0.0/coco8-seg.zip

Certifique-se de que atualiza os caminhos e os nomes das classes de acordo com o seu conjunto de dados. Para mais informações, consulte a seção Formato YAML do Conjunto de Dados.

O que é o recurso de auto-anotação no Ultralytics YOLO?

A auto-anotação no Ultralytics YOLO permite gerar anotações de segmentação para o seu conjunto de dados usando um modelo de detecção pré-treinado. Isso reduz significativamente a necessidade de rotulagem manual. Você pode usar o auto_annotate função, como segue:

from ultralytics.data.annotator import auto_annotate

auto_annotate(data="path/to/images", det_model="yolo11x.pt", sam_model="sam_b.pt")  # or sam_model="mobile_sam.pt"

Esta função automatiza o processo de anotação, tornando-o mais rápido e eficiente. Para mais detalhes, explore a Referência de Auto-Anotação.



📅 Criado há 1 ano ✏️ Atualizado há 19 dias

Comentários