VisDrone 数据集
VisDrone 数据集是由中国天津大学机器学习与数据挖掘实验室的 AISKYEYE 团队创建的一个大型基准。它包含经过仔细注释的地面真实数据,用于与基于无人机的图像和视频分析相关的各种计算机视觉任务。
观看: 如何在用于无人机图像分析的 VisDrone 数据集上训练Ultralytics YOLO 模型
VisDrone由288个视频片段、261,908帧图像和10,209张静态图像组成,这些视频片段和图像由不同的无人机摄像头拍摄。数据集涵盖了多个方面,包括地点(中国 14 个不同城市)、环境(城市和农村)、物体(行人、车辆、自行车等)和密度(稀疏和拥挤场景)。数据集是在不同场景、天气和照明条件下使用各种无人机平台收集的。这些帧由人工标注了超过 260 万个目标(如行人、汽车、自行车和三轮车)的边界框。为了更好地利用数据,还提供了场景可见度、物体类别和遮挡等属性。
数据集结构
VisDrone 数据集分为五个主要子集,每个子集都侧重于特定任务:
- 任务 1:图像中的物体检测
- 任务 2:视频中的物体检测
- 任务 3:单个目标跟踪
- 任务 4:多目标跟踪
- 任务 5:人群计数
应用
VisDrone 数据集广泛用于训练和评估基于无人机的计算机视觉任务中的深度学习模型,如物体检测、物体跟踪和人群计数。该数据集包含多种传感器数据、物体注释和属性,是无人机计算机视觉领域研究人员和从业人员的宝贵资源。
数据集 YAML
YAML(另一种标记语言)文件用于定义数据集配置。它包含数据集的路径、类和其他相关信息。就 Visdrone 数据集而言,YAML 文件中的 VisDrone.yaml
文件保存在 https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/VisDrone.yaml.
ultralytics/cfg/datasets/VisDrone.yaml
# Ultralytics 🚀 AGPL-3.0 License - https://ultralytics.com/license
# VisDrone2019-DET dataset https://github.com/VisDrone/VisDrone-Dataset by Tianjin University
# Documentation: https://docs.ultralytics.com/datasets/detect/visdrone/
# Example usage: yolo train data=VisDrone.yaml
# parent
# ├── ultralytics
# └── datasets
# └── VisDrone ← downloads here (2.3 GB)
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: VisDrone # dataset root dir
train: images/train # train images (relative to 'path') 6471 images
val: images/val # val images (relative to 'path') 548 images
test: images/test # test-dev images (optional) 1610 images
# Classes
names:
0: pedestrian
1: people
2: bicycle
3: car
4: van
5: truck
6: tricycle
7: awning-tricycle
8: bus
9: motor
# Download script/URL (optional) ---------------------------------------------------------------------------------------
download: |
import os
from pathlib import Path
import shutil
from ultralytics.utils.downloads import download
def visdrone2yolo(dir, split, source_name=None):
"""Convert VisDrone annotations to YOLO format with images/{split} and labels/{split} structure."""
from PIL import Image
from tqdm import tqdm
source_dir = dir / (source_name or f"VisDrone2019-DET-{split}")
images_dir = dir / "images" / split
labels_dir = dir / "labels" / split
labels_dir.mkdir(parents=True, exist_ok=True)
# Move images to new structure
if (source_images_dir := source_dir / "images").exists():
images_dir.mkdir(parents=True, exist_ok=True)
for img in source_images_dir.glob("*.jpg"):
img.rename(images_dir / img.name)
for f in tqdm((source_dir / "annotations").glob("*.txt"), desc=f"Converting {split}"):
img_size = Image.open(images_dir / f.with_suffix(".jpg").name).size
dw, dh = 1.0 / img_size[0], 1.0 / img_size[1]
lines = []
with open(f, encoding="utf-8") as file:
for row in [x.split(",") for x in file.read().strip().splitlines()]:
if row[4] != "0": # Skip ignored regions
x, y, w, h = map(int, row[:4])
cls = int(row[5]) - 1
# Convert to YOLO format
x_center, y_center = (x + w / 2) * dw, (y + h / 2) * dh
w_norm, h_norm = w * dw, h * dh
lines.append(f"{cls} {x_center:.6f} {y_center:.6f} {w_norm:.6f} {h_norm:.6f}\n")
(labels_dir / f.name).write_text("".join(lines), encoding="utf-8")
# Download (ignores test-challenge split)
dir = Path(yaml["path"]) # dataset root dir
urls = [
"https://github.com/ultralytics/assets/releases/download/v0.0.0/VisDrone2019-DET-train.zip",
"https://github.com/ultralytics/assets/releases/download/v0.0.0/VisDrone2019-DET-val.zip",
"https://github.com/ultralytics/assets/releases/download/v0.0.0/VisDrone2019-DET-test-dev.zip",
# "https://github.com/ultralytics/assets/releases/download/v0.0.0/VisDrone2019-DET-test-challenge.zip",
]
download(urls, dir=dir, curl=True, threads=4)
# Convert
splits = {"VisDrone2019-DET-train": "train", "VisDrone2019-DET-val": "val", "VisDrone2019-DET-test-dev": "test"}
for folder, split in splits.items():
visdrone2yolo(dir, split, folder) # convert VisDrone annotations to YOLO labels
shutil.rmtree(dir / folder) # cleanup original directory
使用方法
要在 VisDrone 数据集上对 YOLO11n 模型进行 100次历时训练(图像大小为 640),可以使用以下代码片段。有关可用参数的完整列表,请参阅模型训练页面。
列车示例
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # load a pretrained model (recommended for training)
# Train the model
results = model.train(data="VisDrone.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=VisDrone.yaml model=yolo11n.pt epochs=100 imgsz=640
样本数据和注释
VisDrone 数据集包含由安装在无人机上的相机拍摄的各种图像和视频。下面是数据集中的一些数据示例及其相应的注释:
该示例展示了 VisDrone 数据集中数据的多样性和复杂性,并强调了高质量传感器数据对于无人机计算机视觉任务的重要性。
引文和致谢
如果您在研究或开发工作中使用 VisDrone 数据集,请引用以下论文:
@ARTICLE{9573394,
author={Zhu, Pengfei and Wen, Longyin and Du, Dawei and Bian, Xiao and Fan, Heng and Hu, Qinghua and Ling, Haibin},
journal={IEEE Transactions on Pattern Analysis and Machine Intelligence},
title={Detection and Tracking Meet Drones Challenge},
year={2021},
volume={},
number={},
pages={1-1},
doi={10.1109/TPAMI.2021.3119563}}
天津大学机器学习与数据挖掘实验室的 AISKYEYE 团队创建并维护了 VisDrone 数据集,为基于无人机的计算机视觉研究界提供了宝贵的资源,在此表示感谢。有关 VisDrone 数据集及其创建者的更多信息,请访问VisDrone 数据集 GitHub 存储库。
常见问题
什么是 VisDrone 数据集,它有哪些主要功能?
VisDrone 数据集是由中国天津大学 AISKYEYE 团队创建的一个大型基准。它专为与基于无人机的图像和视频分析相关的各种计算机视觉任务而设计。主要功能包括
- 构成:288 个视频片段,261 908 个帧和 10 209 个静态图像。
- 注释行人、汽车、自行车和三轮车等对象的边界框超过 260 万个。
- 多样性:在 14 个城市的城市和乡村环境中,在不同的天气和光照条件下进行采集。
- 任务:分为五项主要任务--图像和视频中的目标检测、单目标和多目标跟踪以及人群计数。
如何使用 VisDrone 数据集通过Ultralytics 训练YOLO11 模型?
要在 VisDrone 数据集上对YOLO11 模型进行 100 次历时训练(图像大小为 640),可以按照以下步骤进行:
列车示例
from ultralytics import YOLO
# Load a pretrained model
model = YOLO("yolo11n.pt")
# Train the model
results = model.train(data="VisDrone.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo detect train data=VisDrone.yaml model=yolo11n.pt epochs=100 imgsz=640
有关其他配置选项,请参阅型号培训页面。
VisDrone 数据集的主要子集及其应用是什么?
VisDrone 数据集分为五个主要子集,每个子集都针对特定的计算机视觉任务:
- 任务 1:图像中的物体检测
- 任务 2:视频中的物体检测。
- 任务 3:单个目标跟踪。
- 任务 4:多目标跟踪。
- 任务 5:人群计数。
这些子集被广泛用于监控、交通监控和公共安全等无人机应用中深度学习模型的训练和评估。
哪里可以找到Ultralytics 中 VisDrone 数据集的配置文件?
VisDrone 数据集的配置文件、 VisDrone.yaml
可通过以下链接在Ultralytics 存储库中找到:
VisDrone.yaml.
如果在研究中使用 VisDrone 数据集,如何引用该数据集?
如果您在研究或开发工作中使用 VisDrone 数据集,请引用以下论文:
@ARTICLE{9573394,
author={Zhu, Pengfei and Wen, Longyin and Du, Dawei and Bian, Xiao and Fan, Heng and Hu, Qinghua and Ling, Haibin},
journal={IEEE Transactions on Pattern Analysis and Machine Intelligence},
title={Detection and Tracking Meet Drones Challenge},
year={2021},
volume={},
number={},
pages={1-1},
doi={10.1109/TPAMI.2021.3119563}
}