[YOLO][k-means聚类]寻找锚点
YOLOv2在YOLO的基础上进行了很多的调整,其中一个就是设置锚点框。相对于Faster R-CNN/SSD通过人工方式设置锚点的尺度和长宽比,YOLOv2提出了通过k-means聚类的方式自动计算出锚点的大小
YOLOv2在YOLO的基础上进行了很多的调整,其中一个就是设置锚点框。相对于Faster R-CNN/SSD通过人工方式设置锚点的尺度和长宽比,YOLOv2提出了通过k-means聚类的方式自动计算出锚点的大小
分类:类别是已知的,通过对已知分类的数据进行训练和学习,找到这些不同类别的特征,再对未分类的数据进行分类。属于有监督学习(有标签) 聚类:事先不知道数据会分为几类,通过聚类分析将数据聚合成几个群体。聚类不需要对数据进行训练和学习。属于无监督学习(无标签)
Image Localization Dataset是一个目标检测数据集,其标注文件使用了PASCAL VOC定义的格式,将其转换成COCO格式
介绍COCO目标检测任务以及评价标准
COCO将目标检测任务分为两个部分:
用于目标检测任务的训练/测试/验证数据集拥有超过20万张图像,共80个类别。其中,在训练和验证数据集上的标注超过了50万个
介绍COCO数据集以及标注文件格式。官网地址:COCO
COCO是一个大规模的目标检测、分割和字幕数据集。包含了以下特征:
Object segmentation)Recognition in context)Superpixel stuff segmentation)33万张图像,其中超过20万张已标注(330K images (>200K labeled))150万个目标实例(1.5 million object instances)80个目标类别(80 object categories)91 stuff categories5个字幕(5 captions per image)25万个行人关键点(250,000 people with keypoints)研究lufficc/SSD源码时,发现其实现了一个目标检测训练框架,进行深入研究后整理成一个新的训练框架
阅读源码时发现torchvision提供了许多边界框操作,包括
NMSIoU计算在线文档:torchvision.ops
源码地址:torchvision/ops/boxes.py
当前torchvision版本:0.6.0a0+82fd1c8