[OKR]2020年6月份
5
月份实现了SSD
和Faster R-CNN
算法,同时解析了基于MaskRCNN-benchmark
的目标检测框架,另外学习了cocoapi
的使用,最后学习了YOLOv2
算法
本周继续YOLOv2
算法的实现,同时期待能够找到新工作
5
月份实现了SSD
和Faster R-CNN
算法,同时解析了基于MaskRCNN-benchmark
的目标检测框架,另外学习了cocoapi
的使用,最后学习了YOLOv2
算法
本周继续YOLOv2
算法的实现,同时期待能够找到新工作
YOLOv2
在YOLO
的基础上进行了很多的调整,其中一个就是设置锚点框。相对于Faster R-CNN/SSD
通过人工方式设置锚点的尺度和长宽比,YOLOv2
提出了通过k-means
聚类的方式自动计算出锚点的大小
分类:类别是已知的,通过对已知分类的数据进行训练和学习,找到这些不同类别的特征,再对未分类的数据进行分类。属于有监督学习(有标签) 聚类:事先不知道数据会分为几类,通过聚类分析将数据聚合成几个群体。聚类不需要对数据进行训练和学习。属于无监督学习(无标签)
Image Localization Dataset是一个目标检测数据集,其标注文件使用了PASCAL VOC
定义的格式,将其转换成COCO
格式
介绍COCO
目标检测任务以及评价标准
COCO
将目标检测任务分为两个部分:
用于目标检测任务的训练/测试/验证数据集拥有超过20
万张图像,共80
个类别。其中,在训练和验证数据集上的标注超过了50
万个
介绍COCO
数据集以及标注文件格式。官网地址:COCO
COCO
是一个大规模的目标检测、分割和字幕数据集。包含了以下特征:
Object segmentation
)Recognition in context
)Superpixel stuff segmentation
)33
万张图像,其中超过20
万张已标注(330K images (>200K labeled)
)150
万个目标实例(1.5 million object instances
)80
个目标类别(80 object categories
)91 stuff categories
5
个字幕(5 captions per image
)25
万个行人关键点(250,000 people with keypoints
)研究lufficc/SSD源码时,发现其实现了一个目标检测训练框架,进行深入研究后整理成一个新的训练框架