5月份实现了SSDFaster R-CNN算法,同时解析了基于MaskRCNN-benchmark的目标检测框架,另外学习了cocoapi的使用,最后学习了YOLOv2算法

本周继续YOLOv2算法的实现,同时期待能够找到新工作

阅读全文 »

YOLOv2YOLO的基础上进行了很多的调整,其中一个就是设置锚点框。相对于Faster R-CNN/SSD通过人工方式设置锚点的尺度和长宽比,YOLOv2提出了通过k-means聚类的方式自动计算出锚点的大小

阅读全文 »

分类 vs. 聚类

分类:类别是已知的,通过对已知分类的数据进行训练和学习,找到这些不同类别的特征,再对未分类的数据进行分类。属于有监督学习(有标签) 聚类:事先不知道数据会分为几类,通过聚类分析将数据聚合成几个群体。聚类不需要对数据进行训练和学习。属于无监督学习(无标签)

阅读全文 »

介绍COCO目标检测任务以及评价标准

目标检测任务

COCO将目标检测任务分为两个部分:

  1. 边界框检测
  2. 目标分割检测,也称为实例分割

用于目标检测任务的训练/测试/验证数据集拥有超过20万张图像,共80个类别。其中,在训练和验证数据集上的标注超过了50万个

阅读全文 »

介绍COCO数据集以及标注文件格式。官网地址:COCO

简介

COCO是一个大规模的目标检测、分割和字幕数据集。包含了以下特征:

  1. 目标分割(Object segmentation
  2. 场景分析(Recognition in context
  3. 超像素分割(Superpixel stuff segmentation
  4. 33万张图像,其中超过20万张已标注(330K images (>200K labeled)
  5. 150万个目标实例(1.5 million object instances
  6. 80个目标类别(80 object categories
  7. 91 stuff categories
  8. 每张图片5个字幕(5 captions per image
  9. 25万个行人关键点(250,000 people with keypoints
阅读全文 »