[目标检测][目标识别]模型性能测试
在目标检测和目标识别任务中,常用以下几种评价标准:
- 参数数目
FLOPs
FPS
Accuracy/Error Rate
mAP
结合PyTorch
完成了相关评价标准的实现:zjZSTU/Evaluation-Metrics
相关实现文档:Evaluation-Metrics
在目标检测和目标识别任务中,常用以下几种评价标准:
FLOPs
FPS
Accuracy/Error Rate
mAP
结合PyTorch
完成了相关评价标准的实现:zjZSTU/Evaluation-Metrics
相关实现文档:Evaluation-Metrics
论文Rethinking the Inception Architecture for Computer Vision对GoogLeNet和GoogleNet_BN的实现做了进一步的解释,同时提出了新的Inception
模块和损失函数LSR(label-smoothing regularizer)
上一篇实现了Inception_v2
架构,经过测试发现其损失收敛速度确实高于之前的GoogLeNet_BN
。本文在此基础上实现Inception_v3
架构
论文翻译地址:[译]Rethinking the Inception Architecture for Computer Vision
Inception_v2
实现:[GoogLeNet]Inception_v2
发现一个在线可视化工具:Netscope CNN Analyzer,里面提供了Inception v3
的可视化及详细参数:Inception v3
论文Rethinking the Inception Architecture for Computer Vision对GoogLeNet和GoogleNet_BN的实现做了进一步的解释,同时提出了新的Inception
模块和损失函数LSR(label-smoothing regularizer)
,本文实现其中的Inception_v2
架构
论文翻译地址:[译]Rethinking the Inception Architecture for Computer Vision
论文Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift将批量归一化方法作用于卷积神经网络,通过校正每层输入数据的数据分布,从而达到更快的训练目的。在文章最后,添加批量归一化层到GoogLeNet
网络,得到了更好的检测效果
学习了论文Going deeper with convolutions
,尝试进一步推导其模型,并使用PyTorch
实现该网络
学习论文Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift,里面提出了批量归一化(Batch Normalization
,简称BN
)方法,一方面能够大幅提高训练速度,另一方面也能够实现更好的模型精度
综合PASCAL VOC 2007
和2012
数据集,进行分类/检测任务。分两步完成:
07 trainval、07 test、12 trainval
数据集,解析出分类/检测需要的数据相关实现:zjykzj/vocdev
相比于之前的挑战赛,PASCAL VOC 2012增加了更多的训练和测试图像,同时,这也是最后一届挑战赛。其关于PASCAL VOC
以及之前挑战赛的内容参考:
相关实现:zjykzj/vocdev
文章Going deeper with convolutions提出了一种新的卷积架构 - Inception
,基于此实现的CNN
架构GoogLeNet
能够得到更好的分类和检测效果