ResNet-18/34/50/101/152
论文Deep Residual Learning for Image Recognition实现了一种新的网络结构 - 残差学习框架。通过堆叠残差单元,能够实现非常深的网络模型
下面使用PyTorch
实现ResNet -18/34/50/101/152
[GoogLeNet]Inception-ResNet-v2
参考:Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning,解析Inception-ResNet-v2
架构
[GoogLeNet]Inception-ResNet-v1
参考:Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning,解析Inception-ResNet-v1
架构
[GoogLeNet]Inception-v4
Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning
原文地址:Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning
论文基于Inception
结构和残差连接实现了3
个网络:
Inception-v4
Inception-ResNet-v1
Inception-ResNet-v2
通过实验证明了残差连接能够很好的改善训练速度,同时证明了非残差的Inception
网络同样能够实现最好的分类精度
[Deep Residual Learning for Image Recognition]用于图像识别的深度残差学习
[目标检测][目标识别]模型性能测试
在目标检测和目标识别任务中,常用以下几种评价标准:
- 参数数目
FLOPs
FPS
Accuracy/Error Rate
mAP
结合PyTorch
完成了相关评价标准的实现:zjZSTU/Evaluation-Metrics
相关实现文档:Evaluation-Metrics
[GoogLeNet]Inception_v3
论文Rethinking the Inception Architecture for Computer Vision对GoogLeNet和GoogleNet_BN的实现做了进一步的解释,同时提出了新的Inception
模块和损失函数LSR(label-smoothing regularizer)
上一篇实现了Inception_v2
架构,经过测试发现其损失收敛速度确实高于之前的GoogLeNet_BN
。本文在此基础上实现Inception_v3
架构
论文翻译地址:[译]Rethinking the Inception Architecture for Computer Vision
Inception_v2
实现:[GoogLeNet]Inception_v2
发现一个在线可视化工具:Netscope CNN Analyzer,里面提供了Inception v3
的可视化及详细参数:Inception v3
[GoogLeNet]Inception_v2
论文Rethinking the Inception Architecture for Computer Vision对GoogLeNet和GoogleNet_BN的实现做了进一步的解释,同时提出了新的Inception
模块和损失函数LSR(label-smoothing regularizer)
,本文实现其中的Inception_v2
架构
论文翻译地址:[译]Rethinking the Inception Architecture for Computer Vision