数据pipeline优化-2
本文字数: 2.2k 阅读时长 ≈ 4 分钟
之前因为服务器性能原因,对ImageNet
数据集进行训练时出现数据加载瓶颈,当时搜索了多种方式,尝试对数据pipeline
进行优化,从而提高数据加载能力。详情参见数据pipeline优化
这一次遇到了新的问题,就是在千万级别数据训练情况下如何在固定内存空间和其他硬件性能的情况下提高数据加载和预处理能力。
Destruction and Construction Learning for Fine-grained Image Recognition
本文字数: 6.4k 阅读时长 ≈ 12 分钟
Distilling Knowledge via Knowledge Review
本文字数: 4.9k 阅读时长 ≈ 9 分钟
A Comprehensive Overhaul of Feature Distillation
本文字数: 4.4k 阅读时长 ≈ 8 分钟
A Gift from Knowledge Distillation
本文字数: 3.9k 阅读时长 ≈ 7 分钟
Paying More Attention to Attention
本文字数: 5.6k 阅读时长 ≈ 10 分钟
FitNets: Hints for Thin Deep Nets
本文字数: 4.9k 阅读时长 ≈ 9 分钟
Distilling the Knowledge in a Neural Network
本文字数: 3.8k 阅读时长 ≈ 7 分钟
Lossless CNN Channel Pruning via Decoupling Remembering and Forgetting
本文字数: 7.2k 阅读时长 ≈ 13 分钟