Distilling Knowledge via Knowledge Review 发表于 2021-08-27 更新于 2025-12-16 分类于 技术教程 , 论文笔记 , 项目实践 , 源码解析 , 论文阅读 , 算法复现 本文字数: 2.7k 阅读时长 ≈ 10 分钟 原文地址:Distilling Knowledge via Knowledge Review 官方实现:dvlab-research/ReviewKD 复现地址:ZJCV/KnowledgeReview 阅读全文 »
A Comprehensive Overhaul of Feature Distillation 发表于 2021-08-21 更新于 2025-12-16 分类于 论文笔记 , 项目实践 , 论文阅读 , 算法复现 本文字数: 2.7k 阅读时长 ≈ 10 分钟 原文地址:A Comprehensive Overhaul of Feature Distillation 官方实现: clovaai/overhaul-distillation 复现地址:ZJCV/overhaul 阅读全文 »
A Gift from Knowledge Distillation 发表于 2021-08-15 更新于 2025-12-16 分类于 技术教程 , 论文笔记 , 基础教程 , 论文阅读 本文字数: 2.4k 阅读时长 ≈ 9 分钟 原文地址:A Gift from Knowledge Distillation: Fast Optimization, Network Minimization and Transfer Learning 阅读全文 »
Paying More Attention to Attention 发表于 2021-08-10 更新于 2025-12-16 分类于 论文笔记 , 项目实践 , 论文阅读 , 算法复现 本文字数: 3.2k 阅读时长 ≈ 12 分钟 原文地址:Paying More Attention to Attention: Improving the Performance of Convolutional Neural Networks via Attention Transfer 官方实现:szagoruyko/attention-transfer 阅读全文 »
FitNets: Hints for Thin Deep Nets 发表于 2021-08-08 更新于 2025-12-16 分类于 技术教程 , 论文笔记 , 知识管理 , 源码解析 , 论文阅读 , 概念辨析 本文字数: 2.9k 阅读时长 ≈ 11 分钟 原文地址:FitNets: Hints for Thin Deep Nets 官方实现:adri-romsor/FitNets 阅读全文 »
Distilling the Knowledge in a Neural Network 发表于 2021-08-07 更新于 2025-12-16 分类于 技术教程 , 论文笔记 , 基础教程 , 论文阅读 本文字数: 2.2k 阅读时长 ≈ 8 分钟 原文地址:Distilling the Knowledge in a Neural Network 阅读全文 »
Lossless CNN Channel Pruning via Decoupling Remembering and Forgetting 发表于 2021-07-24 更新于 2025-12-16 分类于 评估报告 , 论文笔记 , 项目实践 , 论文阅读 , 性能测试 , 算法复现 本文字数: 3.6k 阅读时长 ≈ 13 分钟 原文地址:Lossless CNN Channel Pruning via Decoupling Remembering and Forgetting 官方实现: DingXiaoH/ResRep 阅读全文 »
Learning both Weights and Connections for Efficient Neural Networks 发表于 2021-07-02 更新于 2025-12-16 分类于 技术教程 , 论文笔记 , 项目实践 , 基础教程 , 论文阅读 , 算法复现 本文字数: 1.9k 阅读时长 ≈ 7 分钟 原文地址:Learning both Weights and Connections for Efficient Neural Networks 阅读全文 »
Learning Structured Sparsity in Deep Neural Networks 发表于 2021-06-29 更新于 2025-12-16 分类于 技术教程 , 论文笔记 , 项目实践 , 源码解析 , 论文阅读 , 算法复现 本文字数: 2.5k 阅读时长 ≈ 9 分钟 原文地址:Learning Structured Sparsity in Deep Neural Networks 官方实现: wenwei202/caffe 复现地址: ZJCV/SSL 阅读全文 »
Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding 发表于 2021-06-29 更新于 2025-12-16 分类于 评估报告 , 论文笔记 , 项目实践 , 论文阅读 , 性能测试 , 算法复现 本文字数: 2.6k 阅读时长 ≈ 9 分钟 原文地址:Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding 阅读全文 »