大海

SIMPLE THE COMPLEX

  • 首页
  • 关于
  • 标签565
  • 分类27
  • 归档396
  • RSS
  • 搜索
  • 文章目录
  • 站点概览
zjykzj

zjykzj

one bite at a time
396 日志
27 分类
565 标签
163 Github
Creative Commons
Links
  • 腾讯云
  • 阿里云
  • PyTorch
  • OpenCV
  • Docker
  • Jenkins
0%

Distilling Knowledge via Knowledge Review

发表于 2021-08-27 更新于 2021-10-14 分类于 知识迁移/knowledge transfer
本文字数: 4.9k 阅读时长 ≈ 9 分钟

原文地址:Distilling Knowledge via Knowledge Review

官方实现:dvlab-research/ReviewKD

复现地址:ZJCV/KnowledgeReview

阅读全文 »

A Comprehensive Overhaul of Feature Distillation

发表于 2021-08-21 更新于 2021-09-22 分类于 知识迁移/knowledge transfer
本文字数: 4.4k 阅读时长 ≈ 8 分钟

原文地址:A Comprehensive Overhaul of Feature Distillation

官方实现:clovaai/overhaul-distillation

复现地址:ZJCV/overhaul

阅读全文 »

A Gift from Knowledge Distillation

发表于 2021-08-15 更新于 2021-08-21 分类于 知识迁移/knowledge transfer
本文字数: 3.9k 阅读时长 ≈ 7 分钟

原文地址:A Gift from Knowledge Distillation: Fast Optimization, Network Minimization and Transfer Learning

阅读全文 »

Paying More Attention to Attention

发表于 2021-08-10 更新于 2021-08-15 分类于 知识迁移/knowledge transfer
本文字数: 5.6k 阅读时长 ≈ 10 分钟

原文地址:Paying More Attention to Attention: Improving the Performance of Convolutional Neural Networks via Attention Transfer

官方实现:szagoruyko/attention-transfer

阅读全文 »

FitNets: Hints for Thin Deep Nets

发表于 2021-08-08 更新于 2021-08-14 分类于 知识迁移/knowledge transfer
本文字数: 4.9k 阅读时长 ≈ 9 分钟

原文地址:FitNets: Hints for Thin Deep Nets

官方实现:adri-romsor/FitNets

阅读全文 »

Distilling the Knowledge in a Neural Network

发表于 2021-08-07 更新于 2021-08-10 分类于 知识迁移/knowledge transfer
本文字数: 3.8k 阅读时长 ≈ 7 分钟

原文地址:Distilling the Knowledge in a Neural Network

阅读全文 »

Lossless CNN Channel Pruning via Decoupling Remembering and Forgetting

发表于 2021-07-24 更新于 2021-07-25 分类于 网络剪枝/network pruning
本文字数: 7.2k 阅读时长 ≈ 13 分钟

原文地址:Lossless CNN Channel Pruning via Decoupling Remembering and Forgetting

官方实现:DingXiaoH/ResRep

阅读全文 »

Learning both Weights and Connections for Efficient Neural Networks

发表于 2021-07-02 更新于 2021-07-03 分类于 网络剪枝/network pruning
本文字数: 3.1k 阅读时长 ≈ 6 分钟

原文地址:Learning both Weights and Connections for Efficient Neural Networks

阅读全文 »

Learning Structured Sparsity in Deep Neural Networks

发表于 2021-06-29 更新于 2021-07-17 分类于 网络剪枝/network pruning
本文字数: 4.9k 阅读时长 ≈ 9 分钟

原文地址:Learning Structured Sparsity in Deep Neural Networks

官方实现:wenwei202/caffe

复现地址:ZJCV/SSL

阅读全文 »

Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding

发表于 2021-06-29 更新于 2021-07-03 分类于 网络剪枝/network pruning
本文字数: 4.3k 阅读时长 ≈ 8 分钟

原文地址:Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding

阅读全文 »
1…101112…40
© 2025 zjykzj
1.9m 56:20
由 Hexo & NexT.Gemini 强力驱动