大海
http://blog.zjykzj.cn/icon.png
SIMPLE THE COMPLEX
2024-02-26T14:17:52.988Z
http://blog.zjykzj.cn/
zjykzj
Hexo
AnchorBoxes
http://blog.zjykzj.cn/posts/d536e7f0.html
2024-02-26T13:29:20.000Z
2024-02-26T14:17:52.988Z
<p>使用锚点框(<code>AnchorBoxes</code>)可以帮助目标检测网络更快速的收敛到真值框(<code>GroundTruth</code>)。关于锚点框的实现也经历了多次迭代变化:<code>YOLOv2/YOLOv3/YOLOv4/YOLOv5</code>。</p>
<ul>
<li><a
href="https://github.com/zjykzj/anchor-boxes">zjykzj/anchor-boxes</a></li>
</ul>
[Gradio]自动生成交互式用户界面
http://blog.zjykzj.cn/posts/4bc7c760.html
2024-01-28T07:34:35.000Z
2024-01-29T13:13:16.284Z
<p><a
href="https://www.gradio.app/">Gradio</a>是一个开源Python包,能够自动构建交互式用户界面,帮助工程师快速对外展示算法实现效果。</p>
<p><img src="/imgs/tool/gradio/lcm-screenshot-3.gif" /></p>
算法工程师
http://blog.zjykzj.cn/posts/63f65c0c.html
2024-01-21T08:25:57.000Z
2024-02-17T03:14:12.733Z
<ul>
<li>初级算法:算法落地</li>
<li>中级算法:算法开发</li>
<li>高级算法:算法创新</li>
</ul>
YOLOv5/YOLOv8前后处理
http://blog.zjykzj.cn/posts/b7a49fab.html
2024-01-07T13:22:48.000Z
2024-01-30T13:22:18.707Z
<!-- ![](/imgs/object_detect/yolov5-preprocess-postprocess/YOLOv5.png) -->
<p><img
src="/imgs/object_detect/yolov5-preprocess-postprocess/YOLOv8.png" /></p>
2023年小结
http://blog.zjykzj.cn/posts/c376d67f.html
2023-12-31T08:36:13.000Z
2024-01-01T13:11:44.501Z
<p>在2023年做了很多事情,仔细想想,需要记录的内容有很多。</p>
论文汇总
http://blog.zjykzj.cn/posts/b58aa148.html
2023-11-14T12:29:35.000Z
2023-11-26T14:22:42.003Z
<p>整理网站发布过的论文调研,涉及模型训练、目标分类、目标检测、图像检索、人脸识别、模型蒸馏、模型剪枝、视频识别、细粒度分类、行人属性识别、视频压缩等领域。</p>
轻量级DevOps平台-Gitea
http://blog.zjykzj.cn/posts/2f179d77.html
2023-11-12T13:53:09.000Z
2024-01-01T12:29:31.590Z
<p>标题是<a
href="https://about.gitea.com/">Gitea</a>官网自己介绍的,我的理解它就是轻量级的源码管理平台,同时支持各种CI&CD工具的插件扩展。</p>
<p><img src="/imgs/tool/gitea/gitea.svg" /></p>
容器管理工具-portainer.io
http://blog.zjykzj.cn/posts/e7ae0881.html
2023-11-12T12:26:53.000Z
2024-01-01T12:29:36.218Z
<p><a
href="https://www.portainer.io/">portainer.io</a>是一款web端的容器管理工具。</p>
<p><img
src="/imgs/tool/portainer/portainer-architecture-detailed.png" /></p>
RethinkingPAR-行人属性识别
http://blog.zjykzj.cn/posts/2c7e5cda.html
2023-11-12T08:21:10.000Z
2023-12-31T08:23:44.926Z
<p>论文<a href="https://blog.zjykzj.cn/posts/202dcbdc.html">Rethinking
of Pedestrian Attribute Recognition</a>提供了<a
href="https://github.com/valencebond/Rethinking_of_PAR">valencebond/Rethinking_of_PAR</a>。</p>
Rethinking of Pedestrian Attribute Recognition
http://blog.zjykzj.cn/posts/202dcbdc.html
2023-11-05T08:33:56.000Z
2023-12-31T08:23:34.978Z
<p>论文地址:<a href="https://arxiv.org/abs/2107.03576">Rethinking of
Pedestrian Attribute Recognition: A Reliable Evaluation under Zero-Shot
Pedestrian Identity Setting</a></p>
<p>官方实现:<a
href="https://github.com/valencebond/Rethinking_of_PAR">valencebond/Rethinking_of_PAR</a></p>
Pytorch->ONNX->TensorRT
http://blog.zjykzj.cn/posts/b27558b2.html
2023-11-04T14:19:05.000Z
2024-02-17T03:07:55.336Z
<p><code>Pytorch</code>分类/检测/分割模型转换到<code>ONNX</code>格式,最后转换成<code>TensorRT Engine</code>文件进行推理(<code>Python</code>)。</p>
<p><img src="/imgs/tool/pytorch2onnx2tensorrt/dl-cycle.png" /></p>
制作Docker镜像:Docker+TensorRT+Pytorch+SSH
http://blog.zjykzj.cn/posts/3f02448e.html
2023-10-28T12:43:26.000Z
2024-01-01T12:29:41.926Z
<p>制作Docker镜像,包含Pytorch+TensorRT开发环境,同时开通SSH连接</p>
不一定难,但是绝对不简单
http://blog.zjykzj.cn/posts/c462289e.html
2023-08-31T14:42:54.000Z
2023-08-31T15:23:45.513Z
<p>2023年8月29日,完成了南京陆小馋的零食AI交付,用的最新研发的算法,效果非常好。晚上10点多,我一个人走在马路上,非常安静,我的脑海中一直回味着白天非常棒的识别效果。仔细想想,我现在做的零食算法研发,它<strong>不一定难,但是绝对不简单</strong>。</p>
Github 2FA
http://blog.zjykzj.cn/posts/675761a2.html
2023-08-27T13:05:36.000Z
2023-08-27T13:31:10.647Z
<p>前段时间Github突然通知我在9月28日之前完成2FA的配置。</p>
MobileNet/ShuffleNet/GhostNet/EfficientNet-Lite
http://blog.zjykzj.cn/posts/3c23398d.html
2023-08-19T07:39:39.000Z
2023-08-27T13:32:07.932Z
<p>之前整理过一些图像分类相关的论文和实现:<a
href="https://blog.zjykzj.cn/posts/a64200b6.html">图像分类</a>。这一次专门总结轻量网络的构成和演化。</p>
Grad-CAM
http://blog.zjykzj.cn/posts/531cdffe.html
2023-08-19T01:52:15.000Z
2023-08-19T03:29:08.814Z
<p>Grad-CAM(Gradient-weighted Class Activation
Mapping)提供了一种可视化视角来表明图像不同区域的卷积激活的重要程度。</p>
<p>实现:<a href="https://github.com/zjykzj/cam">zjykzj/cam</a></p>
资产的价值和价格
http://blog.zjykzj.cn/posts/d79074b.html
2023-07-23T03:07:55.000Z
2023-08-19T03:46:33.462Z
<p>资产的价值和价格的关系?个人技能是资产吗?</p>
YOLO系列-YOLOv1
http://blog.zjykzj.cn/posts/629eb18c.html
2023-07-09T07:07:30.000Z
2023-07-23T07:12:35.369Z
<p>重新学习YOLOv1论文,以及复现YOLOv1工程。</p>
帧间差分算法
http://blog.zjykzj.cn/posts/88f4fd4a.html
2023-06-17T14:06:50.000Z
2023-06-17T14:27:59.700Z
<p>帧间差分算法是常用的运动目标检测算法。</p>
时间就是金钱?!?
http://blog.zjykzj.cn/posts/ac4890ab.html
2023-06-05T13:15:01.000Z
2023-06-05T14:31:57.770Z
<p>时间就是金钱?你的时间就是金钱?做什么样的事情才能保证时间就是金钱?时间就是金钱是一件好事吗?</p>
古董投资?!?
http://blog.zjykzj.cn/posts/2525188f.html
2023-05-29T11:54:43.000Z
2023-06-05T13:05:53.092Z
<p>最近经常有刷到古董鉴定的短视频,无数热爱或者跟风或者投资古董的玩家拿出他们珍藏的陶瓷、书画、器皿等等古玩进行专家鉴定。对于同一件东西,从专家和玩家各自的说辞中,能够发现一些很有意思的地方。</p>
[COCO]为什么总共有91个类别,检测任务仅采用了80类
http://blog.zjykzj.cn/posts/b60ccf57.html
2023-04-08T08:06:37.000Z
2023-05-29T11:54:53.081Z
<p>调研coco数据集的时候,有一个小疑惑,就是官网介绍说coco包含了80个目标类别(<code>object categories</code>)和91个材料类别(<code>stuff categories</code>)。这两者有什么差别?为什么目标检测任务不使用全部的91个类别?</p>
Thinking about ChatGPT
http://blog.zjykzj.cn/posts/1e2e6f62.html
2023-03-26T06:22:52.000Z
2023-03-26T07:34:56.888Z
<p>什么是ChatGPT?能用它来做什么?它会消灭什么岗位?它会增强什么岗位?它还会提高吗?</p>
ChatGPT with Google
http://blog.zjykzj.cn/posts/d44eb6c1.html
2023-03-26T03:02:09.000Z
2023-03-26T03:26:28.634Z
<p>ChatGPT已经发布一段时间了,陆陆续续的有不少小伙伴开始注册和使用它,一致好评!!!我也尝试着注册和使用ChatGPT,记录一下。</p>
实践是检验真理的唯一标准
http://blog.zjykzj.cn/posts/cf749f20.html
2023-02-27T12:40:50.000Z
2023-02-27T13:31:16.136Z
<p>越来越发现这个时代充斥着太多的文章和理论,每一件事情都可以找到N多种研究的方法,到底什么才是最好的,什么才是适合自己的?唯有实践,才是检验真理的唯一标准!</p>
Thanks to Jetbrains
http://blog.zjykzj.cn/posts/99e7bfa7.html
2023-02-15T11:56:53.000Z
2024-02-01T14:14:08.757Z
<p>一直使用Jetbrains的Pycharm/CLion进行开发,之前使用学校邮箱申请过免费许可证。最近发现Jetbrains针对开源项目提供了免费许可证</p>
YOLOv3: An Incremental Improvement
http://blog.zjykzj.cn/posts/d11ced80.html
2023-02-11T08:17:15.000Z
2024-01-30T13:23:13.775Z
<p>原文地址:<a href="https://arxiv.org/abs/1804.02767">YOLOv3: An
Incremental Improvement</a></p>
2022年小结
http://blog.zjykzj.cn/posts/2cb4bd41.html
2023-01-20T03:36:17.000Z
2023-01-25T11:37:50.373Z
<p>今天是2023年1月20号,也就是农历2022年十二月二十九日。2022年已经过去了,需要记录的东西有很多。</p>
一句话
http://blog.zjykzj.cn/posts/38c692b.html
2023-01-20T03:20:14.000Z
2023-01-27T05:20:38.686Z
<p>一些想法,以及一些觉得有想法的句子,记录一下。</p>
Revisiting Oxford and Paris: Large-Scale Image Retrieval Benchmarking
http://blog.zjykzj.cn/posts/b2854db9.html
2022-10-24T13:42:44.000Z
2022-10-24T13:35:58.119Z
<p>原文地址:<a href="https://arxiv.org/abs/1803.11285">Revisiting
Oxford and Paris: Large-Scale Image Retrieval Benchmarking</a></p>
<p>官方实现:<a
href="https://github.com/filipradenovic/revisitop">filipradenovic/revisitop</a></p>
Oxford5k and Paris6k
http://blog.zjykzj.cn/posts/a3f0cb26.html
2022-10-24T11:40:38.000Z
2022-10-24T13:57:46.065Z
<ul>
<li><a href="https://www.robots.ox.ac.uk/~vgg/data/oxbuildings/">The
Oxford Buildings Dataset</a></li>
<li><a href="https://www.robots.ox.ac.uk/~vgg/data/parisbuildings/">The
Paris Dataset</a></li>
</ul>
[C++]Google Code Style
http://blog.zjykzj.cn/posts/d85ba483.html
2022-10-20T12:15:13.000Z
2022-10-20T13:01:00.417Z
<p>为了更好的组织和协作<code>C++</code>工程,尝试使用<code>Google Code Style</code>来帮助规范代码实现。</p>
登山,做一件确定的事情
http://blog.zjykzj.cn/posts/18ee8513.html
2022-10-05T10:39:43.000Z
2022-10-05T11:43:22.281Z
<p>国庆节,有了一个充足的假期,想着出去散散心,爬了午潮山国家森林公园。石板路绵延了好几座山,花了两个多小时终于完成了整个行程,很辛苦,不过在茂密的树林中间行走会感觉格外的轻爽,眼前掠过的风景也给予我新奇的体验。</p>
<p>结束行程的时候,突然想到一件事情:为什么我喜欢登山?整个过程耗费了大量的体力和精力,甚至中间可能会出现小意外。是为了锻炼?还是为了放松心情?陶冶情操?</p>
<p>上面这些都有可能,另外我还有一个思考,那就是<strong>登山,是一件确定的事情</strong>。</p>
3rd Place Solution to Google Landmark Retrieval 2020
http://blog.zjykzj.cn/posts/342c606b.html
2022-10-02T02:17:48.000Z
2022-10-02T04:11:34.859Z
<p>原文地址:<a href="https://arxiv.org/abs/2008.10480">3rd Place
Solution to “Google Landmark Retrieval 2020”</a></p>
2nd Place and 2nd Place Solution to Kaggle Landmark Recognition and Retrieval Competition 2019
http://blog.zjykzj.cn/posts/cdd30628.html
2022-09-27T14:11:04.000Z
2022-10-01T12:49:14.233Z
<p>原文地址:<a href="https://arxiv.org/abs/1906.03990">2nd Place and
2nd Place Solution to Kaggle Landmark Recognition andRetrieval
Competition 2019</a></p>
<p>官方实现:<a
href="https://github.com/PaddlePaddle/Research/tree/48408392e152ffb2a09ce0a52334453e9c08b082/CV/landmark">Research/CV/landmark</a></p>
PyRetri: A PyTorch-based Library for Unsupervised Image Retrieval by Deep Convolutional Neural Networks
http://blog.zjykzj.cn/posts/7b7d76b4.html
2022-09-24T14:52:50.000Z
2022-09-25T11:43:19.599Z
<p>原文地址:<a href="https://arxiv.org/abs/1510.07493">Aggregating Deep
Convolutional Features for Image Retrieval</a></p>
<p>官方实现:<a
href="https://github.com/PyRetri/PyRetri">PyRetri/PyRetri</a></p>
A Benchmark on Tricks for Large-scale Image Retrieval
http://blog.zjykzj.cn/posts/3cb08752.html
2022-09-22T13:30:55.000Z
2022-09-24T15:09:09.245Z
<p>原文地址:<a href="https://arxiv.org/abs/1907.11854">A Benchmark on
Tricks for Large-scale Image Retrieval</a></p>
How to Train State-Of-The-Art Models Using TorchVision’s Latest Primitives
http://blog.zjykzj.cn/posts/1e876aa8.html
2022-09-20T12:57:35.000Z
2022-09-20T13:51:29.694Z
<p><code>Torchvision</code>在<code>v0.11</code>版本升级了许多内容,其中包括最新训练的基准模型,通过加入许多新的训练配置,极大的提高了原有的模型性能,比如将<code>ResNet50</code>从原来的<code>76.130/92.862</code>提升到<code>80.858/95.434</code>。这篇博文详细介绍了优化的过程
- <a
href="https://pytorch.org/blog/how-to-train-state-of-the-art-models-using-torchvision-latest-primitives/">How
to Train State-Of-The-Art Models Using TorchVision’s Latest
Primitives</a></p>
RK3288/RK1808/RK3566/RK3568
http://blog.zjykzj.cn/posts/704b52c0.html
2022-09-15T13:07:40.000Z
2022-09-15T13:29:12.062Z
<p>记录一些<a
href="https://www.rock-chips.com/">瑞芯微电子</a>畅销的主板信息</p>
[sis]在线图像搜索引擎
http://blog.zjykzj.cn/posts/7b308628.html
2022-08-28T08:13:53.000Z
2022-08-28T08:23:35.489Z
<p>偶然间发现了一个基于<code>Flask</code>部署的图像搜索引擎工程 - <a
href="https://github.com/matsui528/sis">matsui528/sis</a>。具体实现很简单,<code>Kares+Flask</code>的架构。我在它的基础上进行了改造,使用<code>Pytorch+Flask+Docker</code>进行部署:<a
href="https://github.com/zjykzj/sis">zjykzj/sis</a></p>
算法工程师的核心竞争力是什么?
http://blog.zjykzj.cn/posts/f08386ae.html
2022-08-21T08:04:32.000Z
2022-08-23T14:06:07.780Z
<p>最近在知乎上看到一个问答:<a
href="https://www.zhihu.com/question/527696166/answer/2636200579">算法工程师的核心竞争力是什么?</a>。很多热心网友提供了自己的见解,各种答案都有,其中有一个名叫<a
href="https://www.zhihu.com/question/527696166/answer/2636200579">逻辑大师</a>的童鞋给出了一个非常精彩的回答。它和我近一年的体会非常接近,所以写下这篇文章,整理一下他的看法以及我的体会。</p>
[图像检索]Recall@K
http://blog.zjykzj.cn/posts/fdefa629.html
2022-08-19T11:26:36.000Z
2022-08-19T17:07:56.657Z
<p>关于图像检索任务的<code>Recall@K</code>计算,存在多种解释,汇总一下</p>
Multi-Similarity Loss with General Pair Weighting for Deep Metric Learning
http://blog.zjykzj.cn/posts/fdd691a9.html
2022-08-10T14:31:34.000Z
2022-08-12T11:35:18.163Z
<p>原文地址:<a href="https://arxiv.org/abs/1904.06627">Multi-Similarity
Loss with General Pair Weighting for Deep Metric Learning</a></p>
<p>官方实现:<a
href="https://github.com/msight-tech/research-ms-loss">msight-tech/research-ms-loss</a></p>
Learning with Average Precision: Training Image Retrieval with a Listwise Loss
http://blog.zjykzj.cn/posts/137f66eb.html
2022-08-10T13:12:14.000Z
2022-08-10T13:51:57.239Z
<p>原文地址:<a href="https://arxiv.org/abs/1906.07589">Learning with
Average Precision: Training Image Retrieval with a Listwise Loss</a></p>
<p>官方实现:</p>
<ul>
<li><a
href="https://europe.naverlabs.com/Research/Computer-Vision/Learning-Visual-Representations/Deep-Image-Retrieval/">DEEP
IMAGE RETRIEVAL</a></li>
<li><a
href="https://github.com/naver/deep-image-retrieval">naver/deep-image-retrieval</a></li>
</ul>
Combination of Multiple Global Descriptors for Image Retrieval
http://blog.zjykzj.cn/posts/9bcffd4.html
2022-08-06T06:52:55.000Z
2022-08-10T13:53:22.605Z
<p>原文地址:<a href="https://arxiv.org/abs/1903.10663">Combination of
Multiple Global Descriptors for Image Retrieval</a></p>
<p>官方实现:<a href="https://github.com/naver/cgd">naver/cgd</a></p>
MultiGrain: a unified image embedding for classes and instances
http://blog.zjykzj.cn/posts/699ef3e3.html
2022-08-06T06:50:45.000Z
2022-08-07T11:27:09.535Z
<p>原文地址:<a href="https://arxiv.org/abs/1902.05509">MultiGrain: a
unified image embedding for classes and instances</a></p>
<p>官方实现:<a
href="https://github.com/facebookresearch/multigrain">facebookresearch/multigrain</a></p>
需求、任务和排期~了解一下
http://blog.zjykzj.cn/posts/d982c3d5.html
2022-08-06T02:58:19.000Z
2022-08-07T14:47:43.801Z
<p>随着产品的发展,会出现越来越多的工作。大大小小的事情出现在我面前的时候,总是表现的措不及防:事情好多啊
~干不完啊啊啊~~~</p>
<p>偶然间听到开发部老大在和其他小伙伴讨论的时候提到任务和排期,突然茅塞顿开:再多的事情
只要规划好 一步一步来就可以啊。</p>
[图像检索]准确率、查准率/精确度、查全率/召回率、AP/mAP
http://blog.zjykzj.cn/posts/b9ab5b18.html
2022-07-25T13:32:03.000Z
2022-08-19T17:08:03.489Z
<p>整理图像检索任务中常用的评估标准(准确率、查准率/精确度、查全率/召回率、<code>AP/mAP</code>)以及相应的实现</p>
细粒度分类
http://blog.zjykzj.cn/posts/c8cce5e7.html
2022-07-23T02:29:18.000Z
2022-07-23T03:06:36.793Z
<p>整理一些细粒度分类(<code>fine-grained classification</code>)相关的文章、论文和实现</p>
End-to-end Learning of Deep Visual Representations for Image Retrieval
http://blog.zjykzj.cn/posts/831147c.html
2022-07-04T13:53:00.000Z
2022-09-24T15:08:51.188Z
<p>原文地址:<a href="https://arxiv.org/abs/1610.07940">End-to-end
Learning of Deep Visual Representations for Image Retrieval</a></p>
<p>官方实现:<a
href="https://github.com/naver/deep-image-retrieval">naver/deep-image-retrieval</a></p>
Fine-tuning CNN Image Retrieval with No Human Annotation
http://blog.zjykzj.cn/posts/e75797c2.html
2022-07-04T12:49:26.000Z
2022-09-24T15:08:56.732Z
<p>原文地址:<a href="https://arxiv.org/abs/1711.02512">Fine-tuning CNN
Image Retrieval with No Human Annotation</a></p>
<p>官方实现:<a
href="https://github.com/filipradenovic/cnnimageretrieval-pytorch">filipradenovic/cnnimageretrieval-pytorch</a></p>
CNN Image Retrieval Learns from BoW: Unsupervised Fine-Tuning with Hard Examples
http://blog.zjykzj.cn/posts/ab8bcf16.html
2022-07-04T12:37:08.000Z
2022-07-06T16:35:29.801Z
<p>原文地址:<a href="https://arxiv.org/abs/1604.02426">CNN Image
Retrieval Learns from BoW: Unsupervised Fine-Tuning with Hard
Examples</a></p>
<p>官方实现:<a
href="https://github.com/filipradenovic/cnnimageretrieval-pytorch">filipradenovic/cnnimageretrieval-pytorch</a></p>
Deep Image Retrieval: Learning global representations for image search
http://blog.zjykzj.cn/posts/ce541381.html
2022-06-30T12:53:31.000Z
2022-07-05T14:54:45.934Z
<p>原文地址:<a href="https://arxiv.org/abs/1604.01325">Deep Image
Retrieval: Learning global representations for image search</a></p>
<p>官方实现:<a
href="https://github.com/naver/deep-image-retrieval">naver/deep-image-retrieval</a></p>
Particular object retrieval with integral max-pooling of CNN activations
http://blog.zjykzj.cn/posts/47743934.html
2022-06-27T06:36:24.000Z
2022-07-03T08:04:03.795Z
<p>原文地址:<a href="https://arxiv.org/abs/1511.05879">Particular
object retrieval with integral max-pooling of CNN activations</a></p>
Cross-dimensional Weighting for Aggregated Deep Convolutional Features
http://blog.zjykzj.cn/posts/d2955233.html
2022-06-18T07:16:20.000Z
2022-06-26T06:55:40.641Z
<p>原文地址:<a
href="https://arxiv.org/abs/1512.04065">Cross-dimensional Weighting for
Aggregated Deep Convolutional Features</a></p>
<p>官方实现:<a
href="https://github.com/YahooArchive/crow">YahooArchive/crow</a></p>
<p>复现地址:<a
href="https://github.com/zjykzj/crow-pytorch">zjykzj/crow-pytorch</a></p>
视频压缩
http://blog.zjykzj.cn/posts/8834618.html
2022-06-15T13:32:52.000Z
2022-06-18T06:32:10.288Z
<p>整理一些视频压缩(<code>video compression</code>)相关的文章、论文和实现</p>
视频分类
http://blog.zjykzj.cn/posts/33be6460.html
2022-06-15T11:54:20.000Z
2022-06-18T04:11:28.242Z
<p>整理一些视频分类(<code>video classification</code>)相关的文章、论文和实
现</p>
图像分类
http://blog.zjykzj.cn/posts/a64200b6.html
2022-06-12T15:23:09.000Z
2023-08-19T07:42:50.310Z
<p>整理一些图像分类(<code>image classification</code>)相关的文章、论文和实现</p>
知识迁移
http://blog.zjykzj.cn/posts/773eb06f.html
2022-06-11T07:14:21.000Z
2022-06-15T11:51:09.151Z
<p>整理知识迁移(<code>knowledge transfer</code>)相关的文章、论文和实现。</p>
网络剪枝
http://blog.zjykzj.cn/posts/14b7830c.html
2022-06-11T03:22:18.000Z
2022-06-11T08:09:32.684Z
<p>整理网络剪枝(<code>network pruning</code>)相关的文章、论文和实现</p>
Aggregating Deep Convolutional Features for Image Retrieval
http://blog.zjykzj.cn/posts/48b6e577.html
2022-03-26T06:39:54.000Z
2022-09-23T14:01:19.276Z
<p>原文地址:<a href="https://arxiv.org/abs/1510.07493">Aggregating Deep
Convolutional Features for Image Retrieval</a></p>
Visual Instance Retrieval with Deep Convolutional Networks
http://blog.zjykzj.cn/posts/841005f8.html
2022-03-26T04:44:06.000Z
2022-03-26T10:29:06.471Z
<p>原文地址:<a href="https://arxiv.org/abs/1412.6574">Visual Instance
Retrieval with Deep Convolutional Networks</a></p>
[译]Breaking Down Mean Average Precision (mAP)
http://blog.zjykzj.cn/posts/a6f87558.html
2022-03-15T13:06:53.000Z
2022-07-25T13:33:09.785Z
<p>原文地址:<a
href="https://towardsdatascience.com/breaking-down-mean-average-precision-map-ae462f623a52">Breaking
Down Mean Average Precision (mAP)</a></p>
<p>最近在学习关于图像检索领域的评判指标,发现用的就是<code>PR曲线</code>以及<code>mAP</code>评估。不过在具体的精度和召回率定义上和之前目标检测任务中的计算方式会有差别。<code>wiki</code>上的相关文档:<a
href="https://en.wikipedia.org/wiki/Evaluation_measures_(information_retrieval)">Evaluation
measures (information
retrieval)</a>,内容比较难以理解,在网上找到这篇文章,整体看下来发现干货满满,没有需要精简的地方,所以打算整篇翻译成中文,方便日后回顾。</p>
Deep Learning of Binary Hash Codes for Fast Image Retrieval
http://blog.zjykzj.cn/posts/cac6e7cb.html
2022-03-08T14:14:37.000Z
2022-03-12T03:31:07.015Z
<p>原文地址:<a
href="https://www.cv-foundation.org/openaccess/content_cvpr_workshops_2015/W03/papers/Lin_Deep_Learning_of_2015_CVPR_paper.pdf">Deep
Learning of Binary Hash Codes for Fast Image Retrieval</a></p>
<p>官方实现:<a
href="https://github.com/kevinlin311tw/caffe-cvprw15">kevinlin311tw/caffe-cvprw15</a></p>
<p><code>Pytorch</code>实现:</p>
<ul>
<li><a
href="https://github.com/dingmyu/Pytorch-Image-Retrieval">dingmyu/Pytorch-Image-Retrieval</a></li>
<li><a
href="https://github.com/flyingpot/pytorch_deephash">flyingpot/pytorch_deephash</a></li>
</ul>
基于内容的图像检索
http://blog.zjykzj.cn/posts/bcc792e9.html
2022-03-02T13:48:26.000Z
2022-10-02T04:09:02.893Z
<p>整理一些基于内容的图像检索(<code>Content-Based Image Retrieval, CBIR</code>)相关的文章、论文和实现</p>
Deep Learning for Content-Based Image Retrieval: A Comprehensive Study
http://blog.zjykzj.cn/posts/1db9f9e1.html
2022-03-01T14:06:17.000Z
2022-03-09T03:37:25.554Z
<p>原文地址:<a
href="https://xueshu.baidu.com/usercenter/paper/show?paperid=e8f7815ab15cccc69b5dac6ee28bac6d">Deep
Learning for Content-Based Image Retrieval: A Comprehensive
Study</a></p>
君子不器
http://blog.zjykzj.cn/posts/80680c7d.html
2022-02-17T11:20:16.000Z
2022-02-19T08:48:47.574Z
<p>一直以来都有在思考自己在软件/算法开发的道路上应该怎么走下去,已经学习了很多的内容,也参与了很多项目的开发,但是总感觉有更多的知识点、更多的项目难题等着我去完成。工作压力越来越大,也在渐渐的磨灭自己对于编程的热情。</p>
<p>前几天跑步的时候突然想到一句话:君子不器,随后联想到器、术、法的概念,刚好能够跟自己对于<a
href="https://blog.zhujian.life/posts/dee301da.html">知识、技能和能力</a>的理解结合起来。</p>
A ConvNet for the 2020s
http://blog.zjykzj.cn/posts/e9f6c1b9.html
2022-01-29T05:17:11.000Z
2022-02-07T15:22:38.404Z
<p>原文地址:<a href="https://arxiv.org/abs/2201.03545">A ConvNet for
the 2020s</a></p>
<p>官方实现:<a
href="https://github.com/facebookresearch/ConvNeXt">facebookresearch/ConvNeXt</a></p>
EfficientNetV2: Smaller Models and Faster Training
http://blog.zjykzj.cn/posts/ce99c18e.html
2022-01-29T04:44:14.000Z
2022-02-04T16:55:58.126Z
<p>原文地址:<a href="https://arxiv.org/abs/2104.00298">EfficientNetV2:
Smaller Models and Faster Training</a></p>
<p>官方实现:<a
href="https://github.com/google/automl/tree/master/efficientnetv2">google/automl</a></p>
<p>Pytorch实现:<a
href="https://github.com/d-li14/efficientnetv2.pytorch">d-li14/efficientnetv2.pytorch</a></p>
RandAugment: Practical automated data augmentation with a reduced search space
http://blog.zjykzj.cn/posts/3adc3a0.html
2022-01-28T03:04:02.000Z
2022-02-02T07:37:30.805Z
<p>原文地址:<a href="https://arxiv.org/abs/1909.13719">RandAugment:
Practical automated data augmentation with a reduced search
space</a></p>
<p>官方实现:<a
href="https://github.com/tensorflow/tpu/blob/master/models/official/efficientnet/autoaugment.py">tensorflow/tpu</a></p>
<p>Pytorch实现:<a
href="https://github.com/pytorch/vision/blob/main/torchvision/transforms/autoaugment.py">pytorch/vision</a></p>
EfficientNet-lite
http://blog.zjykzj.cn/posts/1be8779.html
2022-01-28T02:16:24.000Z
2022-01-29T04:55:38.488Z
<p>原文地址:<a
href="https://blog.tensorflow.org/2020/03/higher-accuracy-on-vision-models-with-efficientnet-lite.html">Higher
accuracy on vision models with EfficientNet-Lite</a></p>
<p>官方实现:<a
href="https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet/lite">EfficientNet-lite</a></p>
EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
http://blog.zjykzj.cn/posts/ba77186d.html
2022-01-27T06:54:47.000Z
2022-01-29T04:55:11.027Z
<p>原文地址:<a href="https://arxiv.org/abs/1905.11946">EfficientNet:
Rethinking Model Scaling for Convolutional Neural Networks</a></p>
<p>Pytorch实现:<a
href="https://github.com/lukemelas/EfficientNet-PyTorch">lukemelas/EfficientNet-PyTorch</a></p>
<p>集成地址:<a href="https://github.com/ZJCV/ZCls">ZJCV/ZCls</a></p>
Model Rubik's Cube: Twisting Resolution, Depth and Width for TinyNets
http://blog.zjykzj.cn/posts/29288416.html
2022-01-27T06:07:33.000Z
2022-01-27T06:55:24.079Z
<p>原文地址:<a href="https://arxiv.org/abs/2010.14819">Model Rubik's
Cube: Twisting Resolution, Depth and Width for TinyNets</a></p>
<p>官方实现:<a
href="https://github.com/huawei-noah/CV-Backbones">huawei-noah/CV-Backbones</a></p>
Open-set vs. Close-set
http://blog.zjykzj.cn/posts/ae6ec4b9.html
2022-01-26T14:00:58.000Z
2022-01-27T06:11:49.442Z
<p>模型能否作用于<code>Open-set</code>,是目标分类和度量学习的主要区别。</p>
混淆矩阵-ROC曲线-PR曲线-二分类
http://blog.zjykzj.cn/posts/f38a26f2.html
2022-01-16T04:32:57.000Z
2022-01-16T07:33:47.536Z
<p>关于机器学习的评估指标,在之前的学习中已经涉及了很多,大体可分为混淆矩阵、<code>ROC</code>曲线和<code>PR</code>曲线,也记录下很多相关的内容。虽然记录下这么多内容,但是大都是知其然不知所以然的状况,在实际分类算法的实践中,往往只是将准确率作为评判标准,这也可能是因为公开数据集大都是类别均衡的缘故吧。</p>
<p>最近涉及到度量学习领域,在完成模型计算后,很重要的一步就是对特征向量进行相似度分类,选取合适的分类阈值就很有必要。如何设置有效的分类阈值,关键在于如何对算法进行评判和分析。这个过程中重新对于混淆矩阵、<code>ROC</code>曲线和<code>PR</code>曲线进行了分析和思考。</p>
<p>在重新复习相关文档的过程中,还发现了有些基础概念理解错了(<em>囧。。。</em>)。这篇文章系统性的整理相关的概念,并且通过<code>scikit</code>库进行相应的实验。</p>
<p><em>注:仅涉及二分类实现,后续再扩展到多分类</em></p>
<p>相关实现位于:<a
href="https://github.com/zjykzj/scikit-learn">zjykzj/scikit-learn</a></p>
度量学习
http://blog.zjykzj.cn/posts/e8b096c4.html
2022-01-12T13:40:10.000Z
2022-01-22T12:05:55.608Z
<p>相关实现:</p>
<ul>
<li><a
href="https://github.com/KevinMusgrave/pytorch-metric-learning">KevinMusgrave/pytorch-metric-learning</a></li>
<li><a
href="https://github.com/CoinCheung/pytorch-loss">CoinCheung/pytorch-loss</a></li>
</ul>
谈谈目前的工作
http://blog.zjykzj.cn/posts/da085297.html
2021-12-18T06:06:04.000Z
2021-12-18T06:11:16.678Z
<p>这一段时间的状态特别不好,尝试了好多种方式,但是对于算法的核心指标一直没有提升,心里很憋屈,不知道什么时候是个头。</p>
2021年小结
http://blog.zjykzj.cn/posts/c7830642.html
2021-12-05T13:12:49.000Z
2022-01-03T03:36:48.915Z
<p>好久没有写随笔了,这不,2022年开始了,这一次早点开始《2021年小结》,回顾一下这一年在工作、学习和生活上的发展以及一些自己对于未来的思考。</p>
FaceNet: A Unified Embedding for Face Recognition and Clustering
http://blog.zjykzj.cn/posts/d2015a83.html
2021-11-29T12:16:23.000Z
2022-01-23T13:58:24.203Z
<p>原文地址:<a href="https://arxiv.org/abs/1503.03832">FaceNet: A
Unified Embedding for Face Recognition and Clustering</a></p>
<p>复现地址:<a
href="https://github.com/ZJCV/facenet">ZJCV/facenet</a></p>
数据pipeline优化-2
http://blog.zjykzj.cn/posts/dcf19fb3.html
2021-09-26T13:27:42.000Z
2021-10-19T12:52:48.807Z
<p>之前因为服务器性能原因,对<code>ImageNet</code>数据集进行训练时出现数据加载瓶颈,当时搜索了多种方式,尝试对数据<code>pipeline</code>进行优化,从而提高数据加载能力。详情参见<a
href="https://blog.zhujian.life/posts/f5ded433.html">数据pipeline优化</a></p>
<p>这一次遇到了新的问题,就是在千万级别数据训练情况下如何在固定内存空间和其他硬件性能的情况下提高数据加载和预处理能力。</p>
Destruction and Construction Learning for Fine-grained Image Recognition
http://blog.zjykzj.cn/posts/1f0dcd30.html
2021-09-19T02:48:55.000Z
2021-10-28T11:15:28.880Z
<p>原文地址:<a
href="https://openaccess.thecvf.com/content_CVPR_2019/html/Chen_Destruction_and_Construction_Learning_for_Fine-Grained_Image_Recognition_CVPR_2019_paper.html">Destruction
and Construction Learning for Fine-grained Image Recognition</a></p>
<p>官方实现:<a
href="https://github.com/JDAI-CV/DCL">JDAI-CV/DCL</a></p>
<p>复现地址:<a href="https://github.com/ZJCV/DCL">ZJCV/DCL</a></p>
Distilling Knowledge via Knowledge Review
http://blog.zjykzj.cn/posts/8da15989.html
2021-08-27T15:03:36.000Z
2021-10-14T15:27:01.738Z
<p>原文地址:<a href="https://arxiv.org/abs/2104.09044">Distilling
Knowledge via Knowledge Review</a></p>
<p>官方实现:<a
href="https://github.com/dvlab-research/ReviewKD">dvlab-research/ReviewKD</a></p>
<p>复现地址:<a
href="https://github.com/ZJCV/KnowledgeReview">ZJCV/KnowledgeReview</a></p>
A Comprehensive Overhaul of Feature Distillation
http://blog.zjykzj.cn/posts/229eefa5.html
2021-08-21T03:51:17.000Z
2021-09-22T13:51:47.801Z
<p>原文地址:<a href="https://arxiv.org/abs/1904.01866">A Comprehensive
Overhaul of Feature Distillation</a></p>
<p>官方实现:<a
href="https://github.com/clovaai/overhaul-distillation">clovaai/overhaul-distillation</a></p>
<p>复现地址:<a
href="https://github.com/ZJCV/overhaul">ZJCV/overhaul</a></p>
A Gift from Knowledge Distillation
http://blog.zjykzj.cn/posts/3c1ff48c.html
2021-08-15T07:18:09.000Z
2021-08-21T07:36:24.525Z
<p>原文地址:<a href="https://ieeexplore.ieee.org/document/8100237">A
Gift from Knowledge Distillation: Fast Optimization, Network
Minimization and Transfer Learning</a></p>
Paying More Attention to Attention
http://blog.zjykzj.cn/posts/55ba987c.html
2021-08-10T13:32:33.000Z
2021-08-15T11:59:37.655Z
<p>原文地址:<a href="https://arxiv.org/abs/1612.03928">Paying More
Attention to Attention: Improving the Performance of Convolutional
Neural Networks via Attention Transfer</a></p>
<p>官方实现:<a
href="https://github.com/szagoruyko/attention-transfer">szagoruyko/attention-transfer</a></p>
FitNets: Hints for Thin Deep Nets
http://blog.zjykzj.cn/posts/fc88f6af.html
2021-08-08T04:32:16.000Z
2021-08-14T06:05:57.917Z
<p>原文地址:<a href="https://arxiv.org/abs/1412.6550">FitNets: Hints
for Thin Deep Nets</a></p>
<p>官方实现:<a
href="https://github.com/adri-romsor/FitNets">adri-romsor/FitNets</a></p>
Distilling the Knowledge in a Neural Network
http://blog.zjykzj.cn/posts/f278f1ce.html
2021-08-07T02:12:00.000Z
2021-08-10T13:33:24.645Z
<p>原文地址:<a href="https://arxiv.org/abs/1503.02531">Distilling the
Knowledge in a Neural Network</a></p>
Lossless CNN Channel Pruning via Decoupling Remembering and Forgetting
http://blog.zjykzj.cn/posts/c463cb8d.html
2021-07-24T12:47:03.000Z
2021-07-25T09:07:40.600Z
<p>原文地址:<a href="https://arxiv.org/abs/2007.03260">Lossless CNN
Channel Pruning via Decoupling Remembering and Forgetting</a></p>
<p>官方实现:<a
href="https://github.com/DingXiaoH/ResRep">DingXiaoH/ResRep</a></p>
Learning both Weights and Connections for Efficient Neural Networks
http://blog.zjykzj.cn/posts/9def5d9f.html
2021-07-02T12:38:23.000Z
2021-07-03T01:59:03.804Z
<p>原文地址:<a href="https://arxiv.org/abs/1506.02626">Learning both
Weights and Connections for Efficient Neural Networks</a></p>
Learning Structured Sparsity in Deep Neural Networks
http://blog.zjykzj.cn/posts/67852044.html
2021-06-29T13:48:47.000Z
2021-07-17T12:16:55.330Z
<p>原文地址:<a href="https://arxiv.org/abs/1608.03665">Learning
Structured Sparsity in Deep Neural Networks</a></p>
<p>官方实现:<a
href="https://github.com/wenwei202/caffe/tree/scnn">wenwei202/caffe</a></p>
<p>复现地址:<a href="https://github.com/ZJCV/SSL">ZJCV/SSL</a></p>
Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding
http://blog.zjykzj.cn/posts/4464e6c3.html
2021-06-29T13:31:38.000Z
2021-07-03T06:05:16.794Z
<p>原文地址:<a href="https://arxiv.org/abs/1510.00149">Deep
Compression: Compressing Deep Neural Networks with Pruning, Trained
Quantization and Huffman Coding</a></p>
Rethinking the Value of Network Pruning
http://blog.zjykzj.cn/posts/b3c4d14d.html
2021-06-20T06:16:46.000Z
2021-07-04T09:48:35.874Z
<p>原文地址:<a href="https://arxiv.org/abs/1810.05270">Rethinking the
Value of Network Pruning</a></p>
挖矿病毒-kthreaddi处理
http://blog.zjykzj.cn/posts/d056469f.html
2021-06-20T05:28:52.000Z
2021-06-20T05:56:16.837Z
<p>公司<code>GPU</code>服务器突然出现了一个<code>CPU</code>利用率超高的进程,同事发现这是一个挖矿程序,于是大家开始各种方式去尝试结束这个程序</p>
Learning Efficient Convolutional Networks through Network Slimming
http://blog.zjykzj.cn/posts/ec02d2a5.html
2021-06-13T06:09:45.000Z
2021-12-12T06:48:54.250Z
<p>原文地址:<a href="https://arxiv.org/abs/1708.06519">Learning
Efficient Convolutional Networks through Network Slimming</a></p>
<p>官方实现:<a
href="https://github.com/Eric-mingjie/network-slimming">Eric-mingjie/network-slimming</a></p>
<p>复现地址:<a
href="https://github.com/ZJCV/NetworkSlimming">ZJCV/NetworkSlimming</a></p>
GhostNet: More Features from Cheap Operations
http://blog.zjykzj.cn/posts/6ce18e1a.html
2021-06-02T12:27:05.000Z
2021-07-09T15:00:25.623Z
<p>原文地址:<a href="https://arxiv.org/abs/1911.11907">GhostNet: More
Features from Cheap Operations</a></p>
<p>官方实现:<a
href="https://github.com/huawei-noah/CV-Backbones">huawei-noah/CV-Backbones</a></p>
<p>复现地址:<a href="https://github.com/ZJCV/ZCls">ZJCV/ZCls</a></p>
OpenDVC: An Open Source Implementation of the DVC Video Compression Method
http://blog.zjykzj.cn/posts/1da6abb8.html
2021-05-20T08:19:20.000Z
2021-07-08T14:58:37.847Z
<p>原文地址:<a href="https://arxiv.org/abs/2006.15862">OpenDVC: An Open
Source Implementation of the DVC Video Compression Method</a></p>
<p>实现地址:<a
href="https://github.com/RenYang-home/OpenDVC">RenYang-home/OpenDVC</a></p>
产品思维
http://blog.zjykzj.cn/posts/6068e810.html
2021-05-08T01:23:05.000Z
2021-05-20T07:55:12.475Z
<p>前段时间在路上骑车的时候,突然想到一件事情:对于客户而言,他关心的是产品;对于研发而言,他关心的是技术,那么你作为一名技术主管&项目经理,如何找到客户和研发、产品和技术之间的平衡呢?</p>
TSM: Temporal Shift Module for Efficient Video Understanding
http://blog.zjykzj.cn/posts/afb688a0.html
2021-05-03T06:13:47.000Z
2021-07-08T15:02:59.835Z
<p>原文地址:<a href="https://arxiv.org/abs/1811.08383">TSM: Temporal
Shift Module for Efficient Video Understanding</a></p>
<p>官方实现:<a
href="https://github.com/mit-han-lab/temporal-shift-module">mit-han-lab/temporal-shift-module</a></p>
<p>复现地址:<a href="https://github.com/ZJCV/TSM">ZJCV/TSM</a></p>
Temporal Relational Reasoning in Videos
http://blog.zjykzj.cn/posts/3f56366f.html
2021-05-02T08:52:30.000Z
2021-07-08T15:02:46.727Z
<p>原文地址:<a href="https://arxiv.org/abs/1711.08496">Temporal
Relational Reasoning in Videos</a></p>
<p>官方实现:<a
href="https://github.com/zhoubolei/TRN-pytorch">zhoubolei/TRN-pytorch</a></p>
<p>复现地址:<a href="https://github.com/ZJCV/TRN">ZJCV/TRN</a></p>
Learning Spatiotemporal Features with 3D Convolutional Networks
http://blog.zjykzj.cn/posts/ee22f58.html
2021-05-02T07:30:28.000Z
2021-07-08T15:02:41.011Z
<p>原文地址:<a href="https://arxiv.org/abs/1412.0767">Learning
Spatiotemporal Features with 3D Convolutional Networks</a></p>
<p>官方实现:<a href="https://vlg.cs.dartmouth.edu/c3d/">C3D: Generic
Features for Video Analysis</a></p>
<p>复现地址:<a href="https://github.com/ZJCV/C3D">ZJCV/C3D</a></p>
[Jenkins]使用Docker容器配置编译环境
http://blog.zjykzj.cn/posts/a260b36c.html
2021-04-27T12:25:24.000Z
2021-05-21T10:41:34.434Z
<p>首先通过<code>Docker</code>容器保存好完整的开发环境,在<code>Jenkins</code>任务中调用容器进行工程的编译。完美~~~</p>
DVC: An End-to-end Deep Video Compression Framework
http://blog.zjykzj.cn/posts/89a466b8.html
2021-04-23T11:52:27.000Z
2021-07-08T14:58:33.758Z
<p>原文地址:<a href="https://arxiv.org/abs/1812.00101">DVC: An
End-to-end Deep Video Compression Framework</a></p>
<p>实现地址:<a
href="https://github.com/GuoLusjtu/DVC">GuoLusjtu/DVC</a></p>
lmdb使用小结
http://blog.zjykzj.cn/posts/37700ab5.html
2021-04-18T05:54:58.000Z
2021-04-18T06:20:14.347Z
<p>使用<code>lmdb</code>可以加速数据从磁盘读取的速度,查看了很多资料,记录一下</p>
知识图谱
http://blog.zjykzj.cn/posts/b9a3e837.html
2021-04-17T11:26:04.000Z
2022-09-15T13:01:21.515Z
<p><img src="/imgs/essay/knowledge-graph/knowledge-graph.svg" /></p>
数据pipeline优化
http://blog.zjykzj.cn/posts/f5ded433.html
2021-04-17T10:16:23.000Z
2021-04-17T11:17:36.092Z
<p>之前训练的时候只是把图像数据保存在磁盘上,通过<code>torchvision Dataloader</code>方式进行批量加载。最近遇到一个问题,就是批量加载<code>ImageNet</code>数据时发现程序运行很慢,但是<code>cpu/gpu</code>的使用率并不高,查询过后发现是遇到了磁盘<code>io</code>的瓶颈</p>
<p>除了使用更好的硬件(<em>比如用固态硬盘替代机械硬盘</em>)来解决问题外,在网上还找到了不少的软件优化方法:</p>
<ol type="1">
<li>打开<code>dataloade pin_memory</code></li>
<li>替换数据预处理库</li>
<li>使用<code>lmdb</code>加快磁盘到<code>cpu</code>内存的<code>io</code></li>
<li>使用<code>prefetcher</code>加快<code>cpu</code>内存到<code>gpu</code>内存的<code>io</code></li>
<li>使用<code>dali</code>加速数据预处理</li>
<li>其他</li>
</ol>
[2021]文档整理小结
http://blog.zjykzj.cn/posts/fd669d99.html
2021-04-17T09:43:40.000Z
2021-04-17T10:09:41.892Z
<p>距离上次系统性的整理文档快过去一年时间了。这一段时间以来,增加了很多新的内容,感脚之前的架构已经不能很好的匹配当前的知识储备,对于文章的保存和搜索也出现了越来越大的困难。从<code>2/3</code>月份开始,断断续续花费了近<code>2</code>个月的时间重新进行思考和整理,实现了一个相对而言更加合理、能够满足目前需求的架构</p>
类别和标签
http://blog.zjykzj.cn/posts/f06c5135.html
2021-04-17T06:28:54.000Z
2021-04-17T07:20:03.200Z
<p>随着时间积累,文章越来越多,所有文档涉及到的领域也越来越复杂,对于博客管理产生了很大的困难。如何更有效的管理博客,最常用的方法就是通过类别和标签两个选项来进行内容的细分</p>
不可能三角
http://blog.zjykzj.cn/posts/b9adf22c.html
2021-04-17T06:05:27.000Z
2021-04-17T06:27:02.276Z
<p>最近<code>B</code>站上一大堆的投资理财视频,各路人马,不管是不是从事理财金融行业的,都开始了自己的财富自由之旅。不过,有唱多的就有唱衰的,也有一些<code>up</code>主提醒韭菜们不要盲目理财,其中有一个概念很有意思,就是不可能三角(<code>impossible trinity</code>)</p>
知识、技能和能力
http://blog.zjykzj.cn/posts/dee301da.html
2021-04-17T05:33:20.000Z
2021-04-17T06:09:26.252Z
<p>作为一名程序员,不仅仅需要知道什么是计算机网络、计算机组成、操作系统、数据结构和算法,还需要知道如何编写<code>App</code>、如何搭建<code>Web</code>服务器、如何部署<code>Docker</code>容器等等。总之要学习的内容很多,只不过什么时候需要学习哪一部分内容,自己掌握了哪一方面,这些问题也需要不断的思考和总结</p>
2020年小结
http://blog.zjykzj.cn/posts/28416d7c.html
2021-02-11T06:21:50.000Z
2021-03-31T10:54:07.669Z
<p><code>2020</code>年过去了,发生了很多事,自己的生活也有了很大的变化,记录一下。</p>
RepVGG
http://blog.zjykzj.cn/posts/f5d80f0d.html
2021-02-02T02:42:16.000Z
2021-07-09T14:54:25.282Z
<p>论文地址:<a href="https://arxiv.org/abs/2101.03697">RepVGG: Making
VGG-style ConvNets Great Again</a></p>
<p>官方实现:<a
href="https://github.com/DingXiaoH/RepVGG">DingXiaoH/RepVGG</a></p>
<p>自定义实现:<a href="https://github.com/ZJCV/ZCls">ZJCV/ZCls</a></p>
ACNet
http://blog.zjykzj.cn/posts/1ff6fb3a.html
2021-02-01T07:20:18.000Z
2021-07-09T14:59:05.653Z
<p>论文地址:<a href="https://arxiv.org/abs/1908.03930">ACNet:
Strengthening the Kernel Skeletons for Powerful CNN via Asymmetric
Convolution Blocks</a></p>
<p>官方实现:<a
href="https://github.com/DingXiaoH/ACNet">DingXiaoH/ACNet</a></p>
<p>自定义实现:<a href="https://github.com/ZJCV/ZCls">ZJCV/ZCls</a></p>
ResNeSt: Split-Attention Networks
http://blog.zjykzj.cn/posts/a7ac4c2.html
2021-01-30T12:48:38.000Z
2021-07-09T15:04:15.591Z
<p>原文地址:<a href="https://arxiv.org/abs/2004.08955">ResNeSt:
Split-Attention Networks</a></p>
<p>官方实现:<a
href="https://github.com/zhanghang1989/ResNeSt">zhanghang1989/ResNeSt</a></p>
<p>自定义实现:<a href="https://github.com/ZJCV/ZCls">ZJCV/ZCls</a></p>
Selective Kernel Networks
http://blog.zjykzj.cn/posts/50eae070.html
2021-01-26T13:25:34.000Z
2021-07-09T15:04:25.619Z
<p>原文地址:<a href="https://arxiv.org/abs/1903.06586">Selective Kernel
Networks</a></p>
<p>官方解读:<a
href="https://zhuanlan.zhihu.com/p/59690223">SKNet——SENet孪生兄弟篇</a></p>
<p>自定义实现:<a href="https://github.com/ZJCV/ZCls">ZJCV/ZCls</a></p>
Fast AutoAugment
http://blog.zjykzj.cn/posts/840625f2.html
2021-01-12T06:22:42.000Z
2021-05-20T08:10:19.269Z
<p>原文地址:<a href="https://arxiv.org/abs/1905.00397">Fast
AutoAugment</a></p>
<p>实现:</p>
<ul>
<li><a
href="https://github.com/kakaobrain/fast-autoaugment">kakaobrain/fast-autoaugment</a></li>
<li><a
href="https://github.com/kakaobrain/autoclint">kakaobrain/autoclint</a></li>
<li><a
href="https://github.com/zhanghang1989/Fast-AutoAug-Torch">zhanghang1989/Fast-AutoAug-Torch</a></li>
</ul>
AutoAugment
http://blog.zjykzj.cn/posts/7162852a.html
2021-01-11T11:18:55.000Z
2022-02-01T06:40:19.524Z
<p>原文地址:<a href="https://arxiv.org/abs/1805.09501">AutoAugment:
Learning Augmentation Policies from Data</a></p>
[NextCloud]文件上传设置
http://blog.zjykzj.cn/posts/22a493a7.html
2020-10-27T12:41:51.000Z
2021-04-06T11:55:58.777Z
<p>完成<a
href="https://blog.zhujian.life/posts/db8951ce.html">私有网盘</a>搭建后,发现没法上传大文件。找了不少资料,记录几个关键问题</p>
Temporal Segment Network
http://blog.zjykzj.cn/posts/eb3ac9f6.html
2020-09-13T07:57:46.000Z
2021-07-08T15:02:52.899Z
<p>原文地址:</p>
<ul>
<li><a href="https://arxiv.org/abs/1608.00859">Temporal Segment
Networks: Towards Good Practices for Deep Action
Recognition</a>:发布于ECCV 2016</li>
<li><a href="https://arxiv.org/abs/1705.02953">Temporal Segment Networks
for Action Recognition in Videos</a>:发布于17年期刊</li>
</ul>
<p>官方实现:<a
href="https://github.com/yjxiong/tsn-pytorch">yjxiong/tsn-pytorch</a></p>
<p>复现地址:<a href="https://github.com/ZJCV/TSN">ZJCV/TSN</a></p>
Two-Stream Convolutional Networks for Action Recognition in Videos
http://blog.zjykzj.cn/posts/fa4c1da.html
2020-09-13T02:00:36.000Z
2021-07-08T15:03:06.112Z
<p>原文地址:<a href="https://arxiv.org/abs/1406.2199">Two-Stream
Convolutional Networks for Action Recognition in Videos</a></p>
[NVIDIA Jetson AGX Xavier developer kit]配置国内源
http://blog.zjykzj.cn/posts/e37c677.html
2020-09-12T01:14:02.000Z
2021-04-06T12:07:31.089Z
<p>通过<a href="https://developer.nvidia.com/nvidia-sdk-manager">NVIDIA
SDK Manager</a>给板子装系统和开发环境,老是卡在远程下载环境,参考<a
href="https://blog.csdn.net/qq_38649880/article/details/99543913">英伟达NVIDIA
Jetson 系列 Xavier、TX2等系统换源</a></p>
[Nextcloud]私有云网盘
http://blog.zjykzj.cn/posts/db8951ce.html
2020-08-30T13:54:58.000Z
2021-04-06T11:54:56.559Z
<p>打算在云服务器上搭建个人网盘,使用<code>Docker</code>安装<a
href="https://nextcloud.com/">nextcloud</a>。参考</p>
<ul>
<li><a
href="https://github.com/nextcloud/docker">nextcloud/docker</a></li>
<li><a href="https://hub.docker.com/_/nextcloud?tab=description">Docker
Official Images</a></li>
</ul>
[chevereto]图床
http://blog.zjykzj.cn/posts/df48e75b.html
2020-08-30T12:40:37.000Z
2021-04-06T11:45:13.956Z
<p>打算搭建图床,网上常用的有<a
href="https://github.com/LycheeOrg/Lychee">Lychee</a>和<a
href="https://chevereto.com/">Chevereto</a>,记录一下使用<code>docker compose</code>方式安装<code>chevereto</code></p>
<ul>
<li>中文文档:<a
href="https://ch.cndrew.cn/cn/Preface/Introduction/">Chevereto-中文文档</a></li>
<li>Docker Hub:<a
href="https://hub.docker.com/r/nmtan/chevereto/">nmtan/chevereto</a></li>
</ul>
[译]Deep Learning for Videos: A 2018 Guide to Action Recognition
http://blog.zjykzj.cn/posts/c84234bc.html
2020-08-17T13:55:43.000Z
2021-07-08T15:02:33.595Z
<p>原文地址:<a
href="https://blog.qure.ai/notes/deep-learning-for-videos-action-recognition-review">Deep
Learning for Videos: A 2018 Guide to Action Recognition</a></p>
<p>这是一篇18年的综述性博客,对于视频分类领域的发展有一个较详细的说明</p>
自定义仓库logo
http://blog.zjykzj.cn/posts/af09228d.html
2020-08-15T08:09:51.000Z
2021-04-06T12:16:28.110Z
<p>找了很多的资料,关于如何创建仓库<code>logo</code>,小结一下</p>
[sklearn]决策树
http://blog.zjykzj.cn/posts/6b6a622b.html
2020-08-01T02:28:23.000Z
2021-07-09T15:10:23.577Z
<p>学习<code>sklearn</code>中决策树的使用</p>
[LabelImg][LabelMe]标注工具使用小结
http://blog.zjykzj.cn/posts/17926b1c.html
2020-07-11T01:55:17.000Z
2021-04-06T11:52:00.936Z
<p>数据是深度学习算法的关键,其中最常见的数据操作就是目标标注。通用数据集已经给出了标注结果,并且对数据本身进行了很好的分类和归纳,而在最近的工作中需要对原始数据进行有效整理并进行标注,小结遇到的问题,希望对之后的实践有帮助</p>
[NVIDIA Jetson AGX Xavier developer kit]远程桌面配置小结
http://blog.zjykzj.cn/posts/b91ebbf5.html
2020-07-09T13:07:10.000Z
2021-04-06T12:17:53.923Z
<p>需要在局域网内远程连接<a
href="https://developer.nvidia.com/embedded/jetson-agx-xavier-developer-kit">Jetson
AGX Xavier Developer
Kit</a>,其内置<code>Arm64 Ubuntu 18.04</code>系统,打算配置远程桌面进行开发,没想到在这上面花了好长一段时间,小结远程桌面工具的使用以及问题解决</p>
Focal Loss for Dense Object Detection
http://blog.zjykzj.cn/posts/dcfeac19.html
2020-07-05T07:47:14.000Z
2021-04-14T13:07:45.252Z
<p>原文地址:<a href="https://arxiv.org/abs/1708.02002">Focal Loss for
Dense Object Detection</a></p>
Feature Pyramid Networks for Object Detection
http://blog.zjykzj.cn/posts/6674f972.html
2020-07-05T02:31:01.000Z
2021-04-14T13:07:39.735Z
<p>原文地址:<a href="https://arxiv.org/abs/1612.03144">Feature Pyramid
Networks for Object Detection</a></p>
[PyCharm]Remote配置
http://blog.zjykzj.cn/posts/66900c1a.html
2020-06-25T03:28:50.000Z
2021-04-06T11:23:24.094Z
<p>经常需要在远程服务器上进行<code>Python</code>开发,如何打造一个完美的开发环境,着实费了不少功夫。小结<code>PyCharm Remote</code>配置</p>
[Flask]接口实现和测试
http://blog.zjykzj.cn/posts/3bff5f50.html
2020-06-21T03:01:56.000Z
2021-04-06T11:48:28.268Z
<p>小结<code>Flask</code>框架使用,包括<code>Get/Post</code>接口实现和测试</p>
[腾讯云]Jenkins+Gitlab+Nginx+Docker部署小结
http://blog.zjykzj.cn/posts/b21c17dc.html
2020-06-20T10:50:47.000Z
2021-04-06T09:23:48.815Z
<p>之前在本地部署了<code>Docker +Jenkins + Gitlab</code>,因为博客服务器在香港,直接传输不方便,还通过成都的腾讯云服务器<code>+ Aliyun Code</code>进行转发,完整的过程参考<a
href="https://blog.zhujian.life/posts/d959b685.html">[腾讯云][阿里云]网站迁移小结</a></p>
<p>现在打算直接在云服务器上部署<code>Jenkins + Gitlab</code>,这样的构建逻辑更加直接,能够进一步压缩博客部署过程。<code>Let's go !!!</code></p>
[Jenkins][Docker]java.io.IOException: Permission denied
http://blog.zjykzj.cn/posts/ff6b6f9c.html
2020-06-18T13:07:38.000Z
2021-04-03T08:36:23.333Z
<h2 id="问题描述">问题描述</h2>
<p>打算将<code>Jenkins</code>部署到云服务器上,实现步骤如下:</p>
<ol type="1">
<li>将本地<code>Docker Volume</code>打包后发送到云服务器并解压</li>
<li>在云服务器下载<code>Jenkins</code>镜像并启动</li>
</ol>
<p>打开首页,发现如下错误</p>
Accurate, Large Minibatch SGD: Training ImageNet in 1 Hour
http://blog.zjykzj.cn/posts/1540ac10.html
2020-06-15T12:44:07.000Z
2021-04-14T13:05:50.773Z
<p>原文地址:<a href="https://arxiv.org/abs/1706.02677">Accurate, Large
Minibatch SGD: Training ImageNet in 1 Hour</a></p>
[Detectron2]安装和训练
http://blog.zjykzj.cn/posts/1e627f49.html
2020-06-14T13:25:20.000Z
2021-04-06T11:47:28.713Z
<blockquote>
<p>Detectron2 is Facebook AI Research's next generation software system
that implements state-of-the-art object detection algorithms. It is a
ground-up rewrite of the previous version, Detectron, and it originates
from maskrcnn-benchmark.</p>
</blockquote>
<p>花了不少时间熟悉<a
href="https://github.com/facebookresearch/detectron2">Detectron2</a>的安装和训练,期间也遇到了不少问题,小结一下</p>
<p>在线文档地址:<a
href="https://detectron2.readthedocs.io/tutorials/install.html">detectron2</a></p>
Squeeze-and-Excitation Networks
http://blog.zjykzj.cn/posts/79124905.html
2020-06-12T06:28:02.000Z
2021-07-09T15:04:44.387Z
<p>原文地址:<a
href="https://arxiv.org/abs/1709.01507">Squeeze-and-Excitation
Networks</a></p>
Aggregated Residual Transformations for Deep Neural Networks
http://blog.zjykzj.cn/posts/1243177c.html
2020-06-12T00:17:08.000Z
2021-07-09T15:13:05.852Z
<p>原文地址:<a href="https://arxiv.org/abs/1611.05431">Aggregated
Residual Transformations for Deep Neural Networks</a></p>
MnasNet: Platform-Aware Neural Architecture Search for Mobile
http://blog.zjykzj.cn/posts/96c66eec.html
2020-06-09T00:43:42.000Z
2021-07-09T15:02:17.347Z
<p>原文地址:<a href="https://arxiv.org/abs/1807.11626">MnasNet:
Platform-Aware Neural Architecture Search for Mobile</a></p>
ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design
http://blog.zjykzj.cn/posts/837f6cbf.html
2020-06-05T01:33:23.000Z
2021-07-09T15:04:37.183Z
<p>原文地址:<a href="https://arxiv.org/abs/1807.11164">ShuffleNet V2:
Practical Guidelines for Efficient CNN Architecture Design</a></p>
[Jenkins]加速下载/安装插件
http://blog.zjykzj.cn/posts/8e194d10.html
2020-06-04T13:46:25.000Z
2021-04-03T08:34:32.412Z
<p>对于<code>Jenkins</code>使用,插件的下载和安装一直都是令人头疼的地方。之前陆陆续续的实践过<a
href="https://blog.zhujian.life/posts/9ff7f63d.html">下载源更新</a>以及<a
href="https://blog.zhujian.life/posts/373e88b0.html">手动下载/安装插件</a>,但是插件的下载/安装依旧很慢</p>
MobileNetV2: Inverted Residuals and Linear Bottlenecks
http://blog.zjykzj.cn/posts/ff9033af.html
2020-06-04T02:29:13.000Z
2021-07-09T15:03:01.753Z
<p>原文地址:<a href="https://arxiv.org/abs/1801.04381">MobileNetV2:
Inverted Residuals and Linear Bottlenecks</a></p>
ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile
http://blog.zjykzj.cn/posts/11d2ef7e.html
2020-06-03T10:09:04.000Z
2021-07-09T15:04:31.423Z
<p>原文地址:<a href="https://arxiv.org/abs/1707.01083">ShuffleNet: An
Extremely Efficient Convolutional Neural Network for Mobile</a></p>
Searching for MobileNetV3
http://blog.zjykzj.cn/posts/f45ad457.html
2020-06-03T06:36:56.000Z
2021-07-09T15:03:32.784Z
<p>原文地址:<a href="https://arxiv.org/abs/1905.02244">Searching for
MobileNetV3</a></p>
MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications
http://blog.zjykzj.cn/posts/b21ca2c0.html
2020-06-03T00:57:18.000Z
2021-07-09T15:02:22.506Z
<p>原文地址:<a href="https://arxiv.org/abs/1704.04861">MobileNets:
Efficient Convolutional Neural Networks for Mobile Vision
Applications</a></p>
[OKR]2020年6月份
http://blog.zjykzj.cn/posts/665341ad.html
2020-05-31T12:12:59.000Z
2021-04-04T05:05:05.443Z
<p><code>5</code>月份实现了<code>SSD</code>和<code>Faster R-CNN</code>算法,同时解析了基于<code>MaskRCNN-benchmark</code>的目标检测框架,另外学习了<code>cocoapi</code>的使用,最后学习了<code>YOLOv2</code>算法</p>
<p>本周继续<code>YOLOv2</code>算法的实现,同时期待能够找到新工作</p>
[YOLO][k-means聚类]寻找锚点
http://blog.zjykzj.cn/posts/7dbb89f0.html
2020-05-30T11:31:52.000Z
2024-01-21T13:30:08.639Z
<p><code>YOLOv2</code>在<code>YOLO</code>的基础上进行了很多的调整,其中一个就是设置锚点框。相对于<code>Faster R-CNN/SSD</code>通过人工方式设置锚点的尺度和长宽比,<code>YOLOv2</code>提出了通过<code>k-means</code>聚类的方式自动计算出锚点的大小</p>
k-means聚类算法
http://blog.zjykzj.cn/posts/62450c9b.html
2020-05-30T06:20:08.000Z
2021-04-11T07:40:03.646Z
<h2 id="分类-vs.-聚类">分类 vs. 聚类</h2>
<blockquote>
<p>分类:类别是已知的,通过对已知分类的数据进行训练和学习,找到这些不同类别的特征,再对未分类的数据进行分类。属于有监督学习(有标签)
聚类:事先不知道数据会分为几类,通过聚类分析将数据聚合成几个群体。聚类不需要对数据进行训练和学习。属于无监督学习(无标签)</p>
</blockquote>
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
http://blog.zjykzj.cn/posts/e2ce4d45.html
2020-05-29T01:11:23.000Z
2021-04-14T13:07:21.524Z
<p>原文地址:<a href="https://arxiv.org/abs/1506.01497">Faster R-CNN:
Towards Real-Time Object Detection with Region Proposal Networks</a></p>
[数据集][COCO]目标检测任务评估
http://blog.zjykzj.cn/posts/d77724ad.html
2020-05-27T08:24:00.000Z
2021-04-14T11:39:58.418Z
<p><a href="https://blog.zhujian.life/posts/a2d65e1.html">Image
Localization
Dataset</a>是一个目标检测数据集,其标注文件使用了<code>PASCAL VOC</code>定义的格式,将其转换成<code>COCO</code>格式</p>
[数据集]voc2coco及cocoapi使用
http://blog.zjykzj.cn/posts/7bae9c2d.html
2020-05-27T08:18:48.000Z
2023-12-30T15:09:16.889Z
<p><code>COCO</code>提供了一个完备的工具包 - <a
href="https://github.com/cocodataset/cocoapi">cocoapi</a>,能够满足实际开发过程中对于图像、类别、标注信息的提取</p>
<p><em>以下操作中仅涉及<code>python</code>使用</em></p>
[数据集][COCO]目标检测任务
http://blog.zjykzj.cn/posts/46b5955b.html
2020-05-26T11:59:52.000Z
2023-12-30T15:09:40.850Z
<p>介绍<code>COCO</code>目标检测任务以及评价标准</p>
<h2 id="目标检测任务">目标检测任务</h2>
<p><code>COCO</code>将目标检测任务分为两个部分:</p>
<ol type="1">
<li>边界框检测</li>
<li>目标分割检测,也称为实例分割</li>
</ol>
<p>用于目标检测任务的训练/测试/验证数据集拥有超过<code>20</code>万张图像,共<code>80</code>个类别。其中,在训练和验证数据集上的标注超过了<code>50</code>万个</p>
[数据集]COCO简介
http://blog.zjykzj.cn/posts/ef73a2c1.html
2020-05-26T06:01:27.000Z
2021-04-03T07:57:46.126Z
<p>介绍<code>COCO</code>数据集以及标注文件格式。官网地址:<a
href="http://cocodataset.org/#home">COCO</a></p>
<h2 id="简介">简介</h2>
<p><code>COCO</code>是一个大规模的目标检测、分割和字幕数据集。包含了以下特征:</p>
<ol type="1">
<li>目标分割(<code>Object segmentation</code>)</li>
<li>场景分析(<code>Recognition in context</code>)</li>
<li>超像素分割(<code>Superpixel stuff segmentation</code>)</li>
<li><code>33</code>万张图像,其中超过<code>20</code>万张已标注(<code>330K images (>200K labeled)</code>)</li>
<li><code>150</code>万个目标实例(<code>1.5 million object instances</code>)</li>
<li><code>80</code>个目标类别(<code>80 object categories</code>)</li>
<li><code>91 stuff categories</code></li>
<li>每张图片<code>5</code>个字幕(<code>5 captions per image</code>)</li>
<li><code>25</code>万个行人关键点(<code>250,000 people with keypoints</code>)</li>
</ol>
YOLO9000: Better, Faster, Stronger
http://blog.zjykzj.cn/posts/f0c22d2e.html
2020-05-24T07:28:25.000Z
2024-01-30T13:23:25.000Z
<p>原文地址:<a href="https://arxiv.org/abs/1612.08242">YOLO9000:
Better, Faster, Stronger</a></p>
目标检测训练框架
http://blog.zjykzj.cn/posts/902134ce.html
2020-05-18T02:58:31.000Z
2021-04-14T12:40:11.794Z
<p>研究<a
href="https://github.com/lufficc/SSD">lufficc/SSD</a>源码时,发现其实现了一个目标检测训练框架,进行深入研究后整理成一个新的训练框架</p>
SSD: Single Shot MultiBox Detector
http://blog.zjykzj.cn/posts/4adff177.html
2020-05-17T12:38:52.000Z
2021-04-14T13:04:15.714Z
<p>原文地址:<a href="https://arxiv.org/abs/1512.02325">SSD: Single Shot
MultiBox Detector</a></p>
[目标检测][PyTorch]边界框操作
http://blog.zjykzj.cn/posts/c306db14.html
2020-05-17T08:08:22.000Z
2021-04-12T12:31:02.986Z
<p>阅读源码时发现<code>torchvision</code>提供了许多边界框操作,包括</p>
<ol type="1">
<li><code>NMS</code></li>
<li>移除小边界框</li>
<li>修剪边界框坐标,保证边界框坐标位于图像内</li>
<li>计算边界框面积</li>
<li><code>IoU</code>计算</li>
</ol>
<p>在线文档:<a
href="https://pytorch.org/docs/stable/torchvision/ops.html">torchvision.ops</a></p>
<p>源码地址:<code>torchvision/ops/boxes.py</code></p>
<p>当前<code>torchvision</code>版本:<code>0.6.0a0+82fd1c8</code></p>
[目标检测]IoU计算
http://blog.zjykzj.cn/posts/71d55179.html
2020-05-13T05:31:17.000Z
2021-04-14T12:39:13.545Z
<p>之前学习<code>IoU</code>的概念并且实现了预测框和对应真值边界框之间的计算
- <a
href="https://blog.zhujian.life/posts/796ebd4e.html">[目标检测]IoU</a></p>
<p>不过预设的条件是每个真值边界框仅和单个预测边界框进行比对,参考<a
href="https://github.com/object-detection-algorithm/SSD/blob/master/py/ssd/utils/box_utils.py">box_utils.py</a>计算每个真值边界框和每个预测边界框的<code>IoU</code></p>
权重初始化 - PyTorch实现
http://blog.zjykzj.cn/posts/9f7f5d80.html
2020-05-08T12:58:36.000Z
2021-04-12T12:39:10.713Z
<p>之前在<code>cs231n</code>上学习了简单的几种初始化方法 - <a
href="https://blog.zhujian.life/posts/cfd35552.html">权重初始化</a>。最近阅读源码时发现了<code>PyTorch</code>实现的权重初始化</p>
[数据集][PASCAL VOC]07+12 - 2
http://blog.zjykzj.cn/posts/9b0b1671.html
2020-05-07T10:44:13.000Z
2023-07-23T04:30:59.780Z
<p>之前在<a
href="https://blog.zhujian.life/posts/db93f7d2.html">[数据集][PASCAL
VOC]07+12</a>中需要额外下载、解压数据集才能进一步实现<code>VOC 07+12</code>的集合。今天发现了<code>PyTorch</code>的<code>voc.py</code>集成了<code>2007</code>测试集,同时可以结合<a
href="https://visionguide.readthedocs.io/zh_CN/latest/torchvision/concatdataset/">ConcatDataset</a>一起使用</p>
<p>相关实现:<a
href="https://github.com/zjykzj/vocdev/blob/master/README.zh-CN.md">zjykzj/vocdev</a></p>
[OKR]2020年5月份
http://blog.zjykzj.cn/posts/57bb5b30.html
2020-05-03T12:19:22.000Z
2021-04-04T05:05:03.003Z
<p><code>4</code>月份实现了<code>YOLO_v1</code>算法,学习新的模型<code>ResNet/GoogLeNet/SqueezeNet/DenseNet/SSD</code>,同时小结了评估标准,包括<code>mAP/Flops/Params Size/FPS/Top-k accuracy</code></p>
<p>本周学习了如何寻找最优学习率/权重衰减,以及进行<code>warmup+CosineAnnearling</code>加速模型训练,同时加强了数据预处理,包括随机擦除/颜色抖动/<code>Ten Crops</code>测试等</p>
<p>本周继续<code>SSD</code>算法的学习和实现,同时开始新模型和训练方法的学习。本月期待完成新工作的寻找</p>
如何找到最优权重衰减值
http://blog.zjykzj.cn/posts/b2e2c47b.html
2020-05-02T17:35:05.000Z
2021-04-14T12:41:18.027Z
<p>论文<a href="https://arxiv.org/pdf/1803.09820.pdf">A DISCIPLINED
APPROACH TO NEURAL NETWORK HYPER-PARAMETERS: PART 1 – LEARNING RATE,
BATCH SIZE, MOMENTUM, AND WEIGHT
DECAY</a>给出了关于学习率、批量大小、动量和权重衰减的训练方法。下面学习如何找到最优权重衰减值</p>
[LR Scheduler]如何找到最优学习率
http://blog.zjykzj.cn/posts/78a36c78.html
2020-05-01T14:02:41.000Z
2021-04-14T12:50:39.766Z
<p>如何寻找最优学习率?</p>
<h2 id="根据准确度寻找最优学习率">根据准确度寻找最优学习率</h2>
<p>论文<a href="https://arxiv.org/pdf/1506.01186.pdf">Cyclical Learning
Rates for Training Neural
Networks</a>提出了周期学习率调度方法,让学习率在合理的边界值之间循环变化(<em>不再单调递减</em>)</p>
[LR Scheduler]warmup
http://blog.zjykzj.cn/posts/f311f0.html
2020-05-01T12:35:07.000Z
2021-04-14T12:51:17.883Z
<p>论文<a
href="https://research.fb.com/wp-content/uploads/2017/06/imagenet1kin1h5.pdf">Accurate,
Large Minibatch SGD: Training ImageNet in 1
Hour</a>使用<code>warmup</code>进行学习率的调整,能够帮助模型的训练</p>
[LR Scheduler]余弦退火
http://blog.zjykzj.cn/posts/6eb7f24f.html
2020-05-01T07:23:22.000Z
2021-04-14T12:51:01.987Z
<p>余弦退火(<code>Cosine Annealing</code>)方法来自于论文<a
href="https://arxiv.org/pdf/1608.03983.pdf">SGDR: STOCHASTIC GRADIENT
DESCENT WITH WARM RESTARTS</a></p>
标签平滑正则化
http://blog.zjykzj.cn/posts/9a85fe27.html
2020-04-30T07:56:01.000Z
2021-04-12T11:29:52.127Z
<h2 id="定义">定义</h2>
<p>在分类任务中,通常使用交叉熵损失进行梯度训练。交叉熵损失的作用就是最大化正确标签的对数似然概率。其损失值计算如下:</p>
<p><span class="math display">\[
H(y, p) =-1\times \sum_{k=1}^{K} y_{k}log(p_{k})
\]</span></p>
<p>当<span class="math inline">\(y_{k}\)</span>属于正确类时<span
class="math inline">\(=1\)</span>,否则<span
class="math inline">\(=0\)</span>。这会导致两个问题:</p>
<ol type="1">
<li>它可能会导致过度拟合:如果模型学会为每个训练示例分配全部概率给真值标签,它就不能保证泛化效果</li>
<li>它鼓励最大<code>logit</code>和所有其他<code>logit</code>之间的差异变大,这与有界梯度<span
class="math inline">\(\frac
{∂l}{∂z_{k}}\)</span>相结合,降低了模型的迁移能力</li>
</ol>
<p>标签平滑正则化的目的是防止最大逻辑变得比所有其他逻辑大得多。其实现方式:在交叉熵损失中加入一个独立于训练样本的基于标签的分布<span
class="math inline">\(u(k)\)</span></p>
<p><span class="math display">\[
y(k) = (1 - \epsilon)δ_{k,y} + \epsilon u(k)
\]</span></p>
<ul>
<li><span class="math inline">\(k\)</span>表示标签数</li>
<li><span class="math inline">\(\epsilon\)</span>表示平滑参数</li>
<li>$δ_{k,y} <span
class="math inline">\(表示标签为\)</span>y$的训练样本</li>
</ul>
<p>从实现上看,LSR鼓励神经网络选择正确的类,并且正确类和其余错误类之间的差别是一致的。这样能够鼓励梯度向正确类靠近的同时远离错误类</p>
<p>在论文中将<span
class="math inline">\(u(k)\)</span>设置为均匀分布<span
class="math inline">\(u(k) = 1/K\)</span>,所以</p>
<p><span class="math display">\[
y(k) = (1 - \epsilon)δ_{k,y} + \frac {\epsilon}{K}
\]</span></p>
<p><span class="math inline">\(\epsilon可设置为0.1\)</span></p>
模型可视化工具和库
http://blog.zjykzj.cn/posts/d813343e.html
2020-04-28T07:26:24.000Z
2021-04-06T11:30:20.794Z
<p>小结模型可视化工具和库</p>
Densely Connected Convolutional Networks
http://blog.zjykzj.cn/posts/4129fe4c.html
2020-04-27T02:11:25.000Z
2021-07-09T15:00:07.067Z
<p>原文地址:<a href="https://arxiv.org/abs/1608.06993">Densely
Connected Convolutional Networks</a></p>
SQUEEZENET
http://blog.zjykzj.cn/posts/a2419158.html
2020-04-24T06:43:06.000Z
2021-07-09T15:04:49.446Z
<p>原文地址:<a href="https://arxiv.org/abs/1602.07360">SqueezeNet:
AlexNet-level accuracy with 50x fewer parameters and <0.5MB model
size</a></p>
[目标检测][PASCAL VOC]mAP
http://blog.zjykzj.cn/posts/d817618d.html
2020-04-20T13:14:25.000Z
2023-07-23T04:32:16.998Z
<p>对于目标检测算法而言,<code>mAP(mean average precision)</code>是最常用的评价指标了。关于如何计算<code>mAP</code>,不同的数据集提供了不同的实现方式,其中最常用的就是<code>PASCAL VOC</code>数据集的<code>mAP</code>计算,网上有很多相关的资料,看了很多还是感觉不理解,所以打算好好记录一下</p>
<p>相关实现:<a
href="https://github.com/zjykzj/vocdev/blob/master/README.zh-CN.md">zjykzj/vocdev</a></p>
You Only Look Once: Unified, Real-Time Object Detection
http://blog.zjykzj.cn/posts/256e06fe.html
2020-04-16T01:38:58.000Z
2023-07-23T07:22:03.644Z
<p>原文地址:<a href="https://arxiv.org/abs/1506.02640">You Only Look
Once: Unified, Real-Time Object Detection</a></p>
<p>复现地址:<a
href="https://github.com/zjykzj/YOLOv1/blob/master/README.zh-CN.md">zjykzj/YOLOv1</a></p>
[译]Identity Mappings in Deep Residual Networks
http://blog.zjykzj.cn/posts/9a5e8e83.html
2020-04-13T05:47:38.000Z
2021-07-09T15:13:54.184Z
<p>原文地址:<a href="https://arxiv.org/abs/1603.05027">Identity
Mappings in Deep Residual Networks</a></p>
ResNet-18/34/50/101/152
http://blog.zjykzj.cn/posts/98041833.html
2020-04-13T02:36:40.000Z
2021-07-09T15:04:20.275Z
<p>论文<a href="https://arxiv.org/abs/1512.03385">Deep Residual Learning
for Image Recognition</a>实现了一种新的网络结构 -
残差学习框架。通过堆叠残差单元,能够实现非常深的网络模型</p>
<p>下面使用<code>PyTorch</code>实现<code>ResNet -18/34/50/101/152</code></p>
[GoogLeNet]Inception-ResNet-v2
http://blog.zjykzj.cn/posts/33b792ff.html
2020-04-12T08:53:34.000Z
2021-07-09T15:01:10.841Z
<p>参考:<a
href="https://blog.zhujian.life/posts/bc2d8337.html">Inception-v4,
Inception-ResNet and the Impact of Residual Connections on
Learning</a>,解析<code>Inception-ResNet-v2</code>架构</p>
[GoogLeNet]Inception-ResNet-v1
http://blog.zjykzj.cn/posts/aabec345.html
2020-04-12T07:32:07.000Z
2021-07-09T15:00:54.601Z
<p>参考:<a
href="https://blog.zhujian.life/posts/bc2d8337.html">Inception-v4,
Inception-ResNet and the Impact of Residual Connections on
Learning</a>,解析<code>Inception-ResNet-v1</code>架构</p>
[GoogLeNet]Inception-v4
http://blog.zjykzj.cn/posts/a1c6674f.html
2020-04-12T02:02:52.000Z
2021-07-09T15:01:34.876Z
<p>参考:<a
href="https://blog.zhujian.life/posts/bc2d8337.html">Inception-v4,
Inception-ResNet and the Impact of Residual Connections on
Learning</a>,解析<code>Inception-v4</code>架构</p>
Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning
http://blog.zjykzj.cn/posts/bc2d8337.html
2020-04-11T11:46:47.000Z
2021-07-09T15:01:57.647Z
<p>原文地址:<a href="https://arxiv.org/abs/1602.07261">Inception-v4,
Inception-ResNet and the Impact of Residual Connections on
Learning</a></p>
<p>论文基于<code>Inception</code>结构和残差连接实现了<code>3</code>个网络:</p>
<ol type="1">
<li><code>Inception-v4</code></li>
<li><code>Inception-ResNet-v1</code></li>
<li><code>Inception-ResNet-v2</code></li>
</ol>
<p>通过实验证明了残差连接能够很好的改善训练速度,同时证明了非残差的<code>Inception</code>网络同样能够实现最好的分类精度</p>
[Deep Residual Learning for Image Recognition]用于图像识别的深度残差学习
http://blog.zjykzj.cn/posts/bae1ada1.html
2020-04-10T10:35:43.000Z
2021-07-09T14:59:51.420Z
<p>原文地址:<a href="https://arxiv.org/abs/1512.03385">Deep Residual
Learning for Image Recognition</a></p>
[目标检测][目标识别]模型性能测试
http://blog.zjykzj.cn/posts/4bc9fe45.html
2020-04-10T07:00:50.000Z
2021-04-12T12:06:01.209Z
<p>在目标检测和目标识别任务中,常用以下几种评价标准:</p>
<ol type="1">
<li>参数数目</li>
<li><code>FLOPs</code></li>
<li><code>FPS</code></li>
<li><code>Accuracy/Error Rate</code></li>
<li><code>mAP</code></li>
</ol>
<p>结合<code>PyTorch</code>完成了相关评价标准的实现:<a
href="https://github.com/zjZSTU/Evaluation-Metrics">zjZSTU/Evaluation-Metrics</a></p>
<p>相关实现文档:<a
href="https://evaluation-metrics.readthedocs.io/zh_CN/latest/?badge=latest">Evaluation-Metrics</a></p>
[GoogLeNet]Inception_v3
http://blog.zjykzj.cn/posts/68d74ed2.html
2020-04-10T05:53:26.000Z
2021-07-09T15:01:27.644Z
<p>论文<a href="https://arxiv.org/abs/1512.00567">Rethinking the
Inception Architecture for Computer Vision</a>对<a
href="https://blog.zhujian.life/posts/9923f3ed.html">GoogLeNet</a>和<a
href="https://blog.zhujian.life/posts/f74671e9.html">GoogleNet_BN</a>的实现做了进一步的解释,同时提出了新的<code>Inception</code>模块和损失函数<code>LSR(label-smoothing regularizer)</code></p>
<p>上一篇实现了<code>Inception_v2</code>架构,经过测试发现其损失收敛速度确实高于之前的<code>GoogLeNet_BN</code>。本文在此基础上实现<code>Inception_v3</code>架构</p>
<p>论文翻译地址:<a
href="https://blog.zhujian.life/posts/a0a2be91.html">[译]Rethinking the
Inception Architecture for Computer Vision</a></p>
<p><code>Inception_v2</code>实现:<a
href="https://blog.zhujian.life/posts/1fd07e44.html">[GoogLeNet]Inception_v2</a></p>
<p><strong>发现一个在线可视化工具:<a
href="http://dgschwend.github.io/netscope/quickstart.html">Netscope CNN
Analyzer</a>,里面提供了<code>Inception v3</code>的可视化及详细参数:<a
href="http://dgschwend.github.io/netscope/#/preset/inceptionv3">Inception
v3</a></strong></p>
[GoogLeNet]Inception_v2
http://blog.zjykzj.cn/posts/1fd07e44.html
2020-04-09T12:00:26.000Z
2021-07-09T15:01:23.592Z
<p>论文<a href="https://arxiv.org/abs/1512.00567">Rethinking the
Inception Architecture for Computer Vision</a>对<a
href="https://blog.zhujian.life/posts/9923f3ed.html">GoogLeNet</a>和<a
href="https://blog.zhujian.life/posts/f74671e9.html">GoogleNet_BN</a>的实现做了进一步的解释,同时提出了新的<code>Inception</code>模块和损失函数<code>LSR(label-smoothing regularizer)</code>,本文实现其中的<code>Inception_v2</code>架构</p>
<p>论文翻译地址:<a
href="https://blog.zhujian.life/posts/a0a2be91.html">[译]Rethinking the
Inception Architecture for Computer Vision</a></p>
[译]Rethinking the Inception Architecture for Computer Vision
http://blog.zjykzj.cn/posts/a0a2be91.html
2020-04-08T06:46:27.000Z
2021-12-08T12:53:13.566Z
<p>原文地址:<a href="https://arxiv.org/abs/1512.00567">Rethinking the
Inception Architecture for Computer Vision</a></p>
GoogLeNet_BN
http://blog.zjykzj.cn/posts/f74671e9.html
2020-04-08T01:36:33.000Z
2021-07-09T15:00:42.850Z
<p>论文<a href="https://arxiv.org/abs/1502.03167">Batch Normalization:
Accelerating Deep Network Training by Reducing Internal Covariate
Shift</a>将批量归一化方法作用于卷积神经网络,通过校正每层输入数据的数据分布,从而达到更快的训练目的。在文章最后,添加批量归一化层到<code>GoogLeNet</code>网络,得到了更好的检测效果</p>
<p><img
src="/imgs/object_classification/googlenet-bn/figure-2-3.png" /></p>
GoogLeNet
http://blog.zjykzj.cn/posts/9923f3ed.html
2020-04-07T07:33:09.000Z
2021-07-09T15:01:45.544Z
<p>学习了论文<code>Going deeper with convolutions</code>,尝试进一步推导其模型,并使用<code>PyTorch</code>实现该网络</p>
批量归一化:通过减轻内部协变量偏移来加速深度网络训练
http://blog.zjykzj.cn/posts/602de03b.html
2020-04-07T05:27:15.000Z
2021-04-14T12:40:36.774Z
<p>学习论文<a href="https://arxiv.org/abs/1502.03167">Batch
Normalization: Accelerating Deep Network Training by Reducing Internal
Covariate
Shift</a>,里面提出了批量归一化(<code>Batch Normalization</code>,简称<code>BN</code>)方法,一方面能够大幅提高训练速度,另一方面也能够实现更好的模型精度</p>
[数据集][PASCAL VOC]07+12
http://blog.zjykzj.cn/posts/db93f7d2.html
2020-04-06T11:49:09.000Z
2023-07-23T04:30:54.912Z
<p>综合<code>PASCAL VOC 2007</code>和<code>2012</code>数据集,进行分类/检测任务。分两步完成:</p>
<ol type="1">
<li>下载<code>07 trainval、07 test、12 trainval</code>数据集,解析出分类/检测需要的数据</li>
<li>根据具体任务(分类或者检测)从中提取数据</li>
</ol>
<p>相关实现:<a
href="https://github.com/zjykzj/vocdev/blob/master/README.zh-CN.md">zjykzj/vocdev</a></p>
[数据集]PASCAL VOC 2012
http://blog.zjykzj.cn/posts/d3cd45d1.html
2020-04-06T08:08:39.000Z
2023-07-23T04:30:34.416Z
<p>相比于之前的挑战赛,<a
href="http://host.robots.ox.ac.uk/pascal/VOC/voc2012/index.html">PASCAL
VOC
2012</a>增加了更多的训练和测试图像,同时,这也是最后一届挑战赛。其关于<code>PASCAL VOC</code>以及之前挑战赛的内容参考:</p>
<ul>
<li><a
href="https://blog.zhujian.life/posts/28b6703d.html">[数据集]PASCAL-VOC</a></li>
<li><a
href="https://blog.zhujian.life/posts/5a56cd45.html">[数据集]PASCAL VOC
2007</a></li>
</ul>
<p>相关实现:<a
href="https://github.com/zjykzj/vocdev/blob/master/README.zh-CN.md">zjykzj/vocdev</a></p>
[Going deeper with convolutions]进一步深入卷积操作
http://blog.zjykzj.cn/posts/18b9afc4.html
2020-04-06T04:37:43.000Z
2021-07-09T15:00:33.002Z
<p>文章<a href="https://arxiv.org/abs/1409.4842">Going deeper with
convolutions</a>提出了一种新的卷积架构 -
<code>Inception</code>,基于此实现的<code>CNN</code>架构<code>GoogLeNet</code>能够得到更好的分类和检测效果</p>
[空间金字塔池化]SPP-net
http://blog.zjykzj.cn/posts/caf02cb8.html
2020-04-04T11:28:41.000Z
2021-04-14T12:35:27.291Z
<p>文章<a href="https://arxiv.org/abs/1406.4729">Spatial Pyramid Pooling
in Deep Convolutional Networks for Visual
Recognition</a>提出空间金字塔池化(<code>spatial pyramid pooling</code>)的概念,避免了固定大小的图像输入,能够有效提高子窗口的识别精度;同时通过共用特征图的方式,极大的提高了检测速度</p>
[R-CNN]边界框回归
http://blog.zjykzj.cn/posts/dd3aa53a.html
2020-04-04T07:22:23.000Z
2021-04-14T11:49:46.531Z
<p>在<code>R-CNN</code>算法中,使用<code>SVM</code>分类器对候选建议进行分类后,使用对应类别的边界框回归器(<code>bounding-box regression</code>)预测其坐标偏移值,这一操作能够进一步提高检测精度</p>
感受野
http://blog.zjykzj.cn/posts/ec8d5ed1.html
2020-04-02T10:58:50.000Z
2021-04-14T12:32:40.360Z
<h2 id="什么是感受野">什么是感受野?</h2>
<blockquote>
<p>The receptive field is defined as the region in the input space that
a particular CNN’s feature is looking at (i.e. be affected by). —— Dang
Ha The Hien
在卷积神经网络中,感受野的定义是卷积神经网络每一层输出的特征图(feature
map)上的像素点在原始图像上映射的区域大小。 ——博客园
在机器视觉领域的深度神经网络中有一个概念叫做感受野,用来表示网络内部的不同位置的神经元对原图像的感受范围的大小。
——蓝荣祎</p>
</blockquote>
<p>卷积层滤波器的神经元和前一层输出数据体的局部神经元一一连接,其空间尺寸称为感受野(<code>receptive field</code>)大小</p>
<ul>
<li>局部感受野大小:针对上一层输出数据体的空间尺寸</li>
<li>理论感受野大小:针对原始输入图像的局部空间尺寸</li>
</ul>
过拟合与欠拟合
http://blog.zjykzj.cn/posts/2f1a2a1c.html
2020-03-31T05:34:24.000Z
2021-04-11T05:58:18.139Z
<p>刚开始学习神经网络的时候就接触到了过拟合和欠拟合的概念,包括各种提高模型泛化能力的方法。随着学习内容的增多,反而往往会忽视掉最初的理论</p>
<p>最近在训练目标检测算法时发现模型在训练集上能够得到很好的提高,但是在验证集上没有进步,这就是欠拟合的表现。小结一下关于过拟合与欠拟合的内容</p>
[OKR]2020年4月份
http://blog.zjykzj.cn/posts/f1cc5084.html
2020-03-29T13:37:30.000Z
2021-04-04T05:04:59.747Z
<p><code>3</code>月份实现了<code>R-CNN</code>算法,完成了博客网站的迁移,同时学习了<code>SPP-net</code>以及<code>Fast R-CNN</code>,完成了部分<code>SPP-net</code>算法。相对于月初设定的目标,发现还可以进一步的提高,同时对于关键结果还需要进一步的完善</p>
空间金字塔池化层
http://blog.zjykzj.cn/posts/480bd989.html
2020-03-29T06:59:21.000Z
2021-04-14T12:35:48.110Z
<p>文章<a href="https://arxiv.org/abs/1406.4729">Spatial Pyramid Pooling
in Deep Convolutional Networks for Visual
Recognition</a>提出空间金字塔池化(<code>spatial pyramid pooling</code>)的概念,通过分离卷积层和全连接层架构,避免了固定大小的图像输入,能够有效提高子窗口的识别精度</p>
[PyTorch]ZFNet vs AlexNet
http://blog.zjykzj.cn/posts/d2cd3d94.html
2020-03-26T13:15:40.000Z
2022-06-17T15:03:48.312Z
<p><code>ZFNet</code>对<code>AlexNet</code>进行了调整,使用更小的滤波器取得更大的特征提取能力。使用<code>PyTorch</code>进行测试</p>
[译]Fast R-CNN
http://blog.zjykzj.cn/posts/b35c89e1.html
2020-03-25T04:37:37.000Z
2021-04-14T12:42:28.955Z
<p>原文地址:<a href="https://arxiv.org/abs/1504.08083">Fast
R-CNN</a></p>
<p>Fast
R-CNN在R-CNN的基础上进一步发展,充分利用卷积神经网络进行目标检测和分类</p>
R-CNN
http://blog.zjykzj.cn/posts/5beb21d0.html
2020-03-24T10:58:59.000Z
2021-04-14T12:56:51.256Z
<p><code>R-CNN</code>是早期最先在目标检测领域中使用卷积神经网络的模型之一,实现了很好的检测效果</p>
<p>原文:<a href="https://arxiv.org/abs/1311.2524">Rich feature
hierarchies for accurate object detection and semantic
segmentation</a></p>
<p>译文:<a
href="https://blog.zhujian.life/posts/69fce0f5.html">[译]Rich feature
hierarchies for accurate object detection and semantic
segmentation</a></p>
[目标检测]Non-Maximum Suppression
http://blog.zjykzj.cn/posts/7b326d08.html
2020-03-24T07:49:53.000Z
2021-04-14T12:39:20.912Z
<p>在目标检测中,非最大值抑制(<code>Non-Maximum Suppression, NMS</code>)能够有效去除冗余的候选边界框</p>
[PyTorch][Numpy][Softmax]计算概率
http://blog.zjykzj.cn/posts/f6b1346b.html
2020-03-20T13:10:05.000Z
2021-07-09T15:11:28.533Z
<p><code>softmax</code>是常用的分类器之一,其一大特点就是输出每个类别的分类概率。之前已经学习和使用过<code>softmax</code>,在这里小结计算概率实现</p>
Hard Negative Mining
http://blog.zjykzj.cn/posts/bc29003.html
2020-03-19T13:12:08.000Z
2021-04-14T11:02:26.022Z
<p>在<code>R-CNN</code>中使用<code>Hard Negative Mining</code>(负样本挖掘)方法进行分类器的训练</p>
[Ubuntu]目录树
http://blog.zjykzj.cn/posts/8bc9b2b7.html
2020-03-17T06:34:25.000Z
2021-04-07T02:11:26.527Z
<p>使用<code>Linux</code>系统已经很久了,在笔记本上也安装了<code>Ubuntu 18.04</code>,对于系统根目录上的各个文件夹的功能还没有很了解</p>
<ul>
<li>关于<code>Ubuntu</code>文件系统目录树,参考<a
href="https://help.ubuntu.com/community/LinuxFilesystemTreeOverview">LinuxFilesystemTreeOverview</a>和<a
href="https://help.ubuntu.com/lts/installation-guide/armhf/apcs02.html">C.2.
The Directory Tree</a></li>
<li>对于<code>Linux</code>的文件系统层次标准(<code>Filesystem Hierarchy Standard, FHS</code>),参考<a
href="https://en.wikipedia.org/wiki/Filesystem_Hierarchy_Standard">Filesystem
Hierarchy Standard</a>和<a
href="https://www.tldp.org/LDP/Linux-Filesystem-Hierarchy/html/the-root-directory.html">Chapter
1. Linux Filesystem Hierarchy</a></li>
</ul>
[腾讯云][阿里云]网站迁移小结
http://blog.zjykzj.cn/posts/d959b685.html
2020-03-13T11:44:50.000Z
2021-04-06T09:20:56.825Z
<p>前几天腾讯云的客服打电话过来,告知网站内容不符合个人备案的要求,不能出现外部链接,给了一周的整改时间。个人不太想修改之前的内容,所以购买了阿里云的香港服务器,重新部署网站,小结网站迁移的过程</p>
关于域名/解析/服务器和备案的关系
http://blog.zjykzj.cn/posts/406e123.html
2020-03-10T08:21:33.000Z
2021-04-17T11:05:48.120Z
<p>上个星期腾讯云客服打电话过来说我的博客网站存在外部链接的问题,不符合个人备案要求,给了一周的整改时间。没办法,只能赶紧的找解决方案,花了不少功夫,终于解决了这个问题,也了解了备案和域名/解析/服务器之间的联系</p>
[Jenkins]语法查询
http://blog.zjykzj.cn/posts/bf0708ea.html
2020-03-10T06:57:58.000Z
2021-04-03T08:30:35.583Z
<p><code>Jenkins</code>推荐使用<code>Pipeline</code>的方式进行工程构建,对于如何编写脚本,有<code>3</code>种方式可以参考</p>
<ol type="1">
<li>在线文档</li>
<li>流水线语法</li>
<li>插件参考</li>
</ol>
<p>下面的参考都是关于声明式流水线(<code>Declarative Pipeline</code>)的学习和使用</p>
[jenkinsci/blueocean][NodeJS]bash: node: command not found
http://blog.zjykzj.cn/posts/5d3090aa.html
2020-03-10T05:24:22.000Z
2021-04-03T08:50:53.034Z
<p>在<code>Jenkins</code>官网教程<a
href="https://jenkins.io/zh/doc/book/installing/#%E5%9C%A8docker%E4%B8%AD%E4%B8%8B%E8%BD%BD%E5%B9%B6%E8%BF%90%E8%A1%8Cjenkins">在Docker中下载并运行Jenkins</a>中推荐使用<code>jenkinsci/blueocean</code>,运行后发现其对于<code>NodeJS</code>的支持并不完善</p>
[OKR]2020年3月份
http://blog.zjykzj.cn/posts/346b6e0a.html
2020-03-01T12:47:50.000Z
2021-04-04T05:04:57.072Z
<p>上周进行了<code>JetBrain</code>全家桶学生认证,学习了迁移学习实现,以及<code>R-CNN</code>模型的微调数据集创建和模型训练。本月继续完成上个月未结束的<code>R-CNN</code>实现以及<code>Fast R-CNN</code>实现</p>
线性SVM分类器-PyTorch实现
http://blog.zjykzj.cn/posts/4d25cbab.html
2020-03-01T06:31:21.000Z
2021-07-09T15:10:27.525Z
<p>之前使用<code>Numpy</code>实现了线性<code>SVM</code>分类器 - <a
href="https://blog.zhujian.life/posts/ebe205e.html">线性SVM分类器</a>。这一次使用<code>PyTorch</code>实现</p>
迁移学习
http://blog.zjykzj.cn/posts/c7511b44.html
2020-02-28T06:30:55.000Z
2021-04-14T12:40:42.977Z
<p>实际训练中很少有网络能够拥有足够大的数据集进行训练,所以迁移学习是实际卷积网络训练过程中非常重要的步骤</p>
[译]Transfer Learning for Computer Vision Tutorial
http://blog.zjykzj.cn/posts/c8566254.html
2020-02-26T11:53:35.000Z
2021-04-14T12:44:33.116Z
<blockquote>
<p>In this tutorial, you will learn how to train a convolutional neural
network for image classification using transfer learning. You can read
more about the transfer learning at cs231n notes</p>
</blockquote>
<p>在本教程中,您将学习如何使用迁移学习来训练用于图像分类的卷积神经网络。您可以在<a
href="https://cs231n.github.io/transfer-learning/">cs231n
notes</a>上阅读更多关于迁移学习的信息</p>
[数据集]Penn-Fudan
http://blog.zjykzj.cn/posts/6c61a203.html
2020-02-26T11:33:40.000Z
2021-04-03T07:55:51.245Z
<p>数据集<a
href="https://www.cis.upenn.edu/~jshi/ped_html/">Penn-Fudan</a>可用于行人检测和分割任务</p>
[译]TorchVision Object Detection Finetuning Tutorial
http://blog.zjykzj.cn/posts/1a1c504e.html
2020-02-26T02:17:57.000Z
2021-04-14T12:44:23.127Z
<p>本文是PyTorch中关于微调CNN的一篇教程,里面利用预训练的Mask
R-CNN模型,在PennFudan数据集上进行微调实现</p>
<p>原文地址:<a
href="https://pytorch.org/tutorials/intermediate/torchvision_tutorial.html">TorchVision
Object Detection Finetuning Tutorial</a></p>
<p>本文章涉及脚本位于仓库<a
href="https://github.com/pytorch/vision">pytorch/vision</a></p>
C++11实践
http://blog.zjykzj.cn/posts/b738146b.html
2020-02-22T02:15:34.000Z
2021-04-07T02:12:30.113Z
<p>最开始学习编程的时候接触的是<code>C</code>语言,之后自然的过渡到<code>C++</code>语言,所以很长时间内会使用<code>C</code>语言风格编写<code>C++</code>代码(<em>用的还挺顺</em>)。后来随着学习的深入,逐渐发现更应该用面向对象的思想来学习和使用<code>C++</code></p>
<p>编译<code>OpenCV 4.0</code>时发现其<code>C++</code>代码已全面符合<code>C++ 11</code>规范,忽然发现之前学习的<code>C++</code>已经过了多个版本,经过查询后发现从<code>C++ 11</code>开始,<code>C++</code>语言完成了极大的转变,提供了足够多的数据结构和算法来替代<code>C</code>语言风格的编写</p>
<p>经过一段时间的<code>C++ 11</code>规范的学习和实践,小结常用的语法以及新增的规范:</p>
[peek]录屏工具使用
http://blog.zjykzj.cn/posts/32ab76c9.html
2020-02-21T12:32:17.000Z
2021-04-06T12:10:40.141Z
<p>之前使用过<code>GifCam</code>进行录屏,操作效果一般,后来重装系统就没有再安装。最近偶然机会下发现一个好用的录屏工具
- <a
href="https://github.com/phw/peek">peek</a>,界面简洁同时操作简单</p>
选择性搜索算法小结
http://blog.zjykzj.cn/posts/58ff6dae.html
2020-02-21T03:19:55.000Z
2021-04-11T05:31:28.275Z
<p>研究了好久的选择性搜索算法,终于把它搞定!!!</p>
[OKR]2020年2月份
http://blog.zjykzj.cn/posts/921c65be.html
2020-02-01T11:50:33.000Z
2021-04-04T05:04:54.488Z
<p>经过上个月的<code>OKR</code>实践,发现并没有合理的设置关键任务,并且没有考虑到实际学习时间(比如一月份的春节),所以<code>2</code>月份的<code>OKR</code>应该在一月份的<code>OKR</code>实践的基础上,继续之前未完成的事情,有效的设置关键任务</p>
[pytorch]训练一个简单的检测器
http://blog.zjykzj.cn/posts/5bfa4e56.html
2020-01-18T12:30:40.000Z
2021-04-14T12:55:58.811Z
<p>学习边框回归的概念时,发现一篇自定义检测器的文章</p>
<ul>
<li>原文:<a
href="https://towardsdatascience.com/getting-started-with-bounding-box-regression-in-tensorflow-743e22d0ccb3">Getting
Started With Bounding Box Regression In TensorFlow</a></li>
<li>中文:<a
href="http://blog.hubwiz.com/2019/09/16/bounding-box-regression/">目标检测之边框回归入门【Tensorflow】</a></li>
</ul>
<p>虽然题目写的是边框回归,但是里面没有讲解相关的概念,而是自定义了一个边框检测器,实现原理比较简单。看完之后感觉挺有趣的,之前也没有自己实现过检测器,原文使用<code>TensorFlow</code>实现,当前使用<code>PyTorch</code>进行复现</p>
[数据集]Image Localization Dataset
http://blog.zjykzj.cn/posts/a2d65e1.html
2020-01-18T11:00:29.000Z
2021-04-03T07:59:15.978Z
<p>图像定位数据集(<code>image localization dataset</code>)是一个简单的用于图像定位实验的数据集,参考<a
href="https://www.kaggle.com/mbkinaci/image-localization-dataset/data">Image
Localization Dataset</a></p>
[目标检测]IoU
http://blog.zjykzj.cn/posts/796ebd4e.html
2020-01-12T07:20:50.000Z
2021-04-14T12:38:35.598Z
<p><code>IoU(Intersection over union, 交集并集比)</code>是目标检测领域常用的评价标准,通过比较真值边界框(<code>the ground-truth bounding box</code>,手动标记)和预测边界框(<code>the predicted bounding box</code>)的重合度来判定算法检测性能</p>
<p><img
src="/imgs/dl/iou/450px-Intersection_over_Union_-_object_detection_bounding_boxes.jpg" /></p>
[多分类]PR曲线
http://blog.zjykzj.cn/posts/2bbcad17.html
2020-01-11T14:25:28.000Z
2021-03-30T12:13:28.846Z
<p>计算多分类任务的<code>PR</code>曲线</p>
[多分类]ROC曲线
http://blog.zjykzj.cn/posts/48526d13.html
2020-01-11T11:21:03.000Z
2021-03-30T12:13:37.086Z
<p>学习和使用多分类任务的<code>ROC</code>曲线</p>
[多分类]混淆矩阵
http://blog.zjykzj.cn/posts/c35edb41.html
2020-01-11T07:34:56.000Z
2021-03-30T12:13:14.345Z
<p>学习多分类任务的混淆矩阵计算,共有两种方式:</p>
<ol type="1">
<li><code>one VS rest</code></li>
<li><code>one VS one</code></li>
</ol>
[二分类]F1 score
http://blog.zjykzj.cn/posts/50c7d392.html
2020-01-10T12:01:04.000Z
2022-01-13T12:56:57.442Z
<p><span class="math inline">\(F_{1}
score\)</span>可以解释为精确度和召回率的加权平均值,相当于精确率和召回率的综合评价指标</p>
<p><strong><em>当前着重于二分类<code>F1 score</code></em></strong></p>
准确率 vs. 精确率
http://blog.zjykzj.cn/posts/5b516f3c.html
2020-01-10T11:40:09.000Z
2022-01-16T06:00:34.316Z
<p>准确率和精确率是常用的算法评价标准,但是其定义略有差别</p>
[OKR]2020年1月份
http://blog.zjykzj.cn/posts/a3f47f23.html
2020-01-06T12:39:29.000Z
2021-04-04T05:04:48.857Z
<p><code>2020</code>年<code>1</code>月份<code>OKR</code>实现</p>
2019年小结
http://blog.zjykzj.cn/posts/f4cf1e23.html
2020-01-05T13:48:27.000Z
2021-03-31T11:05:44.251Z
<p>在网上看到很多<code>vloger</code>都发布了自己的<code>2019</code>年小结,想想自己的<code>2019</code>年也发生了很多事情,记录一下</p>
OKR工作法
http://blog.zjykzj.cn/posts/b85d3c6c.html
2020-01-03T11:14:08.000Z
2021-04-04T05:04:30.733Z
<p><code>OKR</code>(<code>Objectives and Key Results</code>,目标与关键结果)工作法是最近非常热门的管理和实践模型,在公司实习的时候接触了这个概念,后来回学校后就没有去深入研究。买了一本书<code>《OKR工作法》</code>进行学习,里面通过一个创业案例来说明<code>OKR</code>工作法的使用。从我个人观点来看,<code>OKR</code>的概念非常抽象,整个模型可以说很简单,不过确实能够通过实践它得到不一样的进步</p>
<p><em>以下内容更多的关注于个人的OKR学习和实践</em></p>
[Jenkins][GitLab]docker-compose实现
http://blog.zjykzj.cn/posts/1431c640.html
2020-01-01T15:14:24.000Z
2021-04-03T08:38:06.832Z
<p>之前实现了<a
href="https://blog.zhujian.life/posts/202ee452.html">在Docker中运行Jenkins</a>以及<a
href="https://zj-git-guide.readthedocs.io/zh_CN/latest/platform/%5BDocker%5DGitLab%E4%BD%BF%E7%94%A8/">[Docker]GitLab使用</a>,参考<a
href="https://containerization-automation.readthedocs.io/zh_CN/latest/docker/compose/%5B%E8%AF%91%5DDocker%20Compose%E6%A6%82%E8%BF%B0/">Docker
Compose</a>,通过<code>docker-compose</code>方式同时启动两个容器</p>
[二分类]PR曲线
http://blog.zjykzj.cn/posts/bca792b4.html
2019-12-27T05:52:21.000Z
2022-01-16T06:54:16.269Z
<p><code>PR</code>曲线是另一种衡量算法性能的评价标准,其使用精确度(<code>Precision, Y轴</code>)和召回率(<code>Recall, X轴</code>)作为坐标系的基底</p>
<p><strong><em>本文着重于二分类的PR曲线</em></strong></p>
<p>参考一个例子:</p>
<blockquote>
<p>Suppose a computer program for recognizing dogs in photographs
identifies 8 dogs in a picture containing 12 dogs and some cats. Of the
8 identified as dogs, 5 actually are dogs (true positives), while the
rest are cats (false positives). The program's precision is 5/8 while
its recall is 5/12.</p>
</blockquote>
知识金字塔
http://blog.zjykzj.cn/posts/bd2847bc.html
2019-12-25T02:59:26.000Z
2021-04-17T11:54:25.952Z
<p><strong><em>停止更新,使用<a
href="http://blog.zhujian.life/posts/b9a3e837.html">知识图谱</a></em></strong></p>
<p>从<code>2019</code>开始通过博客框架<code>Hexo</code>以及文档框架<code>Sphinx/MkDocs</code>进行文档整理,总结过去在书本以及实际编程中的知识和技能。随着文档的增多,如何有效、规范的整理越来越多的文档成了一个新的难题</p>
<p>偶然间看过一篇文章,里面采用金字塔的形式,按重要/难易程度分层排列不同的知识和技能。这种方式确实能够帮助理清学过的知识,同时能够更加明确未来学习的着重点。我将整个金字塔按重要/难易程度从上到下升序分为<code>5</code>层:</p>
<ul>
<li>工具篇</li>
<li>实现篇</li>
<li>语言篇</li>
<li>理论篇</li>
<li>基础篇</li>
</ul>
<p><img src="/imgs/essay/knowledge-pyramid/knowledge-pyramid.png" /></p>
[二分类]ROC曲线
http://blog.zjykzj.cn/posts/71a847e.html
2019-12-23T07:37:45.000Z
2022-01-16T06:32:04.871Z
<p><code>ROC</code>曲线(<code>receiver operating characteristic curve</code>,受试者工作特征曲线)是一个二维图,用于说明分类器在不同阈值下的分类能力</p>
<p><strong><em>本文通过<code>ROC</code>曲线评价二元分类器</em></strong></p>
[分类][检测]评价标准
http://blog.zjykzj.cn/posts/8193e2c2.html
2019-12-23T07:16:15.000Z
2021-03-30T12:02:26.853Z
<p>算法的关键环节就是评价标准的细分,通过不同的评价标准,能够理清算法实现的边界,有助于进一步思考未来进步的方向。本文专注于学习分类任务和检测任务的评价标准,关键字如下:</p>
[二分类]混淆矩阵
http://blog.zjykzj.cn/posts/74ea027a.html
2019-12-23T07:00:42.000Z
2022-01-13T12:13:33.582Z
<p>混淆矩阵(<code>confusion matrix</code>)是分类任务中最常见的特性,通过矩阵形式展示预测类别和真实类别的差异</p>
<p><strong><em>本文学习二分类下的混淆矩阵</em></strong></p>
软件工程小结
http://blog.zjykzj.cn/posts/ee5b0da5.html
2019-12-20T08:19:04.000Z
2021-04-04T05:14:02.487Z
<p>小结软件工程学习</p>
数学
http://blog.zjykzj.cn/posts/fe7e69f4.html
2019-12-20T08:16:18.000Z
2021-03-30T12:29:11.206Z
<p>小结数学学习过程中总结的文档</p>
MkDocs vs Sphinx
http://blog.zjykzj.cn/posts/50a5fdf2.html
2019-12-18T13:20:27.000Z
2021-04-06T11:53:48.720Z
<p>之前整理了一套文档生成、托管和发布流程,使用<code>Sphinx</code>完成工程文档的生成,使用<code>Github</code>完成文档的托管,使用<code>Readthedocs</code>完成文档的发布</p>
<p>在实践过程中发现整个流程都有或大或小的不足,尤其是<code>Sphinx</code>工具,最近学习了另外一个文档生成工具<code>MkDocs</code>,更加符合个人的需求</p>
[数据集]Iris
http://blog.zjykzj.cn/posts/ffa9d775.html
2019-12-14T13:08:21.000Z
2021-04-03T07:59:32.291Z
<p><code>Iris</code>数据集包含<code>3</code>个类别<code>4</code>个属性,共<code>150</code>个实例</p>
[数据集]German Credit Data
http://blog.zjykzj.cn/posts/833d7df4.html
2019-12-13T12:32:06.000Z
2021-04-03T07:58:05.587Z
<p>德国信用卡数据(<code>German Credit Data</code>)提供了一个二分类数据集,下载地址
- <a
href="http://archive.ics.uci.edu/ml/machine-learning-databases/statlog/german/">statlog/german</a></p>
[ROC][AUC]二分类任务评判标准
http://blog.zjykzj.cn/posts/887dcf29.html
2019-12-13T06:55:38.000Z
2022-01-16T05:52:17.456Z
<p>对于分类问题,最开始想到的评判标准就是检测准确率(<code>accuracy</code>),即样本检测类别和实际一致的数量占整个样本集的比率。进一步研究发现,还可以用更精细的标准来比较检测性能,学习步骤如下:</p>
<ol type="1">
<li>正样本和负样本</li>
<li><code>TP/FP/TN/FN</code></li>
<li><code>TPR/FPR/FDR/PPV/ACC</code></li>
<li><code>ROC/AUC</code></li>
</ol>
[PyTorch]Tensorboard使用实践
http://blog.zjykzj.cn/posts/f793688d.html
2019-12-11T11:29:58.000Z
2021-04-14T12:56:32.033Z
<p>学习了<code>PyTorch</code>环境下的<code>Tensorboard</code>使用 - <a
href="https://blog.zhujian.life/posts/eb6f2b71.html#more">[PyTorch]Tensorboard可视化实现</a>。<code>PyTorch</code>也提供了<code>Tensorboard</code>学习教程
- <a
href="https://pytorch.org/tutorials/intermediate/tensorboard_tutorial.html#visualizing-models-data-and-training-with-tensorboard">Visualizing
Models, Data, and Training with TensorBoard</a></p>
<p>下面结合一个完整的训练过程,通过<code>Tensorboard</code>实现可视化</p>
[PyTorch]Tensorboard可视化实现
http://blog.zjykzj.cn/posts/eb6f2b71.html
2019-12-11T06:56:00.000Z
2021-04-14T12:56:16.854Z
<p>最新版本的<code>PyTorch 1.3</code>内置支持了<a
href="https://github.com/tensorflow/tensorboard">Tensorboard</a>,实现模型、数据以及训练可视化</p>
[数据集]Fashion-MNIST
http://blog.zjykzj.cn/posts/631c599a.html
2019-12-10T11:08:55.000Z
2021-04-03T07:54:54.378Z
<p>之前识别测试最常用的是手写数字数据集<a
href="http://yann.lecun.com/exdb/mnist/">MNIST</a>,今天遇到一个新的基准数据集
- <a
href="https://github.com/zalandoresearch/fashion-mnist">Fashion-MNIST</a></p>
<p><img
src="/imgs/dataset/fashion-mnist/fashion-mnist-sprite.png" /></p>
[译]Writing Custom Datasets, DataLoaders and Transforms
http://blog.zjykzj.cn/posts/aa0415d3.html
2019-12-08T06:52:55.000Z
2021-04-14T12:21:53.878Z
<p>PyTorch通过TorchVision工具包提供统一的数据加载、数据处理的接口,允许自定义类的方式加载数据集,通过DataLoader接口来批量处理</p>
<p>原文地址:<a
href="https://pytorch.org/tutorials/beginner/data_loading_tutorial.html">Writing
Custom Datasets, DataLoaders and Transforms</a></p>
[数据集]PASCAL VOC 2007
http://blog.zjykzj.cn/posts/5a56cd45.html
2019-12-06T08:42:02.000Z
2023-07-23T04:30:45.792Z
<p>相关实现:<a
href="https://github.com/zjykzj/vocdev/blob/master/README.zh-CN.md">zjykzj/vocdev</a></p>
<h2 id="简介">简介</h2>
<p><code>PASCAL VOC 2007</code>数据集基于<code>4</code>个大类别,共包含了<code>20</code>个目标类:</p>
<ul>
<li><code>Person: person</code></li>
<li><code>Animal: bird, cat, cow(奶牛), dog, horse, sheep(绵羊)</code></li>
<li><code>Vehicle(交通工具): aeroplane(飞机), bicycle, boat(小船), bus(公共汽车), car(轿车), motorbike(摩托车), train(火车)</code></li>
<li><code>Indoor(室内): bottle(瓶子), chair(椅子), dining table(餐桌), potted plant(盆栽植物), sofa, tv/monitor(电视/显示器)</code></li>
</ul>
<p><code>PASCAL VOC 2007</code>数据集主要用于分类/测试任务,同时也提供了分割和人体部件检测的数据。示例如下:</p>
<ul>
<li><a
href="http://host.robots.ox.ac.uk/pascal/VOC/voc2007/examples/index.html">分类/测试示例</a></li>
<li><a
href="http://host.robots.ox.ac.uk/pascal/VOC/voc2007/segexamples/index.html">分割示例</a></li>
<li><a
href="http://host.robots.ox.ac.uk/pascal/VOC/voc2007/layoutexamples/index.html">人体部件检测示例</a></li>
</ul>
[ubuntu 18.04]重装系统小结
http://blog.zjykzj.cn/posts/e70eeac0.html
2019-12-05T06:53:49.000Z
2021-04-06T11:14:12.297Z
<p>原先笔记本自带的是<code>Win10</code>系统,想着日常开发中更常用的是<code>Linux</code>环境,所以重装了<code>Ubuntu</code>。之前用的是<code>16.04</code>版本,用了也快一年了,电脑里面的东西攒的挺多的,而且现在也都快<code>2020</code>了,所以打算重装<code>Ubuntu 18.04</code>版本,小结重装<code>Ubuntu</code>系统后相关环境配置</p>
<p><img src="/imgs/deploy/重装系统小结/screen.png" /></p>
[Jenkins]手动设置私钥
http://blog.zjykzj.cn/posts/c343c930.html
2019-12-05T05:49:58.000Z
2021-04-03T08:30:30.539Z
<p>需要在<code>Jenkins</code>操作完成后上传代码到另一个网站的仓库,所以需要手动设置<code>credential</code></p>
Git工作流实践
http://blog.zjykzj.cn/posts/c7ee2f15.html
2019-12-02T05:51:02.000Z
2021-04-06T11:13:49.488Z
<p>在好多个工程上都使用了<code>git</code>,随着时间的拉长会发现工程的提交历史和分支管理很混乱,所以希望能够有一套规范的<code>git</code>使用流程来更好的实现版本管理</p>
<p>参考<a
href="https://blog.csdn.net/qq_32452623/article/details/78905181">Git三大特色之WorkFlow(工作流)</a>,学习了目前最流行的三种<code>git</code>工作流</p>
<ul>
<li><a
href="https://nvie.com/posts/a-successful-git-branching-model/">git
flow</a></li>
<li><a href="http://scottchacon.com/2011/08/31/github-flow.html">github
flow</a></li>
<li><a href="https://docs.gitlab.com/ee/topics/gitlab_flow.html">gitlab
flow</a></li>
</ul>
[译]Introduction to GitLab Flow
http://blog.zjykzj.cn/posts/b35b83bc.html
2019-12-02T02:30:53.000Z
2021-04-06T11:13:34.579Z
<p>原文地址:<a
href="https://docs.gitlab.com/ee/topics/gitlab_flow.html">Introduction
to GitLab Flow</a></p>
[译]GitHub Flow
http://blog.zjykzj.cn/posts/a20843e9.html
2019-11-30T09:23:50.000Z
2021-04-06T11:12:36.021Z
<p>原文地址:<a
href="http://scottchacon.com/2011/08/31/github-flow.html">GitHub
Flow</a></p>
[译]A successful Git branching model
http://blog.zjykzj.cn/posts/aae96086.html
2019-11-29T11:59:30.000Z
2021-04-06T11:11:54.451Z
<p>原文地址:<a
href="https://nvie.com/posts/a-successful-git-branching-model/">A
successful Git branching model</a></p>
<blockquote>
<p>In this post I present the development model that I’ve introduced for
some of my projects (both at work and private) about a year ago, and
which has turned out to be very successful. I’ve been meaning to write
about it for a while now, but I’ve never really found the time to do so
thoroughly, until now. I won’t talk about any of the projects’ details,
merely about the branching strategy and release management.</p>
</blockquote>
<p>在这篇文章中,我介绍了大约一年前为我的一些项目(包括工作项目和私人项目)引入的开发模型,结果证明非常成功。一段时间以来,我一直想写这篇文章,但直到现在,我还没有真正找到时间彻底地写完。我不会谈论任何项目的细节,仅仅是分支策略和发布管理</p>
<p><img src="/imgs/deploy/gitflow/git-model@2x.png" /></p>
[译]Rich feature hierarchies for accurate object detection and semantic segmentation
http://blog.zjykzj.cn/posts/69fce0f5.html
2019-11-28T07:15:04.000Z
2021-04-15T01:26:42.102Z
<p>R-CNN(Regions with CNN features,
具有CNN特征的区域)是早期最先在目标检测领域中使用卷积神经网络的模型之一,其结合了图像处理、机器学习和深度学习,在当时达到了非常好的结果</p>
<p>原文地址:<a href="https://arxiv.org/abs/1311.2524">Rich feature
hierarchies for accurate object detection and semantic
segmentation</a></p>
颜色空间小结(RGB/YUV/HSV/Lab/...)
http://blog.zjykzj.cn/posts/cc213461.html
2019-11-26T12:04:45.000Z
2021-04-11T05:09:17.150Z
<p>经常需要在不同的颜色空间下进行图像处理</p>
[OpenCV][纹理特征]如何计算不同方向下的高斯导数直方图
http://blog.zjykzj.cn/posts/b03366b0.html
2019-11-25T12:56:01.000Z
2021-04-11T05:25:28.725Z
<p>学习<code>SelectiveSearch</code>算法时候,其纹理特征需要计算类<code>SIFT</code>特征,实现方式是计算每张图片<code>8</code>个方向上<code>10 bin</code>大小的高斯导数直方图</p>
[Convolvution][Correlation]卷积和相关的异同
http://blog.zjykzj.cn/posts/b79f94c7.html
2019-11-22T12:12:51.000Z
2021-04-11T05:20:17.206Z
<p>参考:</p>
<p><a
href="https://www.zhihu.com/question/32067344">卷积运算和相关运算的区别与物理含义?</a></p>
<p><a
href="https://blog.csdn.net/Sunny_HQ/article/details/80875664">通俗理解【卷】积+互相关与卷积</a></p>
<p><a
href="https://stackoverflow.com/questions/20321296/convolution-vs-correlation/37847548#37847548">Convolution
Vs Correlation</a></p>
<p>学习<code>OpenCV</code>的<code>2</code>维线性滤波器<a
href="https://docs.opencv.org/4.1.0/d4/dbd/tutorial_filter_2d.html">filter2D</a>,发现一句话</p>
<figure class="highlight livecodeserver"><table><tr><td class="gutter"><pre><span class="line">1</span><br><span class="line">2</span><br><span class="line">3</span><br></pre></td><td class="code"><pre><span class="line">Correlation</span><br><span class="line"></span><br><span class="line">In <span class="keyword">a</span> very general sense, correlation is <span class="keyword">an</span> operation between every part <span class="keyword">of</span> <span class="keyword">an</span> image <span class="keyword">and</span> <span class="keyword">an</span> operator (kernel).</span><br></pre></td></tr></table></figure>
<p>之前有接触过<code>correlation</code>(相关)的存在,但是没有仔细理清相关和卷积的异同,以及与之衍生而来的互相关(<code>cross-correlation</code>)和滤波(<code>filter</code>)的概念</p>
[Canny][Laplacian][Sobel][Scharr]边缘检测
http://blog.zjykzj.cn/posts/e42851a1.html
2019-11-22T08:57:11.000Z
2021-04-11T05:36:56.227Z
<p>边缘检测是图像处理的基本操作之一,其目的是去除图像多余信息,保留图像轮廓数据,以便后续的处理(检测、识别等等)</p>
[译]Histogram of Oriented Gradients
http://blog.zjykzj.cn/posts/26ac7011.html
2019-11-18T09:31:57.000Z
2021-04-11T05:35:29.729Z
<p>方向梯度直方图(Histogram Of Oriented
Gradients,简称为HOG)是常用的纹理特征之一,本篇文章简单易懂的讲解了HOG概念</p>
<p>原文地址:<a
href="https://www.learnopencv.com/histogram-of-oriented-gradients/">Histogram
of Oriented Gradients</a></p>
[Jenkins]Pipeline工程配置NodeJS环境
http://blog.zjykzj.cn/posts/d521b4ea.html
2019-11-13T08:14:03.000Z
2021-04-03T08:43:12.286Z
<p>利用<code>Jenkins Pipeline</code>工程编译<code>NodeJS</code>项目,出现<code>npm not found</code>问题</p>
<p>参考<a
href="https://medium.com/@gustavo.guss/jenkins-starting-with-pipeline-doing-a-node-js-test-72c6057b67d4">Jenkins
Starting with Pipeline doing a Node.js
test</a>,配置<code>NodeJS</code>开发环境</p>
在Docker中运行Jenkins
http://blog.zjykzj.cn/posts/202ee452.html
2019-11-08T11:04:40.000Z
2021-04-03T08:30:04.300Z
<p>打算在远程服务器上运行<code>Jenkins</code>,忽然发现<code>git</code>没有安装,搞了半天没有成功(<em>各种依赖问题,条件限制不能重启机器</em>),所以尝试通过<code>Docker</code>运行<code>Jenkins</code></p>
直方图
http://blog.zjykzj.cn/posts/f1eacfb6.html
2019-11-08T01:53:16.000Z
2021-04-11T05:36:41.190Z
<p><strong>以下主要涉及颜色直方图的概念和计算</strong></p>
<p>最开始学习数字图像处理的时候就接触到了直方图的概念,也记录过<code>OpenCV 1.x/2.x</code>的直方图实现代码</p>
<ul>
<li><a
href="https://blog.csdn.net/u012005313/article/details/51122712">opencv
颜色直方图(灰度图,均衡化,对比,描绘颜色直方图)</a></li>
<li><a
href="https://blog.csdn.net/u012005313/article/details/46916559">opencv
灰度直方图 一维直方图</a></li>
</ul>
<p>颜色/纹理等特征通过直方图的形式能够有效的作用于图像检测/识别算法,所以打算再整理一下相关的概念和实现。参考:</p>
<ul>
<li><p><a
href="https://docs.opencv.org/4.0.1/d4/d1b/tutorial_histogram_equalization.html">Histogram
Equalization</a></p></li>
<li><p><a
href="https://docs.opencv.org/4.0.1/d8/dbc/tutorial_histogram_calculation.html">Histogram
Calculation</a></p></li>
<li><p><a
href="https://docs.opencv.org/4.0.1/d8/dc8/tutorial_histogram_comparison.html">Histogram
Comparison</a></p></li>
<li><p>头文件地址:<code>/path/to/opencv-4.0.1/modules/imgproc/include/opencv2/imgproc.hpp</code></p></li>
<li><p>源文件地址:<code>/path/to/opencv-4.0.1/modules/imgproc/src/histogram.cpp</code></p></li>
</ul>
[译]Selective Search for Object Detection (C++/Python)
http://blog.zjykzj.cn/posts/815ea453.html
2019-11-07T11:38:00.000Z
2021-04-11T05:36:16.662Z
<p>学习论文<code>Selective Search for Object Recognition</code>,在网上查找相关资料时发现这篇文章,对于选择性搜索算法及其特征提取方式概括的比较好,所以翻译下来以便后续的学习</p>
<p>原文地址:<a
href="https://www.learnopencv.com/selective-search-for-object-detection-cpp-python/">Selective
Search for Object Detection (C++ / Python)</a></p>
<blockquote>
<p>In this tutorial, we will understand an important concept called
“Selective Search” in Object Detection. We will also share OpenCV code
in C++ and Python.</p>
</blockquote>
<p>在本教程中,我们将了解一个重要的概念 -
基于选择性搜索的目标检测。文章末尾还包含了OpenCV示例</p>
[译]作用于目标识别的选择性搜索
http://blog.zjykzj.cn/posts/1cb6a408.html
2019-11-06T02:52:58.000Z
2021-04-11T05:34:16.883Z
<p>论文下载地址:<a
href="http://xueshu.baidu.com/usercenter/paper/show?paperid=b689fcf3ed998dfbb4213687367b6175&site=xueshu_se">Selective
Search for Object Recognition</a></p>
基于图的图像分割-OpenCV源码
http://blog.zjykzj.cn/posts/18052054.html
2019-11-05T06:59:00.000Z
2021-04-11T05:31:19.587Z
<p><code>OpenCV</code>在模块<code>opencv_contrib</code>中实现了基于图的图像分割算法,其实现和作者提供的工程源码略有差别</p>
<p>下面首先解析源码,然后通过示例验证分割效果</p>
<ul>
<li>官网参考文档:<a
href="https://docs.opencv.org/4.0.1/dd/d19/classcv_1_1ximgproc_1_1segmentation_1_1GraphSegmentation.html">cv::ximgproc::segmentation::GraphSegmentation
Class Reference</a></li>
<li>头文件<code>segmentation.hpp - /path/to/include/opencv4/opencv2/ximgproc/segmentation.hpp</code></li>
<li>源文件<code>graphsegmentation.cpp - /path/to/opencv_contrib/modules/ximgproc/src/graphsegmentation.cpp</code></li>
<li>实现示例<code>graphsegmentation_demo.cpp - /path/to/opencv_contrib/modules/ximgproc/samples/graphsegmentation_demo.cpp</code></li>
</ul>
<p><code>OpenCV</code>源码比较复杂,抽取相应实现到<a
href="https://github.com/zjZSTU/GraphLib/tree/master/cplusplus/samples/graphsegmentation">GraphLib/cplusplus/samples/graphsegmentation</a></p>
基于图的图像分割-工程源码
http://blog.zjykzj.cn/posts/a4b1a6d9.html
2019-11-05T06:03:17.000Z
2021-04-11T05:30:59.323Z
<p>基于图的图像分割算法的作者提供了工程源码:<a
href="http://cs.brown.edu/people/pfelzens/segment/">Graph Based Image
Segmentation</a></p>
[数据结构][图算法]并查集
http://blog.zjykzj.cn/posts/3eedae4a.html
2019-10-31T08:11:44.000Z
2021-04-04T05:51:29.118Z
<p>之前在<a
href="https://blog.zhujian.life/posts/95d609b4.html">数据结构-图5</a>中实现了图的最小生成树,主要参考的是<code>《大话数据结构》</code>中的相关内容。在<code>Kruskal</code>算法实现中通过函数<code>Find</code>就能检查两个分量之间是否相连,效率很高,当时觉得这种实现很神奇,今天才发现这是一种专门的数据结构实现
- 并查集(<code>disjoint set</code>)</p>
[C++][OpenCV]PPM文件解析.md
http://blog.zjykzj.cn/posts/bfefc85a.html
2019-10-31T04:07:53.000Z
2021-04-07T02:19:19.104Z
<p>之前通过<a
href="https://blog.zhujian.life/posts/6cbcc636.html">PPM文件解析</a>理解了<code>PPM</code>文件结构,并通过<code>Python</code>实现了<code>PPM</code>文件和其他图像文件的转换。最近需要通过<code>C++</code>解析<code>PPM</code>文件,参考<a
href="http://cs.brown.edu/people/pfelzens/segment/">Graph Based Image
Segmentation</a>,最后通过<code>opencv</code>实现</p>
[Jenkins][Nginx]反向代理
http://blog.zjykzj.cn/posts/7c823af7.html
2019-10-27T07:22:21.000Z
2021-04-03T08:42:29.382Z
<p>当前<code>jenkins</code>通过<code>tomcat</code>进行托管,登录路径为</p>
<figure class="highlight awk"><table><tr><td class="gutter"><pre><span class="line">1</span><br></pre></td><td class="code"><pre><span class="line">localhost:<span class="number">8080</span><span class="regexp">/jenkins/</span></span><br></pre></td></tr></table></figure>
<p>下面通过<code>nginx</code>进行反向代理,简化登录路径</p>
[译]The Boost Graph Library(BGL)
http://blog.zjykzj.cn/posts/af977180.html
2019-10-25T06:57:23.000Z
2021-04-07T02:12:25.005Z
<p>原文地址:<a
href="https://www.boost.org/doc/libs/1_71_0/libs/graph/doc/index.html">The
Boost Graph Library (BGL)</a></p>
[Jenkins]Tomcat托管
http://blog.zjykzj.cn/posts/bc77c204.html
2019-10-22T03:34:20.000Z
2021-04-03T08:45:03.566Z
<p>通过<code>Tomcat</code>托管<code>Jenkins</code>。<em>当前<code>Tomcat</code>以普通用户<code>tomcat</code>身份运行</em></p>
[Jenkins][GitLab][Hexo]新建Pipeline工程实现CI功能
http://blog.zjykzj.cn/posts/f80ec296.html
2019-10-21T02:23:32.000Z
2021-04-03T08:41:37.566Z
<p>之前通过<code>Jenkins Freesstyle</code>工程实现了<code>Hexo</code>网站的<code>CI</code>部署,<code>Jenkins</code>还提供了<code>Pipeline</code>方式,能够更好的模块化构建过程</p>
<ol type="1">
<li><code>Jenkins Pipeline</code>工程配置</li>
<li><code>GitLab WebHook</code>配置</li>
<li><code>Jenkinsfile</code>脚本编辑</li>
</ol>
[Jenkins][GitLab][Hexo]新建Freestyle工程实现CI功能
http://blog.zjykzj.cn/posts/446d640.html
2019-10-20T11:49:12.000Z
2021-04-03T08:40:47.135Z
<p>之前通过<code>Travis CI</code>实现持续部署<code>Hexo</code>项目到腾讯云服务器。经过一段时间的使用,发现<code>Travis CI</code>传输文件到腾讯云服务器经常失败,所以打算在本地自建<code>Jenkins</code>,同时利用<code>GitLab</code>进行持续部署</p>
<p>实现步骤如下:</p>
<ol type="1">
<li>关闭<code>Travis CI</code>触发器</li>
<li>导入<code>Hexo</code>相关项目到<code>GitLab</code></li>
<li>新建<code>Jenkins Freestyle</code>工程</li>
</ol>
[Jenkins][Freestyle]环境变量设置
http://blog.zjykzj.cn/posts/f2f14bee.html
2019-10-20T11:18:46.000Z
2021-04-03T08:30:41.279Z
<p>想要在<code>Freestyle</code>工程中设置加密的环境变量,使用插件<code>Environment Injector</code>完成</p>
[Jenkins]Url is blocked: Requests to localhost are not allowed
http://blog.zjykzj.cn/posts/5d46d7f9.html
2019-10-19T12:45:15.000Z
2021-04-03T08:46:58.142Z
<h2 id="问题描述">问题描述</h2>
<p><code>GitLab</code>默认不允许本机<code>URL</code>进行<code>WebHook</code>连接,发现是<code>GitLab</code>默认关闭了本机连接</p>
<p><img
src="/imgs/jenkins/jenkins-localhost/jenkins-localhost.png" /></p>
[Jenkins]手动下载插件
http://blog.zjykzj.cn/posts/373e88b0.html
2019-10-19T12:33:37.000Z
2021-04-03T08:35:16.327Z
<p><strong><em>最新解决方案参考:<a
href="https://blog.zhujian.life/posts/8e194d10.html">[Jenkins]加速下载/安装插件</a></em></strong></p>
<p>使用<code>Jenkins</code>的插件页面进行下载太慢了,所以打算手动下载插件</p>
[Jenkins][Gitlab]webhook连接
http://blog.zjykzj.cn/posts/6ff96ec3.html
2019-10-19T11:47:06.000Z
2021-04-03T08:42:37.250Z
<p>完成<code>Jenkins+GitLab</code>的连接。步骤如下:</p>
<ol type="1">
<li>申请<code>gitlab</code>私有<code>token</code></li>
<li>安装<code>jenkins for gitlab</code>插件</li>
<li>在<code>jenkins</code>工程中配置<code>gitlab</code></li>
<li>在<code>gitlab</code>工程中配置<code>jenkins</code></li>
</ol>
Jenkins 更换镜像源
http://blog.zjykzj.cn/posts/9ff7f63d.html
2019-10-18T08:28:18.000Z
2021-04-03T08:30:25.467Z
<p><strong><em>最新解决方案参考:<a
href="https://blog.zhujian.life/posts/8e194d10.html">[Jenkins]加速下载/安装插件</a></em></strong></p>
<p>更新<code>Jenkins</code>国内镜像源,加速插件下载。参考<a
href="http://mirrors.jenkins-ci.org/status.html">the status of Jenkins
mirrors</a>,目前国内有<a
href="https://mirrors.tuna.tsinghua.edu.cn/jenkins/">清华镜像源</a></p>
<p>有两种配置方式</p>
<ol type="1">
<li>文件配置</li>
<li>页面配置</li>
</ol>
This Jenkins instance appears to be offline
http://blog.zjykzj.cn/posts/6af1c833.html
2019-10-18T07:08:16.000Z
2021-04-03T08:51:21.718Z
<h2 id="错误复现">错误复现</h2>
<p>重新安装<code>jenkins</code>,输入安装命令</p>
<figure class="highlight mipsasm"><table><tr><td class="gutter"><pre><span class="line">1</span><br></pre></td><td class="code"><pre><span class="line">$ <span class="keyword">java </span>-<span class="keyword">jar </span><span class="keyword">jenkins.war </span>--httpPort=<span class="number">8080</span> </span><br></pre></td></tr></table></figure>
<p>在浏览器输入<code>localhost:8080</code>打开界面,输入密码后页面显示如下错误</p>
<figure class="highlight smali"><table><tr><td class="gutter"><pre><span class="line">1</span><br><span class="line">2</span><br></pre></td><td class="code"><pre><span class="line">This Jenkins<span class="built_in"> instance </span>appears to be offline</span><br><span class="line">。。。</span><br></pre></td></tr></table></figure>
今天你docker了吗?
http://blog.zjykzj.cn/posts/5c6c610b.html
2019-09-23T01:33:08.000Z
2021-04-06T11:39:01.988Z
<p><img src="/imgs/deploy/docker/docker2.jpeg" /></p>
<p><code>Docker</code>是近<code>10</code>年来最火的工具之一,从一接触<code>Docker</code>开始就被它的概念所吸引,小结<code>Docker</code>概念、使用以及相关工具</p>
如何编写好的README
http://blog.zjykzj.cn/posts/79f69ebe.html
2019-09-10T11:06:02.000Z
2021-04-06T11:38:22.142Z
<p>在<code>github</code>上了上传了许多仓库,如何更好的管理、使用这些仓库,其中关键的一点在于<code>README</code>的编写。<code>README</code>的目的是向使用者展示仓库的使用方法、来历以及未来的进展。越来越重视写好一个<code>REAMDE</code>,<em>优秀的工程不一定有一个好的<code>README</code>,但是不好的<code>REAMDE</code>一定不是一个优秀的工程</em></p>
<p>关于这个问题在网上也有许多讨论:<a
href="https://www.zhihu.com/question/29100816">如何写好Github中的readme?</a>。当前主要参考了一个关于如何编写标准<code>README</code>的<code>github</code>仓库:<a
href="https://github.com/RichardLitt/standard-readme">RichardLitt/standard-readme</a></p>
github+gitee
http://blog.zjykzj.cn/posts/ee6c5a93.html
2019-09-06T01:23:52.000Z
2021-04-06T11:50:23.892Z
<p>今年以来一直把代码、文档和工程上传到<code>github</code>进行版本管理,效果很好,通过<code>github</code>可以完成很多自动化任务,比如<code>Travis-CI、Readthedocs</code>等工具的使用</p>
[译]欢迎回到C++(现代C++)
http://blog.zjykzj.cn/posts/be56146c.html
2019-08-25T05:36:14.000Z
2021-04-07T02:12:20.833Z
<p>之前写的C++代码一直都是C语言风格,而C++标准经过多次的迭代后,已经拥有了一套自己的风格和实现。微软的这篇文档很好的反映了现代C++的精髓,原文地址:<a
href="https://docs.microsoft.com/en-us/cpp/cpp/welcome-back-to-cpp-modern-cpp?view=vs-2019">Welcome
Back to C++ (Modern C++)</a></p>
Boost Graph Library
http://blog.zjykzj.cn/posts/728d90e5.html
2019-08-20T12:28:40.000Z
2021-04-07T02:12:27.589Z
<p><a
href="https://www.boost.org/doc/libs/1_71_0/libs/graph/doc/index.html">BGL(Boost
Graph Library)</a>是<code>Boost</code>提供的图算法实现</p>
数据结构-图5
http://blog.zjykzj.cn/posts/95d609b4.html
2019-08-18T02:48:26.000Z
2021-04-04T05:53:15.452Z
<p>学习路径如下:</p>
<ol type="1">
<li><a
href="https://github.com/zjZSTU/graph_algorithm">图的基本定义</a></li>
<li><a
href="https://blog.zhujian.life/posts/a1a1ab33.html">顶点/边/图的关系</a></li>
<li><a
href="https://blog.zhujian.life/posts/7cb5ac81.html">图的存储结构</a></li>
<li><a
href="https://blog.zhujian.life/posts/e2d13922.html">深度/广度优先遍历</a></li>
<li><a
href="https://blog.zhujian.life/posts/95d609b4.html">最小生成树</a>(<em>本文学习内容</em>)</li>
</ol>
<p>完整工程:<a
href="https://github.com/zjZSTU/GraphLib">zjZSTU/GraphLib</a></p>
数据结构-图4
http://blog.zjykzj.cn/posts/e2d13922.html
2019-08-16T12:20:08.000Z
2021-04-04T05:53:10.888Z
<p>学习路径如下:</p>
<ol type="1">
<li><a
href="https://github.com/zjZSTU/graph_algorithm">图的基本定义</a></li>
<li><a
href="https://blog.zhujian.life/posts/a1a1ab33.html">顶点/边/图的关系</a></li>
<li><a
href="https://blog.zhujian.life/posts/7cb5ac81.html">图的存储结构</a></li>
<li><a
href="https://blog.zhujian.life/posts/e2d13922.html">深度/广度优先遍历</a>(<em>本文学习内容</em>)</li>
<li><a
href="https://blog.zhujian.life/posts/95d609b4.html">最小生成树</a></li>
</ol>
<p>完整工程:<a
href="https://github.com/zjZSTU/graph_algorithm">zjZSTU/graph_algorithm</a></p>
数据结构-图3
http://blog.zjykzj.cn/posts/7cb5ac81.html
2019-08-16T11:04:36.000Z
2021-04-04T05:53:04.416Z
<p>学习路径如下:</p>
<ol type="1">
<li><a
href="https://github.com/zjZSTU/graph_algorithm">图的基本定义</a></li>
<li><a
href="https://blog.zhujian.life/posts/a1a1ab33.html">顶点/边/图的关系</a></li>
<li><a
href="https://blog.zhujian.life/posts/7cb5ac81.html">图的存储结构</a>(<em>本文学习内容</em>)</li>
<li><a
href="https://blog.zhujian.life/posts/e2d13922.html">深度/广度优先遍历</a></li>
<li><a
href="https://blog.zhujian.life/posts/95d609b4.html">最小生成树</a></li>
</ol>
<p>完整工程:<a
href="https://github.com/zjZSTU/GraphLib">zjZSTU/GraphLib</a></p>
数据结构-图2
http://blog.zjykzj.cn/posts/a1a1ab33.html
2019-08-15T08:43:06.000Z
2021-04-04T05:41:37.743Z
<p>学习路径如下:</p>
<ol type="1">
<li><a
href="https://github.com/zjZSTU/graph_algorithm">图的基本定义</a></li>
<li><a
href="https://blog.zhujian.life/posts/a1a1ab33.html">顶点/边/图的关系</a>(<em>本文学习内容</em>)</li>
<li><a
href="https://blog.zhujian.life/posts/7cb5ac81.html">图的存储结构</a></li>
<li><a
href="https://blog.zhujian.life/posts/e2d13922.html">深度/广度优先遍历</a></li>
<li><a
href="https://blog.zhujian.life/posts/95d609b4.html">最小生成树</a></li>
</ol>
<p>完整工程:<a
href="https://github.com/zjZSTU/graph_algorithm">zjZSTU/graph_algorithm</a></p>
数据结构-图
http://blog.zjykzj.cn/posts/662946db.html
2019-08-15T07:56:46.000Z
2021-04-04T05:38:03.498Z
<p>学习路径如下:</p>
<ol type="1">
<li><a
href="https://github.com/zjZSTU/graph_algorithm">图的基本定义</a>(<em>本文学习内容</em>)</li>
<li><a
href="https://blog.zhujian.life/posts/a1a1ab33.html">顶点/边/图的关系</a></li>
<li><a
href="https://blog.zhujian.life/posts/7cb5ac81.html">图的存储结构</a></li>
<li><a
href="https://blog.zhujian.life/posts/e2d13922.html">深度/广度优先遍历</a></li>
<li><a
href="https://blog.zhujian.life/posts/95d609b4.html">最小生成树</a></li>
</ol>
<p>完整工程:<a
href="https://github.com/zjZSTU/graph_algorithm">zjZSTU/graph_algorithm</a></p>
高斯滤波
http://blog.zjykzj.cn/posts/80b530f2.html
2019-08-12T10:49:24.000Z
2021-04-11T05:30:23.958Z
<p>在进行图像分割之前通常会使用滤波器进行平滑操作,其目的是消除高斯噪声的影响。学习高斯噪声/高斯滤波的相关概念并实现高斯滤波器</p>
[译]高效的基于图的图像分割
http://blog.zjykzj.cn/posts/44a20d07.html
2019-08-11T05:48:03.000Z
2021-04-11T05:32:33.621Z
<p>论文及C++实现下载地址:<a
href="http://cs.brown.edu/people/pfelzens/segment/">Efficient
Graph-Based Image Segmentation</a></p>
PPM文件解析
http://blog.zjykzj.cn/posts/6cbcc636.html
2019-08-10T05:53:08.000Z
2021-04-11T05:27:04.552Z
<p>最近进行图像处理时遇到<a
href="http://netpbm.sourceforge.net/doc/ppm.html">PPM</a>文件,其格式与<code>PGM</code>文件类似,参考<a
href="https://blog.csdn.net/u012005313/article/details/83685584">Python
pgm解析和格式转换</a>进行<code>PPM</code>文件格式解析以及图像格式转换</p>
基于图的图像分割-引言
http://blog.zjykzj.cn/posts/2e594804.html
2019-08-08T01:51:50.000Z
2021-04-11T05:31:12.103Z
<p>学习<code>R-CNN</code>过程中发现其前期使用了选择性搜索方法进行区域提取,而在选择性搜索方法中使用了论文<a
href="http://cs.brown.edu/people/pfelzens/papers/seg-ijcv.pdf">Efficient
Graph-Based Image Segmentation</a>提出的基于图的图像分割算法</p>
[数据集]PASCAL-VOC
http://blog.zjykzj.cn/posts/28b6703d.html
2019-08-05T11:54:41.000Z
2023-07-23T04:28:28.941Z
<p><code>PASCAL VOC(visual object classes)</code>提供了图像以及标记数据,可用于目标分类、检测、分割等任务</p>
<p>官网地址:<a href="http://host.robots.ox.ac.uk/pascal/VOC/">The
PASCAL Visual Object Classes Homepage</a></p>
<p>相关实现:<a
href="https://github.com/zjykzj/vocdev/blob/master/README.zh-CN.md">zjykzj/vocdev</a></p>
模型集成
http://blog.zjykzj.cn/posts/e0761e53.html
2019-08-04T08:47:11.000Z
2021-04-12T12:01:06.449Z
<p>训练多个独立模型,在测试阶段平均其预测结果,是一种有效的提高检测精度的方法,称为模型集成(<code>model ensemble</code>)</p>
超参数优化
http://blog.zjykzj.cn/posts/a042eba2.html
2019-08-04T05:56:03.000Z
2021-04-14T12:31:22.300Z
<p>神经网络/卷积神经网络中存在很多的超参数,并且随着优化技术的发展,越来越多的超参数被加入进来,最常见的超参数包括:</p>
<ol type="1">
<li>初始学习率</li>
<li>学习率衰减机制(比如衰减常数)</li>
<li>正则化策略(<code>L2</code>惩罚,随机失活强度)</li>
</ol>
<p>大多数超参数在训练过程中相对固定,比如动量大小,衰减常数等,<code>cs231n</code>提出一些学习技巧来帮助搜索最佳的超参数值</p>
权重初始化
http://blog.zjykzj.cn/posts/cfd35552.html
2019-08-03T11:15:21.000Z
2021-04-14T12:40:50.905Z
<p>合理的权重初始化操作有助于实现更快的训练和得到更好的结果,<code>cs231n</code>中讨论了不同的初始化权重方式:<a
href="http://cs231n.github.io/neural-networks-2/#init">Weight
Initialization</a></p>
合理性检查
http://blog.zjykzj.cn/posts/869619ac.html
2019-08-03T06:07:35.000Z
2021-04-12T11:44:44.435Z
<p>创建模型,进行数据集训练之前可以进行合理性检查(<code>sanity check</code>),参考<a
href="http://cs231n.github.io/neural-networks-3/#sanitycheck">Before
learning: sanity checks Tips/Tricks</a>,有助于更好的判断模型有效性</p>
<p><code>cs231n</code>中给出了<code>3</code>个技巧:</p>
<ol type="1">
<li>寻找正确损失值</li>
<li>判断正则化强度有效性</li>
<li>过拟合小数据集</li>
</ol>
梯度检查
http://blog.zjykzj.cn/posts/d91a1c6f.html
2019-08-01T12:56:03.000Z
2021-04-14T06:25:30.873Z
<p>通过数值梯度(<code>numerical gradient</code>)和解析梯度(<code>analytic gradient</code>)的比较进行梯度检查,这个过程有助于得到更准确的网络</p>
<p>学习<a href="http://cs231n.github.io/neural-networks-3/">Gradient
checks</a>中提到的技巧和注意事项</p>
单元测试
http://blog.zjykzj.cn/posts/cef93ee3.html
2019-07-31T07:57:20.000Z
2021-04-04T05:17:34.499Z
<p>单元测试(<code>unit testing</code>,简称<code>UT</code>)是用于测试源代码不同单元的软件测试方法,
能够有效提高代码质量和可维护性</p>
测试驱动开发
http://blog.zjykzj.cn/posts/913b0c70.html
2019-07-28T02:28:20.000Z
2021-04-04T05:13:18.728Z
<p>主要内容:</p>
<ol type="1">
<li>什么是TDD</li>
<li>实现流程</li>
<li>开发风格</li>
<li>优点</li>
<li>是否需要TDD</li>
</ol>
决策边界
http://blog.zjykzj.cn/posts/c37e79f3.html
2019-07-18T11:08:52.000Z
2021-07-09T15:10:36.969Z
<p>在分类问题上经常会遇到一个名词 -
决策边界。对它有一些了解但是没有很多的认识,同时很难直观去理解高维数据分类问题的决策边界</p>
<p>理清决策边界的概念,同时可视化决策边界</p>
神经网络分类器
http://blog.zjykzj.cn/posts/81a57a7.html
2019-07-17T12:25:05.000Z
2021-07-09T15:10:38.957Z
<p>参考<a
href="https://blog.zhujian.life/posts/ebe205e.html">线性SVM分类器</a>实现神经网络分类器。<code>cs231n assignment2</code>中实现了自定义层数和数量的神经网络模型,参考其实现完成单个类的神经网络分类器</p>
softmax分类器
http://blog.zjykzj.cn/posts/e043b7fb.html
2019-07-17T12:07:33.000Z
2021-07-09T15:10:22.941Z
<p>模仿<a
href="https://blog.zhujian.life/posts/ebe205e.html#more">线性SVM分类器</a>实现<code>softmax</code>分类器</p>
逻辑回归分类器
http://blog.zjykzj.cn/posts/96ce93d9.html
2019-07-17T11:31:23.000Z
2021-07-09T15:10:38.341Z
<p>参考<a
href="https://blog.zhujian.life/posts/ebe205e.html">线性SVM分类器</a>实现逻辑回归分类器,并进行决策边界可视化</p>
线性SVM分类器
http://blog.zjykzj.cn/posts/ebe205e.html
2019-07-14T02:24:22.000Z
2021-07-09T15:10:24.993Z
<p>最近重温<code>cs231n</code>课程,完成了课堂作业<a
href="http://cs231n.github.io/assignments2019/assignment1/">assignment1</a>,记录一下线性<code>SVM</code>分类器相关的概念以及实现</p>
KNN分类器
http://blog.zjykzj.cn/posts/1ee29eaf.html
2019-07-11T11:34:29.000Z
2021-07-09T15:10:24.277Z
<p>最近重温<code>cs231n</code>课程,完成了课堂作业<a
href="http://cs231n.github.io/assignments2019/assignment1/">assignment1</a>,记录一下<code>KNN</code>分类器相关的概念以及实现,包括通用的分类器训练及测试过程</p>
AdaGrad、RMSProp和Adam
http://blog.zjykzj.cn/posts/2bdd8f16.html
2019-07-06T07:05:22.000Z
2021-04-14T12:44:54.993Z
<p><code>AdaGrad、RMSProp</code>以及<code>Adam</code>都是逐元素的自适应学习率方法(<code>per-parameter adaptive learning rate methods</code>),根据每个神经元的梯度变化进行权重调整,能够有效的提高模型精度</p>
用于大尺度图像分类的极深卷积网络
http://blog.zjykzj.cn/posts/2738b55.html
2019-06-21T11:45:19.000Z
2021-07-09T14:58:43.833Z
<p>文章<a href="https://arxiv.org/abs/1409.1556v6#">very deep
convolutional networks for large-scale image
recognition</a>对<strong>卷积网络深度</strong>进行了详细研究,证明了增加模型深度能够有效提高网络性能,其实现的<code>VGGNet</code>在<code>2014</code>年<code>ImageNet</code>的定位(<code>localisation</code>)和分类(<code>classification</code>)比赛中获得第一和第二名</p>
<p><code>VGGNet</code>在<a
href="https://blog.zhujian.life/posts/ca9994d1.html#more">AlexNet</a>模型配置和学习的基础上,参考<a
href="https://zjzstu.github.io/posts/3f18ad9b.html#more">ZFNet</a>使用更小的感受野和更小的步长,参考<a
href="https://arxiv.org/abs/1312.6229">OverFeat</a>在整个图像和多个尺度上对网络进行密集的训练和测试。最终,<code>VGGNet</code>使用<span
class="math inline">\(3\times
3\)</span>大小卷积核进行模型深度的研究,在学习过程中使用多尺度图像进行训练和测试</p>
<p>主要内容如下:</p>
<ol type="1">
<li>卷积网络配置</li>
<li>训练和测试细节</li>
<li>分类实验</li>
<li>小结</li>
</ol>
NIN-pytorch
http://blog.zjykzj.cn/posts/cab4035.html
2019-06-21T07:10:48.000Z
2021-07-09T14:54:12.854Z
<p><code>numpy</code>实现<a
href="https://blog.zhujian.life/posts/359ae103.html#more">NIN</a>模型,利用<code>cifar-10</code>、<code>cifar-100</code>和<code>mnist</code>数据集进行<code>MLPConv</code>和<code>GAP</code>的测试</p>
<p>完整实现:<a
href="https://github.com/zjZSTU/PyNet">zjZSTU/PyNet</a></p>
NIN-numpy
http://blog.zjykzj.cn/posts/55877cae.html
2019-06-20T05:59:12.000Z
2021-07-09T14:54:09.774Z
<p><code>numpy</code>实现<a
href="https://blog.zhujian.life/posts/359ae103.html#more">NIN</a>模型,利用<code>cifar-10</code>、<code>cifar-100</code>和<code>mnist</code>数据集进行<code>MLPConv</code>和<code>GAP</code>的测试</p>
<p>完整实现:<a
href="https://github.com/zjZSTU/PyNet">zjZSTU/PyNet</a></p>
NIN
http://blog.zjykzj.cn/posts/359ae103.html
2019-06-18T06:33:02.000Z
2021-07-09T15:03:52.472Z
<p>文章<a href="https://arxiv.org/abs/1312.4400v3">Network In
Network</a>提出一种新的深度网络结构<code>mlpconv</code>,使用微神经网络(<code>micro neural network</code>)代替传统卷积层的线性滤波器,同时利用全局平均池化(<code>global average pooling</code>)代替全连接层作为分类器,在当时的<code>CIFAR-10</code>和<code>CIFAR-100</code>上实现了最好的检测结果</p>
可视化理解卷积神经网络
http://blog.zjykzj.cn/posts/3f18ad9b.html
2019-06-08T06:20:19.000Z
2021-04-14T12:34:54.963Z
<p>文章<a href="https://arxiv.org/abs/1311.2901">Visualizing and
Understanding Convolutional
Networks</a>提出一种可视化方法来观察中间层特征,以此发现不同模型层的性能分布,调整<code>AlexNet</code>参数的得到的<code>ZFNet</code>模型在<code>ImageNet</code>上得到了更好的分类性能;通过预训练<code>ImageNet</code>模型测试发现预训练大数据库能够提高模型的泛化能力</p>
AlexNet-pytorch
http://blog.zjykzj.cn/posts/ba337bfa.html
2019-06-08T02:53:43.000Z
2021-07-09T14:59:12.097Z
<p>使用<code>pytorch</code>实现<code>AlexNet</code>,并进行<code>cifar-10</code>训练和测试</p>
AlexNet
http://blog.zjykzj.cn/posts/ca9994d1.html
2019-06-08T02:53:31.000Z
2021-07-09T14:59:26.413Z
<p><code>AlexNet</code>在<code>ImageNet LSVRC-2010</code>的<code>1000</code>类分类比赛上实现了<code>37.5% top-1</code>和<code>17.0% top-5</code>的最小误差率,在<code>LSVRC-2012</code>上实现了<code>15.3% top-5</code>的最小误差率,这些数据是当时最好的识别结果,其实现代码也在<code>google code</code>上公开:<a
href="https://code.google.com/archive/p/cuda-convnet/">cuda-convnet</a></p>
<p>本文学习<code>AlexNet</code>网络结构及其训练方法</p>
随机失活-pytorch
http://blog.zjykzj.cn/posts/2bee4fce.html
2019-06-08T02:49:36.000Z
2021-04-14T12:41:28.988Z
<p><code>pytorch</code>提供了多种失活函数实现</p>
<ol type="1">
<li><a
href="https://pytorch.org/docs/stable/nn.html#torch.nn.Dropout">torch.nn.Dropout</a></li>
<li><a
href="https://pytorch.org/docs/stable/nn.html#torch.nn.Dropout2d">torch.nn.Dropout2d</a></li>
<li><a
href="https://pytorch.org/docs/stable/nn.html#torch.nn.Dropout3d">torch.nn.Dropout3d</a></li>
<li><a
href="https://pytorch.org/docs/stable/nn.html#torch.nn.AlphaDropout">torch.nn.AlphaDropout</a></li>
</ol>
<p>下面首先介绍<code>Dropout</code>和<code>Dropout2d</code>的使用,然后通过<code>LeNet-5</code>模型进行<code>cifar-10</code>的训练</p>
随机失活
http://blog.zjykzj.cn/posts/20cc7a49.html
2019-06-05T02:06:48.000Z
2021-04-14T12:41:35.260Z
<p>使用前馈神经网络进行检测,测试集的检测率总是低于训练集,尤其是训练集数量不大的情况下,原因在于神经网络在训练过程中不断调整参数以拟合训练数据,在此过程中也学习了训练集噪声,导致泛化能力减弱</p>
<p>随时失活(dropout)是一种正则化方法,其动机来自于进化中的性别作用理论(<code>a theory of the role of sex in evolution</code>),它通过训练多个不同网络模型,模拟模型组合的方式来提高网络性能,防止网络过拟合</p>
<p>主要内容如下:</p>
<ol type="1">
<li>基础知识 - 伯努利分布/均匀分布</li>
<li>实现原理</li>
<li>模型描述及改进</li>
<li>3层神经网络测试</li>
</ol>
主成分分析
http://blog.zjykzj.cn/posts/49729a62.html
2019-06-04T03:42:44.000Z
2021-04-11T07:39:39.513Z
<p>主成分分析(<code>princial component analysis</code>,简称<code>PCA</code>)是一种无监督的数据降维操作,它通过最大化方差方法来寻找低维空间,能够有效减轻计算量的同时保证处理数据有效性</p>
<p>主要参考文章<a
href="https://blog.csdn.net/u012005313/article/details/50877366">PCA数学原理</a>,里面做了生动的数学原理分析</p>
线性代数基础
http://blog.zjykzj.cn/posts/74e95c64.html
2019-06-03T12:13:14.000Z
2021-03-31T02:16:37.906Z
<p>小结<code>PCA</code>求解过程中相关的线性代数基础(<em>部分几何内容+概率论内容</em>)</p>
<ul>
<li>内积</li>
<li>投影</li>
<li>向量的线性相关/线性无关</li>
<li>向量空间的基</li>
<li>线性变换和线性映射</li>
<li>矩阵降维</li>
<li>特征值和特征向量</li>
<li>正交向量组和正交矩阵</li>
<li>实对称矩阵</li>
</ul>
概率论基础
http://blog.zjykzj.cn/posts/b905521b.html
2019-06-03T07:09:19.000Z
2021-08-22T06:22:02.444Z
<p>参考<a
href="https://blog.csdn.net/u012005313/article/details/50877366">PCA数学原理</a>,小结<code>PCA</code>求解过程中相关的概率论基础</p>
Nesterov加速梯度
http://blog.zjykzj.cn/posts/e51acd5.html
2019-05-31T06:29:45.000Z
2021-04-14T12:55:37.458Z
<p><code>Nesterov</code>加速梯度(<code>Nesterov's Accelerated Gradient</code>,简称<code>NAG</code>)是梯度下降的一种优化方法,其收敛速度比动量更新方法更快,收敛曲线更加稳定</p>
动量更新
http://blog.zjykzj.cn/posts/2b34c959.html
2019-05-29T07:51:59.000Z
2021-04-14T12:32:07.022Z
<p>动量(<code>momentum</code>)更新是梯度下降的一种优化方法,它能够加快损失函数收敛速度(<code>converge rate</code>)</p>
[LR Scheduler]学习率退火
http://blog.zjykzj.cn/posts/936eda30.html
2019-05-29T05:38:50.000Z
2021-04-14T12:50:51.728Z
<p>在标准随机梯度下降过程中,每次更新使用固定学习率(<code>learning rate</code>),迭代一定次数后损失值不再下降,一种解释是因为权重在最优点周围打转,如果能够在迭代过程中减小学习率,就能够更加接近最优点,实现更高的检测精度</p>
<p>学习率退火(<code>annealing the learning rate</code>)属于优化策略的一种,有<code>3</code>种方式实现学习率随时间下降</p>
<ol type="1">
<li>随步数衰减(<code>step decay</code>)</li>
<li>指数衰减(<code>exponential decay</code>)</li>
<li><code>1/t</code>衰减(<code>1/t decay</code>)</li>
</ol>
<p>下面介绍这<code>3</code>种学习率退火实现,然后用<code>numpy</code>编程进行验证</p>
LeNet5实现-pytorch
http://blog.zjykzj.cn/posts/a2db6d6b.html
2019-05-28T03:06:13.000Z
2021-07-09T15:02:08.559Z
<p>完整代码:<a
href="https://github.com/zjZSTU/PyNet/blob/master/pytorch/lenet5_test.py">PyNet/pytorch/lenet5_test.py</a></p>
LeNet5实现-numpy
http://blog.zjykzj.cn/posts/c300ea0f.html
2019-05-27T11:20:06.000Z
2021-07-09T15:02:04.743Z
<p>使用<code>numpy</code>实现<code>LeNet-5</code>网络,参考<a
href="https://github.com/toxtli/lenet-5-mnist-from-scratch-numpy">toxtli/lenet-5-mnist-from-scratch-numpy</a>模块化网络层</p>
<p>完整代码:<a
href="https://github.com/zjZSTU/PyNet">zjZSTU/PyNet</a></p>
im2col解析5
http://blog.zjykzj.cn/posts/5e1da4ba.html
2019-05-26T06:05:27.000Z
2021-04-14T11:04:53.287Z
<p>前面实现了卷积层和全连接层的相互转换,下面实现池化层和全连接层的相互转换</p>
im2col解析4
http://blog.zjykzj.cn/posts/291a942c.html
2019-05-25T12:31:41.000Z
2021-04-14T11:04:51.043Z
<p>之前实现了一个图像和行向量相互转换的函数,逐图像进行局部连接矩阵的转换</p>
<p>其实现原理较下标计算更易理解,<strong>通过循环,逐个图像对局部连接矩阵进行切片操作,得到矩阵后拉平为向量,以行向量方式进行保存</strong></p>
<p>反向转换图像可以设置标志位<code>isstinct</code>,是否返回叠加图像还是原图,<strong>其实现原理是在指定位置赋值过程中是执行累加还是执行覆盖</strong></p>
im2col解析3
http://blog.zjykzj.cn/posts/b77e018f.html
2019-05-25T06:05:25.000Z
2021-04-14T11:04:57.162Z
<p>前面实现了图像转列向量,在之前推导过程中使用的是行向量,所以修改<code>im2col.py</code>,实现<code>im2row</code>的功能</p>
<p>卷积核大小为<span class="math inline">\(2\times
2\)</span>,步长为<code>1</code>,零填充为<code>0</code></p>
<ul>
<li>field_height = 2</li>
<li>field_width = 2</li>
<li>stride = 1</li>
<li>padding = 0</li>
</ul>
<p><code>2</code>维图像大小为<span class="math inline">\(3\times
3\)</span>,3维图像大小为<span class="math inline">\(2\times 3\times
3\)</span>,4维图像大小为<span class="math inline">\(2\times 2\times
3\times 3\)</span></p>
<p>所以输出数据体的空间尺寸为<span class="math inline">\(2\times
2\)</span>,深度为<code>2</code>,数量为<code>2</code></p>
<ul>
<li>out_height = 2</li>
<li>out_width = 2</li>
<li>depth = 2</li>
<li>N = 2</li>
</ul>
im2col解析2
http://blog.zjykzj.cn/posts/597060a3.html
2019-05-25T04:39:38.000Z
2021-04-14T11:04:32.109Z
<p><code>im2col</code>表示<code>image to column</code>,将图像转换成列向量</p>
<p><strong>卷积操作步骤</strong>:首先将卷积核映射到<code>x_padded</code>左上角,然后沿着行方向操作,每次滑动<code>stride</code>距离;到达最右端后,将卷积核往列方向滑动<code>stride</code>距离,再实现从左到右的滑动</p>
im2col解析1
http://blog.zjykzj.cn/posts/cc37c46b.html
2019-05-24T01:51:33.000Z
2021-04-14T11:03:08.474Z
<p>在<code>cs231n</code>课程<a
href="http://cs231n.github.io/convolutional-networks/#fc">Convolutional
Neural Networks: Architectures, Convolution / Pooling
Layers</a>中提到使用矩阵乘法方式完成卷积层及池化层操作,同时在<a
href="http://cs231n.github.io/assignments2019/assignment2/">Assignment
#2: Fully-Connected Nets, Batch Normalization, Dropout, Convolutional
Nets</a>中给出了一个卷积层转全连接层的实现 - <code>im2col.py</code></p>
<p><code>im2col</code>表示将滤波器局部连接矩阵向量化为列向量(<code>column vector</code>),在行方向进行堆叠,最终得到<code>2-D</code>矩阵</p>
<p><code>im2col.py</code>使用 <strong><em>花式下标求解</em></strong>
的方式,让我觉得应该写篇文章好好学习一下</p>
<p>本文介绍一些<code>numpy</code>实现,下一篇介绍<code>im2col</code>实现,第三篇实现<code>im2row</code>,第四篇介绍另一种实现图像和行向量互换的方式,最后实现池化层图像和行向量的互换<code>pool2row</code></p>
<ol type="1">
<li>数组扩展</li>
<li>数组变形</li>
<li>数组填充</li>
<li>维数转换</li>
<li>矩阵提取</li>
<li>数据叠加</li>
</ol>
卷积神经网络推导-批量图片矩阵计算
http://blog.zjykzj.cn/posts/ab1e719c.html
2019-05-22T07:14:57.000Z
2021-04-12T11:53:14.295Z
<p>之前推导<code>LeNet-5</code>网络输入单个图像数据的前后向传播,现在实现批量图像数据的前后向传播</p>
卷积神经网络推导-单张图片矩阵计算
http://blog.zjykzj.cn/posts/3accb62a.html
2019-05-20T09:13:24.000Z
2021-04-14T12:34:10.846Z
<p>以<code>LeNet-5</code>为例,进行卷积神经网络的矩阵推导</p>
卷积神经网络概述
http://blog.zjykzj.cn/posts/3b660279.html
2019-05-18T08:46:22.000Z
2021-04-14T12:33:48.806Z
<p>卷积神经网络(<code>convolutional neural network</code>)在神经网络(<code>neural network</code>)的基础上进一步发展,实现更强大的分类、识别性能</p>
<p>结合<code>cs231n</code>课程<a
href="http://cs231n.github.io/convolutional-networks/#architectures">Convolutional
Neural Networks: Architectures, Convolution / Pooling
Layers</a>,介绍卷积层和池化层,以及基于卷积层、池化层和全连接层的卷积神经网络常用的组成模式</p>
<p><em>暂不涉及之后发展的网络结构和组成模式</em></p>
<p>卷积神经网络以神经元为单位进行网络组织,不同于神经网络的<code>2-D</code>处理,卷积神经网络假定输入数据是图像(<code>image</code>),每层的输入输出都是一个<code>3</code>维数据体(<code>3-D volume</code>),各层神经元不仅在<code>2-D</code>空间上进行排列,还在深度(<code>depth</code>)上进行组织</p>
<p>卷积神经网络主要的层类型有卷积层(<code>convolutional layer</code>)、池化层(<code>pooling layer</code>)和全连接层(<code>fully-connected layer</code>)</p>
神经网络实现-pytorch
http://blog.zjykzj.cn/posts/5a77dbca.html
2019-05-18T07:01:30.000Z
2021-07-09T15:10:40.657Z
<p>使用<code>pytorch</code>实现<code>3</code>层神经网络模型<code>ThreeNet</code></p>
神经网络实现-numpy
http://blog.zjykzj.cn/posts/ba2ca878.html
2019-05-17T05:24:43.000Z
2021-07-09T15:10:40.077Z
<p>使用<code>numpy</code>实现神经网络模型</p>
<ul>
<li>使用单层神经网络<code>OneNet</code>实现逻辑或、逻辑与和逻辑非分类</li>
<li>使用<code>2</code>层神经网络<code>TwoNet</code>实现逻辑异或分类</li>
<li>使用<code>3</code>层神经网络<code>ThreeNet</code>实现<code>iris</code>数据集和<code>mnist</code>数据集分类</li>
</ul>
神经网络推导-矩阵计算
http://blog.zjykzj.cn/posts/1dd3ebad.html
2019-05-15T06:21:36.000Z
2021-07-09T15:10:41.797Z
<p>为了理清如何进行神经网络的前向传播和反向传播的推导,找了很多资料,前向传播比较简单,重点在于如何进行反向传播的梯度计算</p>
<p><code>cs231n</code>课程推荐的计算方式是先进行单个元素求导,再逐步泛化到批量数据求梯度,参考</p>
实值标量函数一阶微分和Jacobian矩阵辨识
http://blog.zjykzj.cn/posts/b9ab243b.html
2019-05-14T06:23:29.000Z
2021-03-31T01:47:09.868Z
<p>神经网络的反向传播可以通过对损失函数进行微分得到各层权重矩阵的梯度</p>
<p>其中对损失函数求梯度是实值标量函数一阶微分,其中关键的部分是得到Jacobian矩阵,从而转置获取梯度矩阵</p>
Jacobian矩阵和梯度矩阵
http://blog.zjykzj.cn/posts/29422005.html
2019-05-13T03:01:53.000Z
2021-03-31T02:21:52.179Z
<p>在<code>pytorch</code>的<code>autograd</code>包中,利用<code>Jacobian</code>(雅格比)矩阵进行梯度的计算。学习实值标量函数、实值向量函数和实值矩阵函数相对于实向量变元或矩阵变元的偏导</p>
矩阵基础
http://blog.zjykzj.cn/posts/d1deacd1.html
2019-05-10T03:58:20.000Z
2021-03-31T01:44:42.320Z
<p>小结矩阵求解过程中的基础知识</p>
<ul>
<li>标量、向量和矩阵</li>
<li>矩阵乘法/积</li>
<li>转置、共扼、共扼转置</li>
<li>矩阵的迹</li>
<li>向量化和矩阵化</li>
</ul>
导数、微分和梯度
http://blog.zjykzj.cn/posts/a9bec5e9.html
2019-05-08T02:10:48.000Z
2021-03-31T02:22:29.801Z
<p>最近推导神经网络的前向传播和反向传播过程,经常会遇到有关导数、微分和梯度的内容,对它们的概念进行一次小结</p>
<ul>
<li>导数</li>
<li>微分</li>
<li>偏导数</li>
<li>全微分</li>
<li>方向导数</li>
<li>梯度</li>
</ul>
神经网络推导-批量数据
http://blog.zjykzj.cn/posts/66015d4d.html
2019-05-06T06:43:47.000Z
2021-07-09T15:10:42.337Z
<p>输入批量数据到神经网络,进行前向传播和反向传播的推导</p>
神经网络推导-单个数据
http://blog.zjykzj.cn/posts/cb820bb8.html
2019-05-01T02:22:08.000Z
2021-07-09T15:10:41.209Z
<p>输入单个数据到神经网络,进行前向传播和反向传播的推导</p>
激活函数
http://blog.zjykzj.cn/posts/f86c970.html
2019-04-30T06:02:42.000Z
2021-04-14T12:33:08.925Z
<p>介绍激活函数及其特性</p>
<ul>
<li>Sigmoid</li>
<li>Tanh</li>
<li>ReLU</li>
<li>Leaky ReLU</li>
<li>Maxout</li>
</ul>
神经网络概述
http://blog.zjykzj.cn/posts/7ca31f7.html
2019-04-30T02:37:12.000Z
2021-07-09T15:10:39.501Z
<p>神经网络是卷积神经网络的基础,其包含的层架构、激活函数、反向传播、正则化等等内容都可以应用于卷积神经网络</p>
使用softmax回归进行mnist分类
http://blog.zjykzj.cn/posts/dd673751.html
2019-04-28T11:56:03.000Z
2021-07-09T15:10:32.197Z
<p><code>MNIST</code>是手写数字数据库,共有<code>60000</code>张训练图像和<code>10000</code>张测试图像,分别表示数字<code>0-9</code></p>
<p>利用<code>softmax</code>回归模型进行<code>mnist</code>分类</p>
从numpy到pytorch实现softmax回归
http://blog.zjykzj.cn/posts/1c195604.html
2019-04-28T03:13:16.000Z
2021-07-09T15:10:36.293Z
<p>使用<code>pytorch</code>实现<code>softmax</code>回归,首先使用基本数学运算函数实现,然后逐步使用各种封装函数和优化包进行替换</p>
<p>超参数如下:</p>
<ul>
<li>batch_size = 8</li>
<li>lambda = 2e-4</li>
<li>alpha = 2e-4</li>
</ul>
<p>使用数据库</p>
<ul>
<li><a href="https://www.kaggle.com/uciml/iris">Iris Species</a></li>
</ul>
凸函数
http://blog.zjykzj.cn/posts/1ca34c3b.html
2019-04-27T01:37:10.000Z
2021-04-14T12:41:51.356Z
<p>在机器学习和深度学习中,通常需要把目标函数设置或者假定为凸函数(<code>Convex Function</code>),这样能够满足局部最小值就是全局最小值的特点,方便进行梯度计算</p>
[python]函数式编程
http://blog.zjykzj.cn/posts/b9a065f2.html
2019-04-23T11:45:02.000Z
2021-04-07T02:12:35.389Z
<p>在数据处理过程中经常使用函数式命令,确实能够方便和快捷的实现功能,下面小结一下python实现函数式编程</p>
<p>python提供了lambda、map、filter、reduce和sorted等基础函数进行函数式编程</p>
softmax回归
http://blog.zjykzj.cn/posts/2626bec3.html
2019-04-23T06:23:20.000Z
2021-07-09T15:10:21.273Z
<p><code>softmax</code>回归常用于多分类问题,其输出可直接看成对类别的预测概率</p>
<p>假设对<code>k</code>类标签(<code>[1, 2, ..., k]</code>)进行分类,那么经过<code>softmax</code>回归计算后,输出一个<code>k</code>维向量,向量中每个值都代表对一个类别的预测概率</p>
<p>下面先以单个输入数据为例,进行评分函数、损失函数的计算和求导,然后扩展到多个输入数据同步计算</p>
成绩函数、目标函数、代价函数和损失函数
http://blog.zjykzj.cn/posts/5d2f01d1.html
2019-04-22T08:48:35.000Z
2021-04-12T11:39:05.954Z
<p>成绩函数(<code>score function</code>)、目标函数(<code>objective function</code>)、代价函数(<code>cost function</code>)和损失函数(<code>loss function</code>)这四个术语经常出现在机器学习和深度学习的各类算法中</p>
正则化
http://blog.zjykzj.cn/posts/ce0afb50.html
2019-04-22T07:35:43.000Z
2021-04-11T07:04:22.596Z
<p>什么是正则化</p>
从numpy到pytorch实现逻辑回归
http://blog.zjykzj.cn/posts/730913b9.html
2019-04-22T01:27:06.000Z
2021-07-09T15:09:12.430Z
<p>逻辑回归常用于二元分类任务,其使用交叉熵损失进行梯度计算,实现步骤如下:</p>
<ol type="1">
<li>加载、打乱、标准化训练和测试数据</li>
<li>设计分类器、损失函数和梯度更新函数</li>
<li>用训练数据计算目标函数和精度</li>
<li>用训练数据计算损失函数和梯度,并更新梯度</li>
<li>重复<code>3-4</code>步,直到精度达到要求或达到指定迭代次数</li>
<li>用测试数据计算目标函数和精度</li>
</ol>
<p>使用<code>numpy</code>和<code>pytorch</code>分别实现小批量梯度下降的<code>2</code>分类逻辑回归</p>
逻辑回归
http://blog.zjykzj.cn/posts/9f2d3388.html
2019-04-17T06:06:17.000Z
2021-07-09T15:10:37.745Z
<p>逻辑回归(<code>logistic regression</code>)是分类算法,常用于二元分类</p>
从numpy到pytorch实现线性回归
http://blog.zjykzj.cn/posts/ca2079f0.html
2019-04-16T12:13:01.000Z
2021-07-09T15:10:35.589Z
<p>首先利用<code>numpy</code>实现梯度下降解决多变量线性回归问题,然后逐步将操作转换成<code>pytorch</code></p>
<p>实现步骤如下:</p>
<ol type="1">
<li>加载训练数据</li>
<li>初始化权重</li>
<li>计算预测结果</li>
<li>计算损失函数</li>
<li>梯度更新</li>
<li>重复<code>3-5</code>步,直到完成迭代次数</li>
<li>绘制损失图</li>
</ol>
<p>多变量线性回归测试数据参考<a
href="https://github.com/peedeep/Coursera/blob/master/ex1/ex1data2.txt">ex1data2.txt</a></p>
梯度下降
http://blog.zjykzj.cn/posts/3c50d4b7.html
2019-04-16T06:46:59.000Z
2021-04-14T12:41:47.538Z
<p>梯度下降是求解函数最小值的算法,也称为最速下降法,它通过梯度更新不断的逼近最优解</p>
<p>常用的比喻是下山问题,通过计算梯度能够找到函数值变化最快的地方,通过步长决定收敛的速度</p>
<p>梯度下降方法包括批量梯度下降、随机梯度下降和小批量梯度下降,下面通过梯度下降计算多变量线性回归问题</p>
标签页测试
http://blog.zjykzj.cn/posts/5213c80b.html
2019-04-15T06:08:13.000Z
2021-04-04T06:01:09.591Z
<span id="more"></span>
<p>指定标签块名</p>
<div class="tabs" id="标签块"><ul class="nav-tabs"><li class="tab active"><a href="#标签块-1">标签块
正态分布
http://blog.zjykzj.cn/posts/6824c6e3.html
2019-04-10T07:09:12.000Z
2021-03-31T02:19:58.095Z
<p>正态分布(<code>normal distribution</code>),也称为常态分布,高斯分布(<code>gaussian distribution</code>),是连续随机变量概率分布的一种,自然界中大量现象符合正态分布,比如身高/体重/成绩/收入/寿命</p>
特征缩放
http://blog.zjykzj.cn/posts/dea583b1.html
2019-04-10T05:49:35.000Z
2021-04-14T06:23:32.211Z
<p>在多变量回归或分类问题上,需要保证这些变量的取值范围具有同一尺度</p>
<p>原因一:<strong>确保大尺度变量不会左右分类器的分类结果</strong>。如果分类器利用结果变量的距离来计算损失函数,那么小尺度变量的变化会被忽略,大尺度变量会决定分类效果
原因二:<strong>帮助梯度下降算法收敛更快</strong>。参考<a
href="https://blog.csdn.net/runnerxin/article/details/78551025">机器学习--特征缩放/均值归一化</a>,从损失函数等值线图可知,变量在同一尺度下能够更快的通过梯度下降算法收敛</p>
<p>常用的特征缩放方法包括标准化(或称为规范化)和区间缩放</p>
线性回归
http://blog.zjykzj.cn/posts/ec419bd2.html
2019-04-09T11:36:36.000Z
2021-07-09T15:10:31.653Z
<p>主要内容如下:</p>
<ol type="1">
<li>回归和分类的区别</li>
<li>线性回归</li>
<li>最小二乘法</li>
<li>梯度下降法</li>
</ol>
制作图像数据集规范
http://blog.zjykzj.cn/posts/4da024d0.html
2019-04-07T06:50:07.000Z
2021-04-03T07:48:51.586Z
<p>进行图像处理经常需要使用图像数据集,常用的包括cifar-10/mnist等等</p>
<p>很多时候也需要自己进行图像的采集,如何有效的保存和管理这些图像,以及训练完成后得到的数据?参考<a
href="https://pytorch.org/tutorials/beginner/data_loading_tutorial.html">DATA
LOADING AND PROCESSING TUTORIAL</a>进行图像数据集的制作</p>
[数据集]cifar-100
http://blog.zjykzj.cn/posts/adb6e880.html
2019-04-02T12:44:57.000Z
2021-04-03T07:54:31.657Z
<p><a
href="https://www.cs.toronto.edu/~kriz/cifar.html">cifar-100数据集</a>解析和<a
href="https://www.zhuajin.tech/posts/43d7ec86.html">cifar-10数据集解析</a>类似,区别在于<code>cifar-100</code>共<code>20</code>个超类(<code>superclass</code>),<code>100</code>个子类,所以每张图像有两个标签:超类标签(<code>coarse label</code>)和子类标签(<code>fine label</code>)</p>
<p><img src="/imgs/dataset/cifar-100数据集解析/100-classes.png" /></p>
[数据集]cifar-10
http://blog.zjykzj.cn/posts/43d7ec86.html
2019-04-02T11:44:57.000Z
2021-04-03T07:54:13.428Z
<p><code>cifar-10</code>数据集保存<code>10</code>类,每类<code>6000</code>张图像。其中<code>50000</code>张训练图像和<code>10000</code>张测试图像</p>
<p>训练图像保存在<code>5</code>个文件中,每个文件有<code>10000</code>张图像,测试图像保存在一个文件,训练和测试图像都以随机顺序保存</p>
<p>官网:<a href="http://www.cs.toronto.edu/~kriz/cifar.html">The
CIFAR-10 dataset</a></p>
<p><code>cifar-10</code>提供了使用不同语言生成的压缩包,包括<code>python/matlab/c</code></p>
[pycharm]远程编译
http://blog.zjykzj.cn/posts/a6c06fb8.html
2019-03-30T05:44:49.000Z
2021-04-06T12:12:05.514Z
<h1>
<i>
更详细的配置参考:<a href="https://blog.zhujian.life/posts/66900c1a.html">[PyCharm]Remote配置</a>
</i>
</h1>
<p>当前使用笔记本进行开发,想要利用服务器加快编译和运行速度</p>
jupyter-notebook远程登录
http://blog.zjykzj.cn/posts/5e96fc4f.html
2019-03-30T02:48:06.000Z
2021-04-06T11:50:58.697Z
<p><code>jupyter notebook</code>是一个基于客户端-服务器架构的<code>web</code>应用,但是默认仅能运行在本地,可以通过配置开放远程服务器端口</p>
<p>本文实现单用户远程访问功能,如果要实现多用户访问,参考<a
href="https://jupyterhub.readthedocs.io/en/latest/">JupyterHub</a></p>
[Jenkins]反向代理出错
http://blog.zjykzj.cn/posts/adc5ce0c.html
2019-03-26T01:53:52.000Z
2021-04-03T08:33:33.577Z
<h2 id="问题描述">问题描述</h2>
<p>将<code>Jenkins</code>架设在局域网服务器上,使用内网穿透技术映射<code>Jenkins</code>端口,打开页面,提示错误</p>
<blockquote>
<p>It appears that your reverse proxy set up is broken</p>
</blockquote>
[Jenkins][github]webhook连接
http://blog.zjykzj.cn/posts/341b6b1e.html
2019-03-25T07:01:14.000Z
2021-04-03T08:37:38.028Z
<p>默认<code>Jenkins</code>已安装好<code>github</code>插件<a
href="http://wiki.jenkins-ci.org/display/JENKINS/Github+Plugin">Github
plugin</a></p>
<p><img
src="/imgs/jenkins/Jenkins-github-webhook连接/github-plugin.png" /></p>
<p>使用<code>WebHook</code>方式进行<code>github</code>的配置,过程如下:</p>
<ol type="1">
<li>获取<code>Jenkins WebHook URL</code></li>
<li>配置<code>github</code>仓库<code>WebHook</code></li>
<li>新建<code>jenkins</code>工程并配置<code>github</code>仓库</li>
<li>推送修改到<code>github</code>,触发<code>jenkins</code>工程</li>
</ol>
[Jenkins][ssh]coding连接
http://blog.zjykzj.cn/posts/6185d82f.html
2019-03-25T02:12:53.000Z
2021-04-03T08:44:06.902Z
<p>使用步骤如下:</p>
<ol type="1">
<li>在<code>Jenkins</code>安装<code>coding</code>插件</li>
<li>在<code>Jenkins</code>配置<code>Credentials</code>,设置<code>ssh</code>私钥</li>
<li>新建工程,配置<code>coding</code>仓库地址以及<code>coding</code>触发器</li>
<li>在<code>coding</code>仓库设置<code>webhook</code></li>
<li>推送修改到<code>coding</code>仓库,触发<code>jenkins</code>构建</li>
</ol>
[Jenkins]freestyle工程
http://blog.zjykzj.cn/posts/fddee3e1.html
2019-03-23T02:14:45.000Z
2021-04-03T08:30:45.778Z
<p><code>Jenkins</code>提供了多种模型来进行自动化操作,最基础的就是<code>freestyle</code>工程</p>
<p>操作步骤如下:</p>
<ol type="1">
<li>在本地新建<code>git</code>仓库</li>
<li>创建<code>Jenkins Freestyle</code>工程,绑定<code>git</code>仓库,执行构建脚本</li>
<li><code>git</code>仓库添加文件</li>
<li>手动触发<code>Jenkins</code>工程进行构建</li>
</ol>
Jenkins安装
http://blog.zjykzj.cn/posts/5d15ec84.html
2019-03-22T05:35:53.000Z
2021-04-03T08:50:15.734Z
<h2 id="什么是jenkins">什么是Jenkins?</h2>
<p><a
href="https://jenkins.io/zh/">Jenkins</a>是一个独立开源的自动化服务器,支持几乎所有语言,支持所有自动化任务,包括构建、测试、交付和部署</p>
你在哪个端开发
http://blog.zjykzj.cn/posts/591ccb13.html
2019-03-21T01:42:57.000Z
2021-04-04T05:22:52.358Z
<p>前几天和同学聊天关于未来工作的场景,聊到具体的研发岗位后发现对于后端开发和服务器开发没有太多概念(我以为后端开发和服务器开发是一回事),打算写一篇文章好好理清其中的关系</p>
敏捷开发
http://blog.zjykzj.cn/posts/ed2e9abb.html
2019-03-17T06:46:59.000Z
2021-04-04T05:20:59.249Z
<h2 id="核心思想">核心思想</h2>
<p>将软件项目划分为可独立运行、可相互集成的小项目,分别完成的同时保持软件的可运行</p>
<p>小项目迭代开发,以用户需求为核心,根据反馈及时修改开发方向</p>
<p>尽早实现开发原型的交付,在此基础上进一步添加用户需求,强调可持续开发</p>
螺旋模型
http://blog.zjykzj.cn/posts/8e9d3485.html
2019-03-16T10:54:23.000Z
2021-04-04T05:20:09.997Z
<h2 id="核心思想">核心思想</h2>
<p>结合迭代模型和瀑布模型的特点,同时增加风险分析</p>
<p>开发过程中,首先实现关键功能,然后周期性的进行其他功能的开发。每个开发周期划分为需求定义、风险分析、工程实现和评审共4个阶段</p>
<p><img src="/imgs/software/螺旋模型/螺旋模型.PNG" /></p>
<p>在需求定义阶段,分解项目需求,确定需求等级</p>
<p>通过风险分析,将软件项目分解成一个个小项目,确定每个项目的主要风险,以及采取哪种策略来规避风险</p>
<p>通过客户评审来进一步修正计划,进行下一个周期的开发</p>
论文写作
http://blog.zjykzj.cn/posts/5cbfbe67.html
2019-03-16T07:42:47.000Z
2022-06-15T11:44:59.557Z
<p>记录一些论文写作相关的工具和使用方法</p>
迭代模型
http://blog.zjykzj.cn/posts/7080d667.html
2019-03-09T13:24:03.000Z
2021-04-04T05:19:14.285Z
<h2 id="核心思想">核心思想</h2>
<p>迭代模型不要求一次迭代就完成目标结果,其目的是通过不断迭代来逐渐实现目标</p>
<p>每次迭代都可以看成一个小的瀑布模型,经历过需求分析、设计、实现和测试阶段</p>
<p>上一次迭代的成果是下一次迭代的起始;当前迭代的目的是解决上一次迭代遗留的问题以及实现最终目标</p>
<p><img src="/imgs/software/迭代模型/迭代模型.PNG" /></p>
瀑布模型
http://blog.zjykzj.cn/posts/9d00be46.html
2019-03-09T12:50:44.000Z
2021-04-04T05:23:39.712Z
<h2 id="核心思想">核心思想</h2>
<p>规划程序开发流程,划分为制定计划、需求分析、软件设计、程序编写、软件测试和运行维护六个阶段</p>
<p><img src="/imgs/software/瀑布模型/瀑布模型.PNG" /></p>
<p>发现问题,需要回到上一个阶段进行解决,解决后再进入下一个阶段</p>
什么是软件工程
http://blog.zjykzj.cn/posts/7baadea7.html
2019-03-05T10:55:19.000Z
2021-04-04T05:14:08.355Z
<p>在网上看到一个说法,开发软件就像开发建筑,感觉真的很像.后来又转念一想,工程类学科(比如建筑工程/汽车工程)都有相似的部分</p>
<ul>
<li>参与人数众多</li>
<li>高度分工(比如有专门负责视觉UI/有专门负责产品测试/有专门负责产品开发)</li>
<li>追求模块化/结构化</li>
<li>在不同领域有专精(比如开发浏览器/邮箱/搜索引擎/电子商务)</li>
</ul>
软件开发流程
http://blog.zjykzj.cn/posts/a6cd9115.html
2019-02-15T09:02:27.000Z
2021-04-04T05:29:33.428Z
<p>经历过几个软件开发,有模块的开发也有产品的开发。这其中并不是每一次都是细分开发过程,但是随着学习的深入,越来越多的自动化操作应用在开发过程中,如果能够更好的细分当前的开发流程,我觉得这会对开发软件有更好的帮助。</p>
<p>小结软件开发过程中需要经历的阶段和专用术语</p>
文档集合
http://blog.zjykzj.cn/posts/d22ab967.html
2019-01-26T16:52:12.000Z
2021-03-31T10:55:16.247Z
<p><strong><em>停止更新,使用<a
href="https://blog.zhujian.life/posts/bd2847bc.html">知识金字塔</a></em></strong></p>
<p>列出整理成册的文档,以备参考</p>
方差 标准差
http://blog.zjykzj.cn/posts/3d82a363.html
2019-01-25T07:26:51.000Z
2021-03-30T12:59:01.974Z
<p>方差、标准差都是在概率论(<code>probability</code>)和统计学(<code>statistic</code>)中常用的内容,它们之间彼此联系又互相有差别</p>
充分条件 必要条件
http://blog.zjykzj.cn/posts/507c1b79.html
2019-01-25T07:22:44.000Z
2021-03-30T12:36:18.279Z
<p>充分条件(<code>sufficient condition</code>)和必要条件(<code>necessary condition</code>)是逻辑上用于描述表达式(<code>statement</code>)之间或日常生活中用于描述事务(<code>affair</code>)之间的条件关系或隐含关系的术语</p>
<p>假设<span class="math inline">\(A\)</span>为条件,<span
class="math inline">\(B\)</span>为结论</p>
从CSDN到Hexo
http://blog.zjykzj.cn/posts/359e7c3c.html
2019-01-21T05:58:07.000Z
2021-04-06T09:10:39.718Z
<p>从文档写作开始,经历了多个平台的实践。最开始在<code>CSDN</code>上进行博客写作,到现在利用<code>Hexo</code>自建博客网站,中间还通过<code>sphinx+github+readthedocs</code>进行文档管理。不同的写作平台和写作方式有长处也有短处,小结一下</p>
math test
http://blog.zjykzj.cn/posts/931e2563.html
2019-01-20T16:16:20.000Z
2021-04-04T06:01:45.779Z
<p>Simple inline <span class="math inline">\(a = b + c\)</span>.</p>
<p><span class="math display">\[
\frac{\partial u}{\partial t}
= h^2 \left( \frac{\partial^2 u}{\partial x^2} +
\frac{\partial^2 u}{\partial y^2} +
\frac{\partial^2 u}{\partial z^2}\right)
\]</span></p>
Hello World
http://blog.zjykzj.cn/posts/4a17b156.html
2019-01-20T05:36:38.000Z
2021-04-04T06:01:03.727Z
<p>Welcome to <a href="https://hexo.io/">Hexo</a>! This is your very
first post. Check <a href="https://hexo.io/docs/">documentation</a> for
more info. If you get any problems when using Hexo, you can find the
answer in <a
href="https://hexo.io/docs/troubleshooting.html">troubleshooting</a> or
you can ask me on <a
href="https://github.com/hexojs/hexo/issues">GitHub</a>.</p>