超参数优化
神经网络/卷积神经网络中存在很多的超参数,并且随着优化技术的发展,越来越多的超参数被加入进来,最常见的超参数包括:
- 初始学习率
- 学习率衰减机制(比如衰减常数)
- 正则化策略(
L2
惩罚,随机失活强度)
大多数超参数在训练过程中相对固定,比如动量大小,衰减常数等,cs231n
提出一些学习技巧来帮助搜索最佳的超参数值
神经网络/卷积神经网络中存在很多的超参数,并且随着优化技术的发展,越来越多的超参数被加入进来,最常见的超参数包括:
L2
惩罚,随机失活强度)大多数超参数在训练过程中相对固定,比如动量大小,衰减常数等,cs231n
提出一些学习技巧来帮助搜索最佳的超参数值
合理的权重初始化操作有助于实现更快的训练和得到更好的结果,cs231n
中讨论了不同的初始化权重方式:Weight Initialization
创建模型,进行数据集训练之前可以进行合理性检查(sanity check
),参考Before learning: sanity checks Tips/Tricks,有助于更好的判断模型有效性
cs231n
中给出了3
个技巧:
通过数值梯度(numerical gradient
)和解析梯度(analytic gradient
)的比较进行梯度检查,这个过程有助于得到更准确的网络
学习Gradient checks中提到的技巧和注意事项
单元测试(unit testing
,简称UT
)是用于测试源代码不同单元的软件测试方法, 能够有效提高代码质量和可维护性