定义
在分类任务中,通常使用交叉熵损失进行梯度训练。交叉熵损失的作用就是最大化正确标签的对数似然概率。其损失值计算如下:
\[ H(y, p) =-1\times \sum_{k=1}^{K} y_{k}log(p_{k}) \]
当\(y_{k}\)属于正确类时\(=1\),否则\(=0\)。这会导致两个问题:
- 它可能会导致过度拟合:如果模型学会为每个训练示例分配全部概率给真值标签,它就不能保证泛化效果
- 它鼓励最大
logit
和所有其他logit
之间的差异变大,这与有界梯度\(\frac {∂l}{∂z_{k}}\)相结合,降低了模型的迁移能力
标签平滑正则化的目的是防止最大逻辑变得比所有其他逻辑大得多。其实现方式:在交叉熵损失中加入一个独立于训练样本的基于标签的分布\(u(k)\)
\[ y(k) = (1 - \epsilon)δ_{k,y} + \epsilon u(k) \]
- \(k\)表示标签数
- \(\epsilon\)表示平滑参数
- $δ_{k,y} \(表示标签为\)y$的训练样本
从实现上看,LSR鼓励神经网络选择正确的类,并且正确类和其余错误类之间的差别是一致的。这样能够鼓励梯度向正确类靠近的同时远离错误类
在论文中将\(u(k)\)设置为均匀分布\(u(k) = 1/K\),所以
\[ y(k) = (1 - \epsilon)δ_{k,y} + \frac {\epsilon}{K} \]
\(\epsilon可设置为0.1\)