成绩函数、目标函数、代价函数和损失函数
成绩函数(score function
)、目标函数(objective function
)、代价函数(cost function
)和损失函数(loss function
)这四个术语经常出现在机器学习和深度学习的各类算法中
成绩函数(score function
)、目标函数(objective function
)、代价函数(cost function
)和损失函数(loss function
)这四个术语经常出现在机器学习和深度学习的各类算法中
什么是正则化
逻辑回归常用于二元分类任务,其使用交叉熵损失进行梯度计算,实现步骤如下:
3-4
步,直到精度达到要求或达到指定迭代次数使用numpy
和pytorch
分别实现小批量梯度下降的2
分类逻辑回归
逻辑回归(logistic regression
)是分类算法,常用于二元分类
首先利用numpy
实现梯度下降解决多变量线性回归问题,然后逐步将操作转换成pytorch
实现步骤如下:
3-5
步,直到完成迭代次数多变量线性回归测试数据参考ex1data2.txt
梯度下降是求解函数最小值的算法,也称为最速下降法,它通过梯度更新不断的逼近最优解
常用的比喻是下山问题,通过计算梯度能够找到函数值变化最快的地方,通过步长决定收敛的速度
梯度下降方法包括批量梯度下降、随机梯度下降和小批量梯度下降,下面通过梯度下降计算多变量线性回归问题
指定标签块名
指定标签块名+起始标签页+标签页名
指定标签块名+起始标签页+FontAwesome
符号
子标签块设置
This is Tab 1.
This is Tab 2.
This is Tab 3.
This is Sub Tab 1.
This is Sub Tab 2.
This is Sub Tab 3.
嵌套子标签块设置
This is Tab 1.
This is Tab 2.
This is Tab 3.
This is Sub Tab 1.
This is Sub Tab 2.
This is Sub Tab 3.
This is Sub-Sub Tab 1 of Sub Tab 3.
This is Sub-Sub Tab 2 of Sub Tab 3.
This is Sub-Sub Tab 3 of Sub Tab 3.
正态分布(normal distribution
),也称为常态分布,高斯分布(gaussian distribution
),是连续随机变量概率分布的一种,自然界中大量现象符合正态分布,比如身高/体重/成绩/收入/寿命
在多变量回归或分类问题上,需要保证这些变量的取值范围具有同一尺度
原因一:确保大尺度变量不会左右分类器的分类结果。如果分类器利用结果变量的距离来计算损失函数,那么小尺度变量的变化会被忽略,大尺度变量会决定分类效果 原因二:帮助梯度下降算法收敛更快。参考机器学习--特征缩放/均值归一化,从损失函数等值线图可知,变量在同一尺度下能够更快的通过梯度下降算法收敛
常用的特征缩放方法包括标准化(或称为规范化)和区间缩放