实值标量函数一阶微分和Jacobian矩阵辨识
神经网络的反向传播可以通过对损失函数进行微分得到各层权重矩阵的梯度
其中对损失函数求梯度是实值标量函数一阶微分,其中关键的部分是得到Jacobian矩阵,从而转置获取梯度矩阵
在pytorch的autograd包中,利用Jacobian(雅格比)矩阵进行梯度的计算。学习实值标量函数、实值向量函数和实值矩阵函数相对于实向量变元或矩阵变元的偏导
输入批量数据到神经网络,进行前向传播和反向传播的推导
输入单个数据到神经网络,进行前向传播和反向传播的推导
神经网络是卷积神经网络的基础,其包含的层架构、激活函数、反向传播、正则化等等内容都可以应用于卷积神经网络
使用pytorch实现softmax回归,首先使用基本数学运算函数实现,然后逐步使用各种封装函数和优化包进行替换
超参数如下:
使用数据库