“梯度下降法”版本间的差异
来自iCenter Wiki
(以“#梯度下降法(Gradient Descent)介绍 === *1.梯度下降法 **是一种基于搜索的最优化方法** **作用**:最小化一个损失函数 **梯...”为内容创建页面) |
(没有差异)
|
2019年3月25日 (一) 04:27的版本
- 梯度下降法(Gradient Descent)介绍
=
- 1.梯度下降法
- 是一种基于搜索的最优化方法**
- 作用**:最小化一个损失函数
- 梯度上升法**:最大化一个效用函数
给定目标函数分f(x)和初始点x0
导数和偏导的区别:导数和偏导,偏导是因为有很多未知数,每次只能对其中一个求导,所以叫偏导
- 2.考虑冲量的梯度下降法