“梯度下降法”版本间的差异
来自iCenter Wiki
(以“#梯度下降法(Gradient Descent)介绍 === *1.梯度下降法 **是一种基于搜索的最优化方法** **作用**:最小化一个损失函数 **梯...”为内容创建页面) |
|||
第1行: | 第1行: | ||
#梯度下降法(Gradient Descent)介绍 | #梯度下降法(Gradient Descent)介绍 | ||
− | + | ---- | |
*1.梯度下降法 | *1.梯度下降法 |
2019年3月25日 (一) 04:27的最后版本
- 梯度下降法(Gradient Descent)介绍
- 1.梯度下降法
- 是一种基于搜索的最优化方法**
- 作用**:最小化一个损失函数
- 梯度上升法**:最大化一个效用函数
给定目标函数分f(x)和初始点x0
导数和偏导的区别:导数和偏导,偏导是因为有很多未知数,每次只能对其中一个求导,所以叫偏导
- 2.考虑冲量的梯度下降法