![机器学习中的加速一阶优化算法](https://wfqqreader-1252317822.image.myqcloud.com/cover/207/39888207/b_39888207.jpg)
上QQ阅读APP看书,第一时间看更新
2.1 梯度下降法
本节考虑如下无约束凸优化问题
![030-1](https://epubservercos.yuewen.com/EAA0D1/20784354801358606/epubprivate/OEBPS/Images/030-1.jpg?sign=1739487894-UyyTOvw7QDljDzJezFEZD0IuPpHaIfIT-0-10d8484ab910dca64132aee486ea666d)
梯度下降法是机器学习中最常用的一阶优化算法之一.梯度下降法是一个迭代算法,每步执行如下操作
xk+1=xk-αk∇f(xk),
其中αk为步长.当目标函数f(x)是L-光滑函数时,步长一般取1/L.进一步地,当目标函数是μ-强凸函数时,梯度下降法具有的线性收敛速度[Nesterov,2018],描述如下
![030-3](https://epubservercos.yuewen.com/EAA0D1/20784354801358606/epubprivate/OEBPS/Images/030-3.jpg?sign=1739487894-E4i8I5ux6k4DzcS3CY3kwONPnQFvhwSq-0-441436287f89b5d995528fa5450472de)
即梯度下降法只需要次迭代就可以得到一个ϵ精度的近似最优解x,使得f(x)-f(x*)≤ϵ,其中x*是问题(2.1)的最优解.
当目标函数是L-光滑的一般凸函数(定义15)时,梯度下降法具有的次线性收敛速度[Nesterov,2018],描述如下
f(xk)-f(x*)≤O(L/k).
即梯度下降法只需要次迭代就可以得到一个ϵ精度的近似最优解.