你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
没有找到相关结果
auroralinan - Machine Learning, Python, PPT.
推荐来自: Joey 、離娮
要回答问题请先登录或注册
教育とは人間の品格を磨くことであり、知識や経済能力を身につけることではない。
1 个回答
auroralinan - Machine Learning, Python, PPT.
推荐来自: Joey 、離娮
你可能对LR的梯度下降部分有所误解,我们希望保证的是损失函数在GD的过程中是一直下降的。
我描述一下LR的步骤:对于含n个特征、m个样本的数据X,我们首先建立了含n维权重w的LR模型,为了使模型最优化,我们需要定义模型的损失函数J,然后我们通过梯度下降的办法,来求解最优化权重w,使得J最小。
LR的损失函数如下,这是一个关于theta(w)的函数:
=>
我们知道,对于一个含有局部(全局)最小值的函数,沿着梯度方向上下降是能最快到达最小值的办法,这里的梯度可以简单理解为导数。例如:对于Y=x^2这个函数,x沿y=2x逆方向走,可以最快到达x=0这个局部最优值。因此这里的处理方法和上例类似,theta沿J的导数的逆方向走,能最快到达使J局部最小的点。
ok,这就是为什么我们能保证GD能够收敛到局部最优的原因。
Note:图片公式来自NG公开课内容,感谢NG为ML做出的贡献。
ML新人一枚,如有错误欢迎指正。