![机器学习编程:从编码到深度学习](https://wfqqreader-1252317822.image.myqcloud.com/cover/201/38335201/b_38335201.jpg)
上QQ阅读APP看书,第一时间看更新
3.2.3 脱离平面
我们来观察一下使用数学公式表示的损失函数:
![](https://epubservercos.yuewen.com/432DF4/20180619108106606/epubprivate/OEBPS/Images/034-2-i.jpg?sign=1738867336-gBSC4ALWaOQRL2QhU7W5LOmcneacDgGb-0-73ba5072ae145b9797bf8797c44f1386)
迄今为止,我们把这个函数中除了w之外的所有值都当作常数,特别是把b的值固定为0。如果我们把b从常数改回变量,那么损失函数就不再是二维曲线了。此时它变成了一个如下图所示的曲面:
![](https://epubservercos.yuewen.com/432DF4/20180619108106606/epubprivate/OEBPS/Images/034-3-i.jpg?sign=1738867336-kXCbEpbz6NCmiDxsBvHTmX3RnvYcB6rH-0-112251d2a78735944ce4b48c8bc166a2)
现在这个徒步旅行者不再生活在平面上了,她可以自由地在三维空间中行走。两个横轴分别是w和b的值,纵轴是损失函数的值。换言之,这个平面上的每个点都代表线性回归模型中某条直线的误差,我们需要找到误差最小的直线,即那个用十字符号标记的点。
此时,即使损失函数是一个曲面,我们仍然可以通过梯度下降法到达该曲面的最小值点。只是现在需要计算一个多变量函数的梯度。幸运的是,我们可以使用一种名为偏导数的工具来计算多变量函数的梯度。