2.2 代价函数

参考视频: 2 - 2 - Cost Function (8 min).mkv

在这段视频中我们将定义代价函数的概念,这有助于我们弄清楚如何把最有可能的直线 与我们的数据相拟合。如图:

在线性回归中我们有一个像这样的训练集,m 代表了训练样本的数量,比如 m = 47。 而我们的假设函数,也就是用来进行预测的函数,是这样的线性函数形式:hx_0 1_x

接下来我们会引入一些术语 我们现在要做的便是为我们的模型选择合适的 参数

(parameters)θ0 和 θ1,在房价问题这个例子中便是直线的斜率和在 y 轴上的截距。 我们选择的参数决定了我们得到的直线相对于我们的训练集的准确程度,模型所预测的

值与训练集中实际值之间的差距(下图中蓝线所指)就是建模误差(modeling error)。

我们的目标便是选择出可以使得建模误差的平方和能够最小的模型参数。 即使得代价

函数 J,1

h

y

最小。

0 1 2m

m i 2

x

i

i1

我们绘制一个等高线图,三个坐标分别为 θ0 和 θ1 和 J(θ0,θ1):

则可以看出在三维空间中存在一个使得 J(θ0,θ1)最小的点。 代价函数也被称作平方误差函数,有时也被称为平方误差代价函数。我们之所以要求出

误差的平方和,是因为误差平方代价函数,对于大多数问题,特别是回归问题,都是一个合 理的选择。还有其他的代价函数也能很好地发挥作用,但是平方误差代价函数可能是解决回 归问题最常用的手段了。

在后续课程中,我们还会谈论其他的代价函数,但我们刚刚讲的选择是对于大多数线性 回归问题非常合理的。

也许这个函数 J(θ0,θ1)有点抽象,可能你仍然不知道它的内涵,在接下来的几个视频里, 我们要更进一步解释代价函数 J 的工作原理 ,并尝试更直观地解释它在计算什么,以及我 们使用它的目的。