误差平方和代价函数的来源

线性回归代价函数的来源

Andrew Ng在Coursea的machine learning公开课上引入cost function:”And one thing I might do is try to minimize the square difference between the output of the hypothesis and the actual price of a house”
那Cost Function是square difference的原因是什么呢?

概率角度

Andrew Ng在CS 229上有推导:
数据集可以认为是从理想模型$F(x)$中采样,并添加高斯噪声形成。那数据集中的每一个点$(x^{(i)},y^{(i)})$都服从于均值为$f(x^{(i)})$,方差为某一固定值高斯分布。所以数据$(x^{(i)},y^{(i)})$的概率如下:

要判断一个模型是否接近理想,可以比较数据集在当前模型下出现的概率,即最大似然估计。目标就是极大化数据集的对数似然函数。通过化简,极大化数据集的对数似然函数等价于最小化误差的平方和。

技术角度

用梯度下降或者梯度上升来优化模型时,误差的平方和在求导时具有快速简洁的优势。

缺点

  • 信号保真度与信号的空间和时间顺序无关
  • 误差信号和原信号无关
  • 信号的保真度和误差的符号无关