代价函数:又称损失函数,我的理解是用于更好地拟合样本,得到更合适模型的一个方法。
在线性回归中,假设函数为 hθ(x) = θ0 + θ1 * x ,其中θ0和θ1的变化会引起假设函数的变化,参数的选择决定了我们得到的直线相对于训练集的准确度。
为了让预测值和真实值的误差尽可能小和最小化θ0和θ1,我们将这个问题转化为找到能使训练集中预测值和真实值的差的平方的和的1/2M最小的θ0和 θ1的值。
于是我们定义
为代价函数,又称为平方误差函数,它是解决回归问题最常用的手段。其中 m 代表训练集样本数量, xi 代表第 i 个样本,hθ(xi) 代表第 i 个样本对应的预测值, yi 代表第 i 个样本对应的真实值。
更直观地理解代价函数
为了更加直观的理解代价函数,首先我们先令θ0 = 0,并选取不同的θ1作为假设函数的参数θ1,通过不同的模型和代价函数,可得出代价函数 J(θ1) 与 θ1的关系如下图:
这次我们分别选取不同的θ0和θ1,引入不同的模型,作出J(θ1) 与 θ1、的θ0 关系图如下:
这是一个碗状的3D图, 碗底即代价函数 J(θ0,θ1) 的最低点,对应的θ0和θ1即为最小。
今天的文章代价函数分享到此就结束了,感谢您的阅读,如果确实帮到您,您可以动动手指转发给其他人。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/55342.html