最大似然损失函数_最大似然估计 损失最小化[通俗易懂]

最大似然损失函数_最大似然估计 损失最小化[通俗易懂]一、逻辑回归与softmax回归在逻辑回归问题中,我们使用sigmoid函数将线性模型的连续值映射到0~1的区间上,设置一定的阈值(二分类问题,大于阈值设置为1,小于阈值设置为0),从而得到某个

一、逻辑回归与softmax函数

在逻辑回归问题中,我们使用sigmoid函数将线性模型Wx+b的连续值映射到0~1的区间上,设置一定的阈值(二分类问题,大于阈值设置为1,小于阈值设置为0),从而得到某个类别的概率。如果将这个问题泛化,推广到多分类问题上(如图片的多分类),我们可以使用softmax函数将其输出单元从一个变成多个。

1.sigmoid函数

sigmoid函数是个很漂亮的S形,其作用可以将取值的范围友好的表示成[0,1],而且受异常数据的影响较小,所以我们用sigmoid函数来包装就能很好的解决模型取值范围的问题。其数学公式如下:

f(x)=\frac{1}{1+e^{-x}}

其图像如下图所示:

这里写图片描述

2.softmax函数

多分类问题需要得到离散的预测输出,一个简单的方法是将输出值o_{i}当作预测类别是i的置信度,并将值最大的输出所对应的类别作为预测输出,即输出argmax_{i}o_{i}。然而,这样存在两个问题。一方面,由于输出值的范围不确定,难以从直观上判断这些值的意义。另一方面,由于真实标签是离散值,这些离散值与不确定范围的属猪值之间的误差难以衡量。

softmax函数解决了以上两个问题。假设模型的输出为a_{1},a_{2},...,a_{C}。对于每一个样本数据,它属于类别i的概率为:

今天的文章最大似然损失函数_最大似然估计 损失最小化[通俗易懂]分享到此就结束了,感谢您的阅读。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/63929.html

(0)
编程小号编程小号

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注