文章目录1.1、sigmoid函数1.2、tanh函数1.3、ReLU函数1.4、softmax函数
激活函数在
神经网络中的作用有很多,主要作用是给
神经网络提供非线性建模能力。如果没有
激活函数,那么再多层的
神经网络也只能处理线性可分问题。常用的
激活函数有sigmoid、tanh、relu、softmax等。
1.1、sigmoid函数
sigmoid函数将输入变换为(0,1)上的输出。它将范围(-inf,inf)中的任意输入压缩到区间(0,1)中的某个值:
sigmoid(x)=11+exp(−x)sigm
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/bian-cheng-ri-ji/41993.html