文章目录1.1、
sigmoid函数1.2、
tanh函数1.3、ReLU函数1.4、softmax函数
激活函数在神经网络中的
作用有很多,主要
作用是给神经网络提供非线性建模能力。如果没有
激活函数,那么再多层的神经网络也只能处理线性可分问题。常用的
激活函数有
sigmoid、
tanh、relu、softmax等。
1.1、
sigmoid函数
sigmoid函数将输入变换为(0,1)上的输出。它将范围(-inf,inf)中的任意输入压缩到区间(0,1)中的某个值:
sigmoid(x)=11+exp(−x)sigm
到此这篇sigmoid函数(sigmoid函数和tanh函数)的文章就 介绍到这了,更多相关内容请继续浏览下面的相关 推荐文章,希望大家都能在编程的领域有一番成就!版权声明:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权、违法违规、事实不符,请将相关资料发送至xkadmin@xkablog.com进行投诉反馈,一经查实,立即处理!
转载请注明出处,原文链接:https://www.xkablog.com/haskellbc/56404.html