在神经网络中,激活函数的作用是能够给神经网络加入一些非线性因素,使得神经网络可以更好地解决较为复杂的问题。
激活函数众所周知有tanh,sigmoid,ReLU等。
tanh 双切正切函数,取值范围[-1,1]
sigmoid 采用S形函数,取值范围[0,1]
ReLU 取的max(0,x) 简单而粗暴,大于0的留下,否则一律为0。
可微函数是指那些在定义域中所有点都存在导数的函数。
知乎忆臻的回答中激活函数是多个线性直线的组合,图像比较直观
经网络中的激活函数(activation function)-Sigmoid, ReLu, TanHyperbolic(tanh)