#Relu6

深度学习面试题05:激活函数sigmod、tanh、ReLU、LeakyRelu、Relu6

 为什么要用激活函数在神经网络中,如果不对上一层结点的输出做非线性转换的话,再深的网络也是线性模型,只能把输入线性组合再输出(如下图),不能学习到复杂的映射关系,因此需要使用激活函数这个非线性函数做转换。 返回目录 sigmodSigmod激活函数和导函数分别为对应的图像分别为: ...