发布时间:2024-12-14 23:00:49
bp神经网络使用的激活函数是什么
1. Sigmoid函数优点是它的输出映射在(0,1)之间,单调连续,输出范围有限,优化稳定,可以用作输出层。求导容易,处处可导,导数为:f′(x)=f(x)(1f(x))。sigmoid函数的缺点:激活函数的计算量大,反向传播求误差梯度时,求导涉及到除法。反向传播的时候,很容易出现梯度消失的情况,从而无法完成深度神经网络的训练。
2. 常用的激活函数主要有:sigmoid函数,tanh函数,ReLU函数。sigmoid函数,是将取值为 (∞,+∞)(∞,+∞) 的数映射到 (0,1)(0,1) 之间。tanh函数是将取值为 (∞,+∞)(∞,+∞) 的数映射到 (1,1)(1,1) 之间。ReLU函数是一种分段线性函数,其弥补了sigmoid函数以及tanh函数的梯度消失问题。
3. BP神经网络是是一种按照误差逆向传播算法训练的多层前馈神经网络。 BP网络是在输入层与输出层之间增加若干层(一层或多层)神经元,这些神经元称为隐单元,它们与外界没有直接的联系,但其状态的改变,则能影响输入与输出之间的关系,每一层可以有若干个节点。
《bp网络激活函数和节点函数》不代表本网站观点,如有侵权请联系我们删除