当前位置:首页 >  数码看点

bp网络激活函数和节点函数

发布时间:2024-12-14 23:00:49

bp神经网络使用的激活函数是什么

1. Sigmoid函数优点是它的输出映射在(0,1)之间,单调连续,输出范围有限,优化稳定,可以用作输出层。求导容易,处处可导,导数为:f′(x)=f(x)(1f(x))。sigmoid函数的缺点:激活函数的计算量大,反向传播求误差梯度时,求导涉及到除法。反向传播的时候,很容易出现梯度消失的情况,从而无法完成深度神经网络的训练。

2. 常用的激活函数主要有:sigmoid函数,tanh函数,ReLU函数。sigmoid函数,是将取值为 (∞,+∞)(∞,+∞) 的数映射到 (0,1)(0,1) 之间。tanh函数是将取值为 (∞,+∞)(∞,+∞) 的数映射到 (1,1)(1,1) 之间。ReLU函数是一种分段线性函数,其弥补了sigmoid函数以及tanh函数的梯度消失问题。

3. BP神经网络是是一种按照误差逆向传播算法训练的多层前馈神经网络。 BP网络是在输入层与输出层之间增加若干层(一层或多层)神经元,这些神经元称为隐单元,它们与外界没有直接的联系,但其状态的改变,则能影响输入与输出之间的关系,每一层可以有若干个节点。

《bp网络激活函数和节点函数》不代表本网站观点,如有侵权请联系我们删除

全数码 广州小漏斗信息技术有限公司 版权所有 粤ICP备20006251号

联系我们 关于我们 版权申明