激活函数(Activation Function) 是神经网络中每个神经元输出时应用的非线性变换函数。它决定了一个神经元是否被激活,以及传递给下一个神经元的信息量。若没有激活函数,多层神经网络将退化为线性模型,无法学习复杂的非线性关系。有几个常用的激活函数:
ReLU:输出范围在 [0, ∞) 之间,计算简单且高效,能够有效缓解梯度消失问题,是当前最常用的隐藏层激活函数。
Sigmoid:输出范围在 (0, 1) 之间,将输入映射为 0 到 1 之间的概率值,常用于二分类问题的输出层。
Softmax:每个元素在 (0, 1) 之间,且所有元素之和为 1,通常用于多分类任务的输出层,用于表示每个类别的概率。