激活函数:Sigmoid、Tanh与ReLU的比较与选择
**激活函数:Sigmoid、Tanh与ReLU的比较与选择**
**题目描述**
在神经网络中,激活函数负责为神经元引入非线性特性,使网络能够学习复杂模式。常见的激活函数包括Sigmoid、Tanh和ReLU。本题要求理解它们的数学形式、优缺点、适用场景,并掌握选择策略。
**1. 激活函数的作用**
- **核心功能**:将输入信号转换为输出信号,且必须是非线性函数(若使用线性函数,多层网络会退化为单层)。
- **举例**:假设神经元输入为 \( z = w_1x_1 +
2025-11-03 01:45:22
0