在神经网络中添加批归一化(Batch Normalization, BatchNorm)可以提高训练的稳定性、加速收敛,并减少梯度消失或爆炸的风险。BatchNorm 通过对每一层的输出进行归一化处理(调整和缩放)来提升模型性能。
以下是如何在 PyTorch 和 TensorFlow/Keras 中添加 BatchNorm 的示例:
1. PyTorch
在 PyTorch 中,可以使用 torch.nn.BatchNorm1d
(用于 1D 数据,如全连接层)或 torch.nn.BatchNorm2d
(用于 2D 数据,如卷积层)来添加 BatchNorm。