読み方 : せいきかそう
正規化層【normalization layer】
概要
正規化層とは、ニューラルネットワークの特殊な層の一つで、上位層からの出力に補正を行い、値の分布を一定の範囲に揃える操作を行うもの。極端な値のばらつきを抑えて学習の安定化、学習速度の向上、過学習の抑止などの効果をもたらす。

ニューラルネットワークでは入力層から出力層に向かって一層ずつ下層へ順に値が伝達されていくが、層間でやり取りされる値のスケールがまちまちになることがある。あまりに値に幅があると、特定の特徴量ばかり重視されたり、一部のノードのパラメータの収束が遅くなるなどの不都合が生じる。
正規化層は通過する出力値の平均が0、分散が1になるように値のスケールを揃える。代表的な実装方法としてバッチ正規化があり、ミニバッチを構成する学習データのサンプルを用いて平均と分散を算出し、特徴量ごとに正規化を行う。他に、レイヤー正規化、インスタンス正規化などの手法も提唱されている。
正規化層では単純に出力を正規化するだけでなく、学習によって調整されるパラメータを用いて、スケール変換(すべての値に特定の係数を乗じる)や平行移動(すべての値に一定値を加える)といった一律の変換処理を行い、分布を微調整する場合がある。
(2025.12.5更新)