読み方 : レイヤーせいきか

レイヤー正規化【layer normalization】

概要

レイヤー正規化とは、ニューラルネットワークの各層の出力値の分布を一定の範囲に揃える正規化処理の一つで、サンプルごとに正規化を行うもの。畳み込みニューラルネットワークCNN)の特徴マップに適用する場合は全チャネルをまとめて扱う。バッチ正規化がバッチサイズに影響を受けやすい点を改良した手法である。
レイヤー正規化のイメージ画像

ニューラルネットワークでは入力層から出力層に向かって一層ずつ下層へ順に値が伝達されていくが、層間でやり取りされる値のスケールがまちまちになることがある。あまりに値に幅があると、特定の特徴量ばかり重視されたり、一部のノードパラメータの収束が遅くなるなどの不都合が生じる。

レイヤー正規化はそのような場合に用いられる正規化手法の一つで、学習データを構成する個々のサンプルごとに、層の出力値の平均が0、分散が1になるよう調整する。極端な値のばらつきを抑えて学習の安定化、学習速度の向上、過学習の抑止などの効果をもたらす。

バッチ正規化ではミニバッチを構成するサンプルすべてを使って統計量を算出するため、バッチサイズが小さい場合に不安定化しやすい欠点があったが、レイヤー正規化はサンプルごとに毎回正規化するためバッチサイズの影響を受けない。ネットワーク内に再帰的な構造を持ち、時系列の入力や文章などの可変長の入力を受け付ける再帰型ニューラルネットワーク(RNN)やTransformerで特に有効な手法とされる。

なお、畳み込みニューラルネットワークCNN)の特徴マップ正規化に用いる場合は、層内の全チャネル(各フィルタの出力)をまとめて正規化する。この点を変更し、チャネルごとに正規化を行うようにしたものを「インスタンス正規化」、複数のチャネルのグループごとに正規化するようにしたものを「グループ正規化」という。

(2025.12.7更新)
この記事の著者 : (株)インセプト IT用語辞典 e-Words 編集部
1997年8月より「IT用語辞典 e-Words」を執筆・編集しています。累計公開記事数は1万ページ以上、累計サイト訪問者数は1億人以上です。学術論文や官公庁の資料などへも多数の記事が引用・参照されています。