読み方 : エルツーせいそくか
L2正則化【L2 regularization】
概要

回帰分析や機械学習では、モデルを複雑にすればするほど学習データ・標本データへの適合度を向上させることができるが、過剰に適合しすぎて外れ値やノイズ、偏りまで忠実に再現してしまい、未知データに対する予測性能が低下する「過学習」「過剰適合」(overfitting)という問題が生じる。
これを防ぐための手法を「正則化」(regularization)という。L2正則化はモデルの訓練時に用いられる誤差関数(損失関数)に、すべてのパラメータの二乗を合計して係数(正則化係数)を掛けた正則化項を追加する。係数は事前に決めておくハイパーパラメータで、モデルの柔軟性と抑制の度合いを制御する役割がある。
正則化手法としては他に「L1正則化」なども知られるが、L2正則化は他の手法に比べ、すべてのパラメータを均等に小さく抑えることで、特定の特徴量に過度に依存するのを防ぐ性質を持つ。多くの特徴量が適度に関係する問題に適している。回帰分析に対してL2正則化を適用した手法は「リッジ回帰」(Ridge regression)という。
(2025.12.1更新)