読み方 : エルワンせいそくか
L1正則化【L1 regularization】LASSO/Least Absolute Shrinkage and Selection Operator
概要

回帰分析や機械学習では、モデルを複雑にすればするほど学習データ・標本データへの適合度を向上させることができるが、過剰に適合しすぎて外れ値やノイズ、偏りまで忠実に再現してしまい、未知データに対する予測性能が低下する「過学習」「過剰適合」(overfitting)という問題が生じる。
これを防ぐための手法を「正則化」(regularization)という。L1正則化はモデルの訓練時に用いられる誤差関数(損失関数)に、すべてのパラメータの絶対値の和に係数(正則化係数)を掛けた正則化項を追加する。係数は事前に決めておくハイパーパラメータで、この値が大きくなるほど、より多くのパラメータがゼロに近づき、モデルは単純になる。
正則化手法としては他に「L2正則化」なども知られるが、L1正則化は他の手法に比べ、不要な特徴量に対応するパラメータを強制的にゼロにする性質を持つ。これは、その特徴量がモデルの予測にまったく影響を与えなくなることを意味し、モデルから重要度の低い特徴量を自動的に除外する特徴量選択の効果がある。回帰分析に対してL1正則化を適用した手法は「ラッソ回帰」(lasso regression)という。
(2025.12.1更新)