読み方 : ラッソかいき
ラッソ回帰【lasso regression】

回帰分析ではモデルを複雑にすればするほど標本データへの適合度を向上させることができるが、過剰に適合しすぎて外れ値やノイズ、偏りまで忠実に再現してしまい、未知データに対する予測性能が低下する「過剰適合」(overfitting)という問題が生じる。
これを防ぐための手法を「正則化」(regularization)と呼び、ラッソ回帰は「L1正則化」あるいは「LASSO」(Least Absolute Shrinkage and Selection Operator)と呼ばれる方式を適用したものである。最小二乗法で用いる誤差関数(損失関数)に、回帰係数の絶対値和に係数(正則化係数)を掛けた正則化項を追加する。係数は事前に決めておくハイパーパラメータで、この値が大きくなるほど、より多くの係数がゼロに近づき、モデルは単純になる。
正則化を行う回帰分析手法としては他に、L2正則化を用いる「リッジ回帰」なども知られるが、ラッソ回帰は不要な特徴量に対応する係数を強制的にゼロにする特徴がある。これは、その特徴量がモデルの予測にまったく影響を与えなくなることを意味し、モデルから重要度の低い特徴量を自動的に除外する特徴量選択の効果がある。特徴量の多い高次元データで特に有効な手法とされる。
(2025.12.1更新)