読み方 : にじゅうこうかげんしょう

二重降下現象【double descent】

概要

二重降下現象とは、機械学習で観察される現象の一つで、モデルの複雑さを増やしていくと最初は汎化誤差が低減し性能が向上するが、過学習により誤差が増大し性能が悪化した後、更に複雑さを増やし続けると再び誤差が低減し始める現象。伝統的な統計学の知見では説明できない挙動として知られる。
二重降下現象のイメージ画像

機械学習モデルの複雑さ(パラメータ数など)を増やしていくと表現力が向上し、最初は学習データに対しても未知データに対しても性能が向上(誤差は低減)していくが、複雑にしすぎると学習データに含まれるノイズやばらつきまでも詳細に再現するようになってしまい、未知データに対する性能が悪化する「過学習」が生じる。

従来の理論では過学習を起こしたモデルは複雑にすればするほど過学習が悪化し未知データでの誤差(汎化誤差)は増大し続けると考えられてきたが、大規模な深層学習モデルの学習では、パラメータ数が学習データ数を上回りさらに複雑化していくと、増大した汎化誤差が再び減少に転じるという二段階の降下が観察された。

二重降下現象は隠れ層の数が深くパラメータ数の多い深層ニューラルネットワーク(DNN)で発見され、パラメータ数だけでなく学習回数(エポック数)など過学習を引き起こす他の要因によっても生じたとする報告もある。極めてパラメータ数の多い複雑なモデルで発生するため、どのような機序で発現するのかはっきりしたことは分かっておらず、様々な仮説が提唱されている。

(2025.12.3更新)
この記事の著者 : (株)インセプト IT用語辞典 e-Words 編集部
1997年8月より「IT用語辞典 e-Words」を執筆・編集しています。累計公開記事数は1万ページ以上、累計サイト訪問者数は1億人以上です。学術論文や官公庁の資料などへも多数の記事が引用・参照されています。