読み方 : そうきしゅうりょう
早期終了【early stopping】
概要

ニューラルネットワークは表現力が高いため、同じ学習データで何度も学習を繰り返して適合度合いを高めていくと、学習データにたまたま含まれるノイズや外れ値などにも過剰に適合してしまい、未知データへの適合度(汎化性能)が下がってしまう「過学習」(overfitting)という問題が生じる。
早期終了はこれを防ぐためのテクニックの一つで、何らかの指標を用いて過学習の兆候を検知し、これ以上学習を続けると適合が行き過ぎてしまうと判断した時点で学習を打ち切って、その時点のパラメータでモデルを完成とする。
一般的な判断手法では、学習データを一巡するエポックという繰り返し単位が終わるごとに未知データでテストを実施し、一定のエポック数の間、未知データに対する性能の改善が見られなくなったら学習を打ち切る。学習の繰り返しで学習データに対する性能が上がり続けても、ある時点で過学習が始まり未知データに対する性能が落ち始めるからである。
早期終了は、汎化性能を高めるだけでなく、モデルの訓練時間と計算資源の節約にも繋がる。また、ハイパーパラメータ(事前に決めておく設定値)の一つであるエポック数を学習しながら自動的に決定することができるため、適切なエポック数を手動で探す手間も省ける。
(2025.12.3更新)