読み方 : かいきけつごうそう
回帰結合層【recurrent layer】リカレント層/再帰層
概要
回帰結合層とは、ニューラルネットワークの隠れ層の特殊な構造の一つで、過去の出力を自身の現在の入力に加えるループ機構を持つもの。この層を含むネットワークを「リカレントニューラルネットワーク」(RNN)と呼び、文章や音声、動画など、何らかの系列や順序に従って並んでいるデータを扱うのに適している。

通常のニューラルネットワークは入力層から出力層へデータが一方向的に流れるだけだが、回帰結合層は、ある回の出力を受け取って次の回の入力へフィードバックするループ構造となっている。前回の処理の結果を覚えておき、今回の入力に加えて処理する。今回の出力も覚えておき、次回の入力に反映させる。
これにより、単語が順番に入力されてくる文章のような系列データ、時間経過に従って少しずつ変化する音声や動画のような時系列データを扱う際に、現在の入力だけでなく直前の状態や文脈を反映した処理が可能となる。回帰結合層を基本単位とするRNNは、機械翻訳や文章生成、音声認識、時系列予測などに広く応用されている。
回帰結合層の重みは各時刻で共有されるため、系列がどれほど長くても同じパラメータで処理される。この性質は学習すべきパラメータ数を抑える一方で、長い系列では勾配消失や勾配爆発が起こりやすい傾向があることが知られている。これを改善するため、LSTM(Long Short-Term Memory)やGRU(Gated Recurrent Unit)のような複雑な制御機構が提唱されている。
(2025.12.9更新)