相互情報量【mutual information】伝達情報量/transinformation
概要
相互情報量とは、二つの確率変数がどの程度情報を共有しているかを測る指標。一方の値を知ることで他方に関する不確実性がどれだけ減少するかを数値として表すことができる。

二つの変数XとYの同時分布 P(X,Y) と、それぞれの変数の周辺分布の積 P(X)P(Y) を比較することで算出される。同時確率と周辺確率の比の対数に確率を掛けて、全体にわたって積算したものが相互情報量である。
二つの変数が完全に独立であれば、同時分布は周辺分布の積と等しくなり、相互情報量は0となる。逆に、二つの変数が完全に一致している(一方が決まると他方も完全に決まる)場合、相互情報量は最大となり、その値はそれぞれの変数の情報理論におけるエントロピーに等しくなる。
相互情報量は二つの変数の関連性の強さを客観的に評価する指標として用いられる。相関係数のように線形な関係しか捉えられない指標とは異なり、非線形な依存関係も捉えることができる。統計解析や機械学習の分野で広く応用されており、特徴量選択や、クラスタリングにおけるデータ間の類似度測定などに用いられる。
(2025.12.12更新)