ベイズの定理【Bayes' theorem】
概要

事象Aが起こったときに事象Bが生じる確率を、AとBの関係とそれぞれの生起確率から計算する仕組みである。AとBの生起確率をP(A)およびP(B)、Aが起きた前提でBが起きる条件付き確率を P(A|B)、逆にBが起きた前提でAが起きる条件付き確率を P(B|A) とすると、P(A|B)P(B) = P(B|A)P(A) となる。これがベイズの定理で、一般には P(B|A) = P(A|B)P(A)/P(B) という形に変形したものを用いる。
例えば、全人口の2%が感染(事象A)していることが分かっている感染症で、ある検査で陽性(事象B)とされる人の割合が1%、感染者が陽性と判定される割合(A→B)が95%の場合、陽性と判定された人が実際に感染者である確率(B→A)は、0.95×0.01/0.02 = 0.475 で47.5%と分かる。このように、直接求めにくい条件付き確率を、比較的取得しやすい他の確率から導くことが可能になる。
ベイズの定理は事象の間に前後関係や因果関係がある場合に特に有用で、事象Aが原因、事象Bが結果であるとき、結果が分かる前の原因の確率P(A)を「事前確率」、結果を前提とした原因の確率P(A|B)を「事後確率」、原因を前提とした結果の確率をP(B|A)を「尤度」という。この関係から、追加情報が得られるたびに推定値を動的に修正するという推論プロセスを構築することができる。
ベイズの定理は18世紀の数学者・哲学者のトーマス・ベイズ(Thomas Bayes)が証明し、死後に友人のリチャード・プライスによって発表された。ベイズの定理から発展した統計的推定の手法を「ベイズ推定」と呼び、これを統計学の枠組みとして体系化したものを「ベイズ統計」という。迷惑メールの分類に用いられるベイジアンフィルタやベイズ機械学習のように、次々に情報を与えることにより推論モデルを更新していくシステムとして様々な分野で応用されている。