読み方 : せつめいかのうせい

説明可能性【explainablility】

概要

説明可能性とは、機械学習モデルがどのような根拠や過程に基づいて予測や判断を行ったのかを、人が理解できる形で示せる性質。ニューラルネットワークのような複雑なモデルは、単に高い予測精度を出すだけでなく、その判断根拠を説明できることが、社会における重要な用途での導入に必要となる。
説明可能性のイメージ画像

機械学習では、線形回帰決定木のような比較的単純なモデルは、その構造から判断の過程が容易に理解できるため、解釈可能性が高いとされる。一方、深層学習モデルのように内部構造が複雑なモデルは、入力と出力の関係を簡単に捉えることができず、ある種のブラックボックスと化している。

医療や金融など、人々の生活に大きな影響を与える分野や判断に至った理路や根拠が重視される分野では、機械学習モデルのブラックボックス性を解消し、「なぜそう判断したのか」を説明することができる説明可能性が求められる。

説明可能性には、モデル内部の全体的な挙動を明らかにする「大局説明」の観点と、個々の予測結果を説明する「局所説明」の観点がある。前者では、どの特徴が全体として予測に強く影響しているかを把握することが目的となり、後者では、特定の入力に対してなぜその結果が出たのかを明らかにする。「LIME」(Local Interpretable Model-agnostic Explanations)や「SHAP」(SHapley Additive exPlanations)などの具体的な手法も提案されている。

説明可能性を備えたAI技術やモデルを「説明可能なAI」(XAIExplainable Artificial Intelligence)という。G20で採択された「人間中心AI社会原則」では、AIに求められる原則として公平性、説明責任、透明性の3つが挙げられており、人々の生命や財産に関わる重要な判断にAIが応用されるに連れ、ますます説明可能性の確保が求められるようになっている。

この記事の著者 : (株)インセプト IT用語辞典 e-Words 編集部
1997年8月より「IT用語辞典 e-Words」を執筆・編集しています。累計公開記事数は1万ページ以上、累計サイト訪問者数は1億人以上です。学術論文や官公庁の資料などへも多数の記事が引用・参照されています。