読み方 : せつめいかのうなエーアイ
説明可能なAI【XAI】Explainable Artificial Intelligence
概要
説明可能なAIとは、どのような根拠や過程に基づいて予測や判断を行ったのかを、人が理解できる形で示せるよう設計された人工知能システム。また、そのような説明を可能にする技術。ニューラルネットワークのようなモデルは内部の構造や挙動が複雑過ぎ、何らかの技術的な措置で解明しなければ判断の理路や根拠を示すことが難しい。

機械学習では、線形回帰や決定木のような比較的単純なモデルは、その構造から判断の過程が容易に理解できるため、解釈可能性が高いとされる。一方、深層学習モデルのように内部構造が複雑なモデルは、入力と出力の関係を簡単に捉えることができず、ある種のブラックボックスと化している。
医療や金融など、人々の生活に大きな影響を与える分野や判断に至った理路や根拠が重視される分野では、機械学習モデルが「なぜそう判断したのか」を説明することができる「説明可能性」(explainability)が求められる。これに対応するよう設計されたAIシステムや、機械学習モデルの挙動を解析し説明を行う技術を説明可能なAIと総称する。
説明可能なAIには、モデル内部の全体的な挙動を明らかにする「大局説明」の観点と、個々の予測結果を説明する「局所説明」の観点がある。前者では、どの特徴が全体として予測に強く影響しているかを把握することが目的となり、後者では、特定の入力に対してなぜその結果が出たのかを明らかにする。「LIME」(Local Interpretable Model-agnostic Explanations)や「SHAP」(SHapley Additive exPlanations)などの具体的な手法も提案されている。
G20で採択された「人間中心のAI社会原則」では、AIに求められる原則として公平性、説明責任、透明性の3つが挙げられている。人々の生命や財産に関わる重要な判断にAIが関わる場面が増えるに連れて、規制当局などもAIの説明可能性に関心を高めており、ますます説明可能なAIの重要性が高まっている。