読み方 : エーアイりんりアセスメント
AI倫理アセスメント【ethical AI assessment】
概要

対象となるAIシステムがどのような目的で使われ、誰にどのような影響を与えるかを整理する。評価の中心となるのは、公平性や差別の有無、プライバシー侵害の可能性、安全性や信頼性、説明可能性の程度などである。
倫理的な評価では、機械学習モデルの精度、すなわち期待した結果が得られるかどうかだけでなく、学習データの偏りや利用環境による影響も考慮される。これにより、技術的には正しく動作していても、社会的に問題を生じうる要素を可視化することができる。
実務上は、企画段階での簡易評価から運用中の定期的な見直しまで、段階に応じたアセスメントが行われることが多い。結果は開発方針の修正や利用条件の設定、利用者への情報提供に反映される。近年では、EUを中心にAIの法的な監視や規制を求める動きが強まっており、企業が自社のAIの信頼性を客観的に証明する手段として、アセスメントの重要性が高まっている。