読み方 : エーアイポリシー
AIポリシー【AI policy】

AIシステムの設計、学習、運用、廃止に至る各段階において、どのような考え方で意思決定を行うかを明確にする。内容には、法令遵守や個人情報の適切な取り扱い、安全性や信頼性の確保、差別や偏見の排除、説明可能性への配慮などが含まれるのが一般的である。機械学習モデルの性能だけでなく、社会的影響や利用者への影響を考慮する観点から整理される。
近年では、生成AIや自律的に動作するAIエージェントの普及に伴い、想定外の利用や誤用への対応も重要視されている。AI技術は変化が激しいため、AIポリシーも固定的な規則ではなく、技術動向や法制度、社会的要請の変化に応じて更新される文書として位置付けられることが多い。組織内部では、開発者や利用者が共通の理解を持つための基準として機能し、対外的には説明責任を果たすための枠組みとして用いられる。
企業などでは、Webサイトなどで公表する社会に向けた宣言としてのAIポリシーの他に、従業員がAIを業務で利用する際の規則やガイドラインなどを別に定める場合もある。これには対外的に公表する基本原則に加え、適用可能な業務、利用しても良い(あるいは利用すべきでない)システムやサービスの種類、入力しても良いデータの種類など、個別具体的な要請事項が含まれることが多い。