読み方 : ライム

LIME【Local Interpretable Model-agnostic Explanations】

概要

LIMEとは、複雑な機械学習モデルの予測結果を、個別のデータに対して解釈可能な局所的なモデルで近似することによって説明する手法。モデルの内部構造を問わず適用でき、特定の結果についての説明可能性を高めることができる。
LIMEのイメージ画像

説明対象となる特定の入力データ周辺に着目し、その近傍でのモデルの挙動を単純な解釈可能モデルで近似する。具体的には、説明したいサンプルの周囲に、その入力をわずかに変化させた擬似的なデータを大量に生成する。これらのデータが元のモデルでどのように予測されるかを確認し、その近傍領域においてのみ機能する線形回帰などの単純なモデルを構築する。

深層ニューラルネットワークのような内部構造が複雑なモデルでは、データ全体の境界線が非常に複雑であり全体を一括で説明することは困難だが、この手法であれば特定の箇所の周辺のみを単純な式や図で説明することができるようになる。モデルをブラックボックスとして扱いながら、局所的な意思決定要因を定量的に把握できる。

LIMEはテキスト分類や画像認識など、対象のデータタスクの種類によらず適用可能である。テキストでは単語の有無や重みが可視化され、画像では全体を分割した小さな領域(スーパーピクセル)単位で重要領域が強調表示される。例えば、画像内の「木」という予測に対して、LIMEは予測に寄与した部分のみを表示し、それ以外の領域を塗りつぶすことで、モデルが正しく物体を捉えているかを確認することができる。

一方、入力に与える摂動の方式、近傍の定義、サンプル数などの設定によって説明結果が変動しやすいことが知られている。また、局所的な近似に基づく手法であるため、得られる説明は入力周辺に限定されたものであり、モデル全体の挙動を代表するものではない。説明を求めるサンプルごとに多数の入力を生成して与えることから計算コストも高く、大量のデータ群をまとめて調査するといった用途には向かない。

この記事の著者 : (株)インセプト IT用語辞典 e-Words 編集部
1997年8月より「IT用語辞典 e-Words」を執筆・編集しています。累計公開記事数は1万ページ以上、累計サイト訪問者数は1億人以上です。学術論文や官公庁の資料などへも多数の記事が引用・参照されています。