読み方 : ライム
LIME【Local Interpretable Model-agnostic Explanations】
概要

説明対象となる特定の入力データ周辺に着目し、その近傍でのモデルの挙動を単純な解釈可能モデルで近似する。具体的には、説明したいサンプルの周囲に、その入力をわずかに変化させた擬似的なデータを大量に生成する。これらのデータが元のモデルでどのように予測されるかを確認し、その近傍領域においてのみ機能する線形回帰などの単純なモデルを構築する。
深層ニューラルネットワークのような内部構造が複雑なモデルでは、データ全体の境界線が非常に複雑であり全体を一括で説明することは困難だが、この手法であれば特定の箇所の周辺のみを単純な式や図で説明することができるようになる。モデルをブラックボックスとして扱いながら、局所的な意思決定要因を定量的に把握できる。
LIMEはテキスト分類や画像認識など、対象のデータやタスクの種類によらず適用可能である。テキストでは単語の有無や重みが可視化され、画像では全体を分割した小さな領域(スーパーピクセル)単位で重要領域が強調表示される。例えば、画像内の「木」という予測に対して、LIMEは予測に寄与した部分のみを表示し、それ以外の領域を塗りつぶすことで、モデルが正しく物体を捉えているかを確認することができる。
一方、入力に与える摂動の方式、近傍の定義、サンプル数などの設定によって説明結果が変動しやすいことが知られている。また、局所的な近似に基づく手法であるため、得られる説明は入力周辺に限定されたものであり、モデル全体の挙動を代表するものではない。説明を求めるサンプルごとに多数の入力を生成して与えることから計算コストも高く、大量のデータ群をまとめて調査するといった用途には向かない。