ジェスチャーインターフェース 【gesture interface】 ジェスチャー入力
概要
ジェスチャーインターフェース(gesture interface)とは、コンピュータの操作方式(ユーザーインターフェース)の一種で、人体の部位の動きを読み取って入力や操作を行う方式。ナチュラルユーザーインターフェース(NUI)の一つに分類される。パネルやボタン、レバーなどを触れたり押したりする操作方法は以前からあるが、身体の一部分が動く様子そのものを何らかの方法で検知して入力手段とする手法をジェスチャーインターフェースという。離れた位置からカメラや空間センサーで動きを検出する方式と、加速度計などが内蔵された装置を手に持ったり身体に装着する方式がある。
対象となる部位は指や手、腕、足(足踏みなど)、頭部(首振りや頷きなど)、口(発音を読み取るのではなく開閉などの動きを検知する)、まぶた(瞬きやウインク)などがある。眼球(視線)の動きを読み取る技術もあるが、ジェスチャーとは区別して「アイトラッキング」(eye tracking)と呼ぶことが多い。
すでに広く実用化されている分野に家庭用ゲーム機がある。加速度計やジャイロスコープを内蔵したコントローラを持って動かしたり、画面の脇に設置したカメラでプレーヤーを撮影して動きを検出し、キャラクターの動きなどに反映させることができる。
体が動かせなくても瞬きだけで文字を入力できる装置など、身体が不自由な人をサポートするシステムの研究も進んでいる。他にも、体感型のアートやエンターテインメントへの応用、「非接触」であることを活かした医療などへの展開が期待されている。
(2022.4.20更新)