JP2014038527A - 入力装置、入力方法、及びプログラム - Google Patents

入力装置、入力方法、及びプログラム Download PDF

Info

Publication number
JP2014038527A
JP2014038527A JP2012181223A JP2012181223A JP2014038527A JP 2014038527 A JP2014038527 A JP 2014038527A JP 2012181223 A JP2012181223 A JP 2012181223A JP 2012181223 A JP2012181223 A JP 2012181223A JP 2014038527 A JP2014038527 A JP 2014038527A
Authority
JP
Japan
Prior art keywords
hand
movement
shape
input
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012181223A
Other languages
English (en)
Other versions
JP5665140B2 (ja
Inventor
Kenji Akiyoshi
賢治 秋吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC System Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2012181223A priority Critical patent/JP5665140B2/ja
Application filed by NEC System Technologies Ltd filed Critical NEC System Technologies Ltd
Priority to CN201380043996.8A priority patent/CN104584080B/zh
Priority to KR1020157003798A priority patent/KR101624215B1/ko
Priority to CA2882004A priority patent/CA2882004A1/en
Priority to EP13879402.9A priority patent/EP2887318A4/en
Priority to PCT/JP2013/071893 priority patent/WO2014027666A1/ja
Priority to US14/422,124 priority patent/US9753545B2/en
Priority to TW102129418A priority patent/TWI543018B/zh
Publication of JP2014038527A publication Critical patent/JP2014038527A/ja
Application granted granted Critical
Publication of JP5665140B2 publication Critical patent/JP5665140B2/ja
Priority to IL237225A priority patent/IL237225A0/en
Priority to HK15107654.5A priority patent/HK1207192A1/xx
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ポインティング操作に加えてジェスチャ操作を認識できる入力装置、入力方法、及びプログラムを提供する。
【解決手段】入力装置は、ポイント領域が表示された操作画面に対応付けられる撮像画像の中のユーザの手の動きに基づいて、ユーザの入力を判別する装置である。入力装置は、ユーザの手が移動したことにより生じる撮像画像中のユーザの手の形状の変化に基づいて、ユーザの入力がポイント領域の選択操作かジェスチャ操作かを判別する入力判別部155を備えている。
【選択図】図5

Description

本発明は、入力装置、入力方法、及びプログラムに関する。
ユーザの手の動きに基づいてユーザの操作指令を判別する入力装置が知られている。例えば、特許文献1には、三次元ディスプレイによって形成された仮想操作面を操作するユーザの手の動きに基づいて、ユーザの操作を判別する画像認識装置が開示されている。また、特許文献2には、撮影されたユーザのジェスチャに基づいて、ディスプレイに表示される画像の配列方法を決定する表示制御装置が開示されている。また、特許文献3には、タッチパネルのタッチ動作の移動量に基づいて、ユーザのタッチ動作が押下操作かジェスチャ操作かを判別する情報処理装置が開示されている。
特開2011−175623号公報 特開2011−248606号公報 特開2009−151691号公報
ポイント領域が表示された操作画面に撮像画像を対応付け、撮像画像中のユーザの手の動き(例えば、ポイント領域に相当する位置での手の一定時間の停止)に基づいて、ユーザのポイント領域の選択(以下、「ポインティング操作」という。)を認識する装置がある。このような入力装置では、操作のバリュエーションを増加させるために、ポインティング操作に加えてジェスチャ操作も認識できるよう望まれている。
タッチパネルの場合、ポイント領域に移動中のユーザの手はタッチパネルから離間している。そのため、ポイント領域へ移動中のユーザの手の動きはタッチパネルには検出されない。その結果、例えば引用文献3に示されているように、入力装置は、タッチパネルで捉えたユーザの手の移動量の情報のみで、タッチ動作が押下操作かジェスチャ操作かを容易に区別できる。
しかしながら、タッチパネルではなくカメラを使ってユーザの入力を判別する場合、ポイント領域へ移動中のユーザの手の動きは、タッチパネルのときとは違いカメラに撮像されてしまう。ポインティング操作に加えてジェスチャ操作を認識するためには、入力装置は、ポイント領域へ移動中のユーザの手の動きとジェスチャのためのユーザの手の動きとを区別しなければならないが、その区別は極めて困難である。
本発明は、このような問題に鑑みてなされたものであり、ポインティング操作に加えてジェスチャ操作を認識できる入力装置、入力方法、及びプログラムを提供することを目的とする。
本発明の第1の観点に係る入力装置は、
ポイント領域が表示された操作画面に対応付けられる撮像画像の中のユーザの手の動きに基づいて、ユーザの入力を判別する入力装置であって、
前記手が移動したことにより生じる前記撮像画像中の前記手の形状の変化に基づいて、ユーザの入力が前記ポイント領域の選択操作かジェスチャ操作かを判別する入力判別手段、を備える、
ことを特徴とする。
本発明の第2の観点に係る入力方法は、
ポイント領域が表示された操作画面に対応付けられる撮像画像の中のユーザの手の動きに基づいて、ユーザの入力を判別する入力方法であって、
前記手が移動したことにより生じる前記撮像画像中の前記手の形状の変化に基づいて、ユーザの入力が前記ポイント領域の選択操作かジェスチャ操作かを判別する入力判別ステップ、を有する、
ことを特徴とする。
本発明の第3の観点に係るプログラムは、
ポイント領域が表示された操作画面に対応付けられる撮像画像の中のユーザの手の動きに基づいて、ユーザの入力を判別する入力装置を制御するコンピュータに、
前記手が移動したことにより生じる前記撮像画像中の前記手の形状の変化に基づいて、ユーザの入力が前記ポイント領域の選択操作かジェスチャ操作かを判別する入力判別機能、を実現させる、
ことを特徴とする。
本発明によれば、ポインティング操作に加えてジェスチャ操作を認識できる入力装置、入力方法、及びプログラムを提供できる。
本発明の実施の形態に係る入力装置の入力状態を示す図である。 入力装置で実行される処理の概要を説明するための図であり、(A)は表示部に表示される操作画面を示す図、(B)は撮像部で撮像される撮像画像を示す図、(C)は操作画面に撮像画像を対応付けた様子を示す図である。 入力装置で実行される処理の概要を説明するための図であり、(A)と(B)はジェスチャ操作を説明するための図、(C)はポインティング操作を説明するための図である。 図1に示す入力装置の内部構成を示すブロック図である。 図4に示す制御部の機能を説明するための機能ブロック図である。 図4に示す記憶部に格納されたジェスチャ判別テーブルとコマンドテーブルを説明するための図である。 ユーザの手の移動パターンを説明するための図であり、(A)は右回りの円を描く移動パターン、(B)は左回りの円を描く移動パターン、(C)は左方向の直線移動の移動パターン、(D)は右方向の直線移動の移動パターンを説明するための図である。 実施の形態1の入力処理のフローチャートである。 入力処理で使用される撮像画像を説明するための図である。 手領域を説明するための図である。 ポイント領域の方向を特定した様子を示す図である。 ポイント領域の方向とユーザの手の移動方向とを比較する様子を示す図であり、(A)はユーザの手の移動方向を特定した様子を示す図、(B)はポイント領域の方向とユーザの手の移動方向から方向相違度を算出する様子を示す図である。 ユーザの手の形状の変化を示す図であり、(A)はポインティング操作時のユーザの手の形状の変化を示す図、(B)はジェスチャ操作時のユーザの手の形状の変化を示す図である。 実施の形態1の入力装置の効果を説明するための図である。 図4に示す記憶部に用意されるFIFOキューを説明するための図である。 実施の形態2の入力処理のフローチャートである。 ユーザの手の移動方向と形状の変化を特定する様子を示す図であり、(A)はユーザの手の移動方向の変化を特定する様子を示す図、(B)はユーザの手の形状の変化を特定する様子を示す図である。 方向相違度、形状相違度、加算値が一定時間間隔で算出される様子を示す図である。 実施の形態2の入力装置の効果を説明するための図である。 入力装置の変形例を説明するための図であり、(A)はポイント領域の方向と移動開始時点のユーザの手の位置を基準として作成された方向比較マップを説明するための図、(B)は方向比較マップに基づいて方向相違度が特定される様子を示す図である。 フィードバック部の動作を説明するための図であり、(A)はユーザの手の移動軌跡が光跡として表示される様子を示す図、(B)はサークル状の案内表示の透過率が累積値に基づいて変化した様子を示す図である。 入力装置の変形例を説明するための図である。 入力装置の変形例を説明するための図であり、(A)はユーザの手の移動速度が速い様子を示す図、(B)ユーザの手の移動速度が遅い様子を示す図である。
以下、本発明の実施の形態に係る処理装置について図面を参照しながら説明する。
(実施の形態1)
本実施の形態の入力装置100は、カメラで撮像されたユーザの手の動きに基づいて、ユーザの機器に対する入力(例えば、ユーザの機器に対する操作指令、コマンド、ポイント領域の選択等)を判別する機能を備えた、例えば図1に示すようなパーソナルコンピュータである。最初に、図2と図3を参照して、入力装置100が行う処理の概要を説明する。
入力装置100は、ポイント領域が表示された例えば図2(A)に示すような操作画面を表示する表示部120と、例えば図2(B)に示すような画像を撮像する撮像部130とを備えている。撮像された画像(以下、「撮像画像」という。)は、図2(C)に示すように、操作画面に対応付けられる。入力装置100は、撮像画像の中のユーザの手の動きに基づいて、ユーザの入力がポインティング操作かジェスチャ操作かを判別する。ここで、「ジェスチャ操作」とは、機器操作のために予め定められた身振り手振り等の所定の動作、例えば図3(A)に示すような手の周回動作や、例えば図3(B)に示すような指を立てて手首や肘を支点に手を振る動作(以下、「フリック動作」という。)等のことをいう。また、「ポインティング操作」とは、ユーザが画面に表示されたポイント領域を選択しようとする動作のことをいう。なお、「ポインティング操作」には、ポイント領域に移動中のユーザの手の動きも含まれる。
ユーザがポインティング操作を行うと、ユーザの手はポイント領域がある方向に移動する。この場合、ユーザは操作画面を見ながら手を平行移動させることが多いことから、例えば図3(C)に示すように、撮像される手の形状はあまり変化しない。一方でジェスチャ操作の場合、ユーザは手首を支点に手を振るように手を移動させることが多いことから、例えば図3(A)や(B)に示すように、撮像される手の形状は大きく変化する。入力装置100は、移動によって生じるユーザの手の形状の変化に基づいて、ユーザの入力がポインティング操作かジェスチャ操作かを判別する。
以下、入力装置100の構成について詳細に説明する。
入力装置100は、図4に示すように、操作部110と、表示部120と、撮像部130と、画像記憶部140と、制御部150と、記憶部160とから構成される。
操作部110は、キーボード等の入力デバイスから構成される。操作部110は、ユーザからの処理開始命令等を受け取って後述の制御部150に送信する。
表示部120は、液晶ディスプレイ等の表示装置から構成される。表示部120は、制御部150の制御に従って各種画像を表示する。
撮像部130は、CCD(Charge Coupled Device Image Sensor)カメラやCMOS(Complementary Metal Oxide Semiconductor)カメラ等の撮像装置から構成される。撮像部130は、例えば、表示部120の上部中央に設置されている。撮像部130は、ユーザの手の画像(映像を含む。)を撮像するとともに、各フレームに撮影時刻を付加し、逐次、画像記憶部140に送信する。
画像記憶部140は、RAM(Random Access Memory)等のビデオメモリから構成される。画像記憶部140は、撮像部130から送信された画像データを記憶する。
制御部150は、プロセッサ等の処理装置から構成される。制御部150は不図示のROM(Read Only Memory)やRAMに格納されているプログラムに従って動作し、後述の「入力処理」を含む種々の動作を実行する。制御部150は、「入力処理」に従って動作することで、図5に示すように、画像取得部151、移動検出部152、方向比較部153、形状比較部154、入力判別部155として機能する。なお、これらの機能については、後述の「入力処理」の説明の箇所で述べる。
記憶部160は、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)、フラッシュメモリ、ハードディスク等のデータ読み書き可能な記憶装置から構成される。記憶部160には、「ジェスチャ判別テーブル」、「コマンドテーブル」等の各種データが格納されている。
「ジェスチャ判別テーブル」は、ユーザのジェスチャ、すなわちユーザの手の軌跡が予め記憶された複数の移動パターンのいずれに該当するかを判別するための情報である。「移動パターン情報」は、図6に示すように、「識別情報」と「特徴データ」とを関連付けた情報から構成される。
「識別情報」は、ユーザの手の移動パターンを識別するための情報である。例えば、ユーザが、図7(A)に示すように右回りの周回動作をするのであれば「周回(右回り)」、図7(B)に示すように左回りの周回動作をするのであれば「周回(左回り)」、図7(C)に示すように、左方向のフリック動作をするのであれば「直線移動(左方向)」、図7(D)に示すように、右方向のフリック動作をするのであれば「直線移動(右方向)」といった情報が識別情報である。なお、識別情報の書式は特定の書式に限定されない。例えば、1、2、3・・・といった数値であってもよいし、A、B、C・・・といった記号であってもよい。
「特徴データ」は、ユーザの手の移動パターンを特定するための情報である。特徴データは、例えば、ユーザの手が描く移動軌跡の特徴を抽出して格納した特徴量データから構成される。制御部150は、ユーザの手の軌跡を特徴データに照合することによって、ユーザの手の移動軌跡がいずれの移動パターンに該当するか判別する。
「コマンドテーブル」は、ユーザのジェスチャ操作が、複数ある操作コマンドのいずれに該当するかを判別するための情報である。コマンドテーブルは、図6に示すように、「識別情報」と「制御コマンド」を関連付けた情報から構成される。
「制御コマンド」は、機器を制御するための制御情報である。「制御コマンド」は、例えば、音楽再生ソフト等のアプリケーションソフトやオペレーティングシステム等に入力される、再生、停止、早送り、スキップ、決定、キャンセル、ボリューム変更等の制御情報である。
次に、このような構成を有する入力装置100の動作について説明する。
制御部150は、操作部110より処理開始命令を受信すると、撮像部130に対して撮像の開始を命令する。撮像部130は撮像開始を命令されると、逐次、撮像した画像を画像記憶部140に送信する。また、制御部150は、操作部110より処理開始命令を受信すると、アプリケーションソフトを実行するとともに、そのアプリケーションソフトに各種制御情報を入力するための「入力処理」を開始する。以下、図8のフローチャートを参照して「入力処理」について説明する。
制御部150の画像取得部151は、画像記憶部140から、人の手が撮像された最新の所定期間分の撮像画像(例えば、図9に示すように、撮影時刻が1時23分40秒50〜1時24分00秒50までの20秒分の複数フレームの画像データ)を取得する(ステップS101)。
図8のフローに戻り、制御部150の移動検出部152は、複数フレームの撮像画像それぞれについて人差し指を立てた状態の人の手の領域(以下、「手領域」という。)を抽出する(ステップS102)。なお、抽出する手領域は、手の形状そのもの(例えば、図10に示す(a)の破線で囲まれた部分)であってもよいし、手を包含する最小の矩形領域(例えば、図10に示す(b)の破線で囲まれた部分)であってもよい。
図8のフローに戻り、移動検出部152は、各フレームの手領域の位置の変化に基づいて、取得した撮像画像中にユーザの手が停止状態(手の移動速度が一定速度以下の状態)から移動状態(手の移動速度が一定速度以上の状態)に移行している時点があるか判別する(ステップS103)。ユーザの手が移動状態に移行していない場合(ステップS103:No)、ステップS101に戻り、ステップS101〜ステップS103を繰り返す。移動状態に移行している場合(ステップS103:Yes)、移動状態に移行した時点の撮影時刻(以下、移動開始時点T1という。)を不図示のRAM等に保存し、ステップS104に進む。
移動検出部152は、移動開始後の各フレームの手領域の位置の変化に基づいて、移動開始時点T1以後の撮像画像中にユーザの手が移動状態から停止状態に移行している時点があるか判別する(ステップS104)。ユーザの手が停止状態に移行していない場合(ステップS104:No)、ステップS101に戻り、ステップS101〜ステップS104を繰り返す。停止状態に移行している場合(ステップS104:Yes)、移動停止状態に移行した時点の撮影時刻(以下、移動停止時点T2という。)を不図示のRAM等に保存し、ステップS105に進む。
移動検出部152は、移動開始時点T1の撮像画像と移動停止時点T2の撮像画像を画像記憶部140から取得し、不図示のRAMに保存する(ステップS105)。例えば、ステップS103で移動開示時点T1として1時23分45秒67を保存し、ステップS104で移動停止時点T2として1時23分46秒67を保存したのであれば、1時23分45秒67と1時23分46秒67の2フレーム分の撮像画像を不図示のRAMに保存する。
制御部150の方向比較部153は、ユーザの手の移動開始時点T1の撮像画像を基に、移動開始時点T1におけるユーザの手の位置に対するポイント領域の方向を特定する。ポイント領域が複数ある場合、ポイント領域それぞれについて方向を特定する(ステップS106)。例えば、図11に示すようにポイント領域が4つある場合、方向比較部153は、移動開始時点T1における手領域の重心位置G1と各ポイント領域の中心(C1〜4)とを結ぶ線の角度(例えば、図中上方向を0°とした場合の角度)をポイント領域の方向として特定してもよい。
図8のフローに戻り、方向比較部153は、ステップS106で取得したポイント領域の方向と、ユーザの手の移動方向とを比較する。そして、その比較結果を、方向の相違の程度を示す「方向相違度」として取得する。ポイント領域が複数ある場合、ポイント領域それぞれについて方向相違度を取得する(ステップS107)。例えば、方向比較部153は、移動開始時点T1におけるユーザの手の重心位置G1と移動停止時点T2におけるユーザの手の重心位置G2とを結ぶ線の角度(例えば、図12(A)に示すように、図中上方向を0°とした場合の角度)を特定する。そして、図12(B)に示すように、特定した角度とポイント領域の方向の角度の差分を算出し、算出した差分の中で最も値が小さい差分(図の例であれば17°)を方向相違度として取得する。
図8のフローに戻り、制御部150の形状比較部154は、移動を開始した時点のユーザの手の形状と移動を停止した時点のユーザの手の形状とを比較する。そしてその比較結果を、形状の変化の程度を示す「形状相違度」として取得する(ステップS108)。例えば、形状比較部154は、移動開始時点T1の手領域の重心位置G1と指先F1との位置関係と、移動停止時点T2の手領域の重心位置G2と指先F2との位置関係とを比較して形状相違度を算出する。より具体的には、形状比較部154は、移動開始時点T1の手領域の重心位置G1と指先F1とを結んだ線の角度と、移動停止時点T2の手領域の重心位置G2と指先F2とを結んだ線の角度との差(例えば、右回りの角度と左回りの角度の小さいほう)を形状相違度として算出する。これにより、例えば、図13(A)に示すように、ユーザの手の動きがポインティング操作と考えられる場合、形状相違度は小さな値(図の例では、345°と347°の差=2°)となり、図13(B)に示すように、ユーザの手の動きがジェスチャ操作と考えられる場合、形状相違度は大きな値(図の例では、328°と83°の差=115°)となる。
図8のフローに戻り、制御部150の入力判別部155は、方向相違度と形状相違度を所定の重みで加算する(ステップS109)。例えば、ステップS107で取得した方向相違度をD、ステップS108で取得した形状相違度をSとすれば、方向相違度Dと形状相違度Sの重み係数をそれぞれ、w1、w2として、以下の(式1)により加算値ADDを求める。
ADD=w1×D+w2×S ・・・・・・・・・・・・・ (式1)
入力判別部155は、加算した値(例えば、加算値ADD)が所定の閾値以下かそうでないか判別する(ステップS110)。所定の閾値以下の場合(ステップS110:Yes)、ユーザの手の動きはポインティング操作であると判別し、ステップS111に進む。そうでない場合(ステップS110:No)、ユーザの手の動きはジェスチャ操作であると判別し、ステップS112に進む。
ポインティング操作と判別された場合(ステップS110:Yes)、入力判別部155は、ステップS106で取得したポイント領域の方向と、移動開始時点のユーザの手の重心位置と、移動停止時点のユーザの手の重心位置とを基に、どのポインティング領域が選択されたか判別する。そして、入力判別部155は、判別した情報とともにポインティング領域が選択されたことをアプリケーションソフトに通知する(ステップS111)。
ステップS110に戻り、ジェスチャ操作であると判別された場合(ステップS110:No)、入力判別部155は、移動開始から移動停止までの手の重心が描く移動軌跡を図6に示すジェスチャ判別テーブルの特徴データに照合し、ユーザのジェスチャを判別する。そして、判別したジェスチャ(すなわち、識別情報)に割り当てられている制御コマンドをコマンドテーブルから取得し、取得した制御コマンドをアプリケーションソフトに入力する(ステップS112)。なお、ジェスチャ判別テーブルに該当の特徴データがない場合、入力判別部155は制御コマンドを入力せずにそのままステップS112を終了する。
入力が完了したら、制御部150は、ステップS101に戻り、ステップS101〜ステップS111の処理を繰り返す。
本実施の形態によれば、ユーザの手の形状の変化の情報を使用してユーザの手の動きを判別しているので、入力装置100は、ユーザの手の動きがポインティング操作かジェスチャ操作かを精度よく判別できる。例えば、図13(A)と(B)に示すように、ユーザの手が同じようにポイント領域の方向へ移動したとしても、ユーザの手の形状の変化の情報を使用することよって、例えば、図13(A)のケースは「ポインティング操作」、図13(B)のケースは「ジェスチャ操作」と判別できる。そのため、入力装置100は、ポインティング操作に加えてジェスチャ操作も同時に認識することが可能になり、その結果、入力装置100はさまざまなバリュエーションの入力操作を実現できる。
また、手の形状の変化に加えて手の移動方向の情報も使用してユーザの動作を判別しているので、入力装置100は、ユーザの手の動きがポインティング操作かジェスチャ操作かをさらに精度よく判別できる。例えば、図14に示すように、移動によって手の形状があまり変化していない場合であっても、ポイント領域に向かって移動していないユーザの手の動きを「ポインティング操作」ではなく「ジェスチャ操作」と判別できる。
(実施の形態2)
実施の形態1では、移動開始時点と移動停止時点の手の形状の変化に基づいてユーザの入力がポインティング操作かジェスチャ操作か判別したが、移動開始から移動停止までの手の形状の時系列の変化に基づいてユーザの入力を判別することも可能である。以下、手の形状の時系列変化に基づいてユーザの入力を判別する入力装置について説明する。
実施の形態2の入力装置100は、図4に示すように、操作部110と、表示部120と、撮像部130と、画像記憶部140と、制御部150と、記憶部160とから構成される。
記憶部160には、図15に示すように、3フレーム分の画像データが保存可能なFIFO(First In First Out)形式の記憶領域(以下、「FIFOキュー」という。)が確保されている。制御部150は、時間間隔Tで画像記憶部140から最新1フレーム分の画像データを取得し、取得した画像データをFIFOキューにエンキューする。なお、以下の説明では、FIFOキューに保存される撮像画像を、新しい順に画像データA、画像データB、画像データCとよぶ。なお、制御部150が、画像記憶部140から画像を取得する時間間隔Tは特定の間隔に限定されない。例えば、1秒間隔であってもよいし、1フレーム間隔であってもよい。
入力装置100のその他の構成は実施の形態1と同様であるので説明を省略する。
次に、実施の形態2の入力装置100の動作について説明する。
制御部150は、操作部110より処理開始命令を受信すると、撮像部130に対して撮像の開始を命令する。撮像部130は撮像開始を命令されると、逐次、撮像した画像を画像記憶部140に送信する。また、制御部150は、操作部110より処理開始命令を受信すると、アプリケーションソフトを実行するとともに、そのアプリケーションソフトに各種制御情報を入力するための「入力処理」を開始する。以下、図16のフローチャートを参照して「入力処理」について説明する。
移動検出部152は、例えば実施の形態1のステップS103と同様の手法を使って、ユーザの手が停止状態から移動状態に移行しているか判別する(ステップS201)。移動状態に移行していない場合(ステップS201:No)、移動状態に移行するまでステップS201を繰り返す。移動状態に移行している場合(ステップS201:Yes)、ステップS202に進む。
画像取得部151は、制御部150によってFIFOキューの内容が更新されているか、すなわち、前回のFIFOキュー更新時より時間T経過しているか判別する(ステップS202)。FIFOキューが更新されていない場合、或いは、ユーザの手が移動状態に移行後、ステップS202を始めて実行する場合(ステップS202:No)、FIFOキューが更新されるまでステップS202を繰り返す。FIFOキューが更新されている場合(ステップS202:Yes)、ステップS203に進む。
方向比較部153は、時間間隔T毎のユーザの手の移動方向の変化を特定する。より具体的には、方向比較部153は、画像Aと画像Bにより特定されるユーザの手の移動方向(以下、「前時点の移動方向」という。)と、画像Bと画像Cにより特定されるユーザの手の移動方向(以下、「現時点の移動方向」という。)と、を比較する。そして、その比較結果を、方向の相違の程度を示す「方向相違度」として取得する(ステップS203)。例えば、方向比較部153は、図17(A)に示すように、画像Aの時点におけるユーザの手の重心位置Gと画像Bの時点におけるユーザの手の重心位置Gとを結ぶ線の角度(図の例では88°)を前時点の移動方向として特定し、さらに、画像Bの時点におけるユーザの手の重心位置Gと画像Cの時点におけるユーザの手の重心位置Gとを結ぶ線の角度(図の例では96°)を現時点の移動方向として特定する。そして、特定した2つの角度の差を方向相違度Dとして取得する。なお、以下の説明では、理解を容易にするため、方向相違度Dには、図18に示すように、移動検出後、取得順にD0、D1、D2、・・・・、と番号を付す(以下、Di:i=0,1,2,3,・・・と表現する)。
図16のフローに戻り、形状比較部154は、一定時間間隔T毎のユーザの手の形状の変化を特定する。より具体的には、形状比較部154は、画像Bの時点のユーザの手の形状(以下、「前時点の形状」という。)と、画像Cの時点のユーザの手の形状(以下、「現時点の形状」という。)と、を比較する。そしてその比較結果を、形状の変化の程度を示す「形状相違度」として取得する(ステップS204)。例えば、形状比較部154は、図16(B)に示すように、形状比較部154は、画像Bの時点の手領域の重心位置Gと指先Fとを結んだ線の角度(図の例では351°)と、画像Cの時点の手領域の重心位置Gと指先Fとを結んだ線の角度(図の例では53°)との差を形状相違度Sとして算出する。なお、以下の説明では、理解を容易にするため、形状相違度Sには、図18に示すように、移動検出後、取得順にS0、S1、S2、・・・・、と番号を付す(以下、Si:i=0,1,2,3,・・・と表現する)。
図16のフローに戻り、入力判別部155は、方向相違度と形状相違度を所定の重みで加算する(ステップS205)。例えば、方向相違度Diと形状相違度Siの重み係数をそれぞれ、w1、w2として、以下の(式2)により加算値ADDi(i=0,1,2,3,・・・)を求める。
ADDi=w1×Di+w2×Si ・・・・・・・・・・・・・ (式2)
入力判別部155は、移動開始検出後に取得した加算値ADDを全て加算する(ステップS206)。例えば、入力判別部155は、直近に算出した加算値をADDnとして、以下の(式3)により累積値ACCを求める。
ACC=ADD0+ADD1+・・・+ADDn ・・・・・・・ (式3)
入力判別部155は、累積値ACCが所定の閾値以上か判別する(ステップS207)。累積値ACCが所定の閾値以上の場合(ステップS207:Yes)、入力判別部155は、ユーザの入力はジェスチャ操作と判別し、ステップS208に進む。そうでない場合(ステップS207:No)、ステップS210に進む。
累積値ACCが所定の閾値以上の場合(ステップS207:Yes)、移動検出部152は、例えば実施の形態1のステップS104と同様の手法を使って、ユーザの手が移動状態から停止状態に移行しているか判別する(ステップS208)。停止状態に移行していない場合(ステップS208:No)、停止状態に移行するまでステップS208を繰り返す。停止状態に移行している場合(ステップS208:Yes)、ステップS209に進む。
入力判別部155は、移動開始から移動停止までの手の重心が描く移動軌跡を図6に示すジェスチャ判別テーブルの特徴データに照合し、ユーザのジェスチャを判別する。そして、判別したジェスチャに割り当てられている制御コマンドをコマンドテーブルから取得してアプリケーションソフトに入力する(ステップS209)。
図16のステップS207に戻り、累積値ACCが所定の閾値未満の場合(ステップS207:No)、移動検出部152は、例えば実施の形態1のステップS104と同様の手法を使って、ユーザの手が移動状態から停止状態に移行しているか判別する(ステップS210)。停止状態に移行していない場合(ステップS208:No)、制御部150はステップS202に戻り、ステップS202〜ステップS210を繰り返す。停止状態に移行している場合(ステップS210:Yes)、ステップS211に進む。
入力判別部155は、実施の形態1のステップS111と同様の手法を使って、どのポインティング領域が選択されたか判別し、ポインティング領域が選択されたことをアプリケーションソフトに通知する(ステップS211)。
本実施の形態によれば、移動開始時点や移動停止時点の手の形状のみならず、移動中の手の形状や方向の変化の情報を使ってユーザの入力を判別しているので、例えば図19に示すように、移動開始時点の手の形状と移動停止時点の手の形状が同じ形状であり、移動方向がポイント領域の方向であっても、ユーザの入力はジェスチャ操作であると判別できる。
なお、上述の各実施の形態は一例であり、種々の変更及び応用が可能である。
例えば、上述の各実施の形態では、入力装置100は、手の移動方向と手の形状の変化の情報に基づいてユーザの入力を判別しているが、移動方向の情報を使わず形状の変化の情報のみに基づいてユーザの入力を判別してもよい。例えば、実施の形態1の例であれば、入力判別部155は、ステップS108で取得した形状相違度が所定の閾値以下の場合、ユーザの手の動きはポインティング操作であると判別し、そうでない場合、ユーザの手の動きはジェスチャ操作であると判別してもよい。また、実施の形態2の例であれば、入力判別部155は、加算値ADD0〜ADDnまでの累積値ではなく、形状相違度S0〜Snまでの累積値に基づいてユーザの入力を判別してもよい。
また、ステップS107やステップS203では、移動方向の相違の度合いを示す「方向相違度」を取得するよう構成されているが、方向比較部153は、ポイント領域の方向とユーザの手の移動方向の一致の程度を示す、もしくは、現時点の移動方向と前時点の移動方向の一致の程度を示す「方向一致度」を取得するよう構成されていてもよい。
このとき、方向比較部153は、ユーザの手の移動方向に移動距離を加味して方向一致度を算出してもよい。例えば、方向比較部153は、ステップS106で取得したポイント領域の方向と、移動開始時点のユーザの手の位置を基準として、段階的に領域が設定された方向比較マップを作成する(例えば、図20(A)に示すように、移動開始時点のユーザの手の重心位置と各ポイント領域の中心を結ぶ線上に対角線を有する矩形の領域A〜Eを段階的に設定する)。そして、方向比較部153は、ユーザの手の重心位置から離れた領域ほど大きな値となるよう、各領域に値を割り当てる。方向比較部153は、移動停止時点のユーザの手の重心が位置する領域(図20(B)の例であれば領域C)に割り当てられた値を、方向一致度として取得する。
また、ステップS108やステップS204では、手の形状の変化の程度を示す「形状相違度」を取得するよう構成されているが、形状比較部154は、移動開始時点の手の形状と移動停止時点の手の形状との一致の程度を示す、もしくは、前時点の手の形状と現時点の手の形状の一致の程度を示す「形状一致度」を取得するよう構成されていてもよい。
また、ステップS109やステップS205では、方向相違度と形状相違度を所定の重みで加算して加算値を求め、その加算値を基にユーザの手の動きがポインティング操作かジェスチャ操作かを判別するよう構成されているが、入力判別部155は、方向一致度と形状一致度を所定の重みで加算した値を基に、ユーザの手の動きがポインティング操作かジェスチャ操作かを判別してもよい。
また、入力装置100は、操作画面に、例えば図21(A)に示す(a)や(b)のように、ユーザに理想的な手の動きを案内する帯状の半透明の案内表示を出力するよう構成されていてもよい。このとき、制御部150は、ユーザの手が描いた移動軌跡を案内表示に沿って視認可能に出力する機能を備えたフィードバック部を有していてもよい。例えば、フィードバック部は、ユーザの手が案内表示の帯の近くで帯に沿って移動したときに、例えば図21(A)に示すように、ユーザの手の位置に対応して帯に沿って移動する星印の光跡を表示する。また、フィードバック部は、ステップS206で算出する累積値ACCの値の変化に基づいて案内表示の透過率を随時変化させてもよい。例えば、フィードバック部は、図21(B)に示す(a)のように、累積値ACCの値が大きくなるほど案内表示の透過率を低くする。ユーザに対しジェスチャ操作と判別されていることを認識させることができる。
また、ステップS109やステップS205では、手の重心位置と指先とを結んだ線の角度の変化に基づいて手の形状の変化を捉えているが、形状比較部154は、手の重心位置と指先との距離に基づいて手の形状の変化を捉えてもよい。形状比較部154は、図22に示すように、移動開始時点もしくは前時点における手の重心位置と指先との距離L1と、移動停止時点もしくは現時点における手の重心位置と指先との距離L2と、の差分を形状相違度として算出してもよい。形状相違度の算出には、さらに、手の重心位置と指先とを結んだ線の角度の変化の情報も使用してもよい。さらに精度よく手の形状の変化を捉えることができる。
また、形状比較部154は、手の移動距離に基づいて算出した形状相違度または形状一致度を補正してもよい。例えば、形状比較部154は、前時点の手の重心位置から現時点の手の重心位置までの距離を手の移動距離として算出し、算出した移動距離が大きくなるほど形状相違度が小さくなるように、または移動距離が大きくなるほど形状一致度が大きくなるように、算出した形状相違度または形状一致度を補正する(例えば、形状相違度を移動距離で割って新たな形状相違度としもよいし、形状一致度を移動距離で乗じて新たな形状一致度としてもよい)。例えば、図23(A)に示すように、移動距離が大きい場合(すなわち、手の移動速度が速い場合)は多少の角度変化があっても、手の形状の変化は小さいものとして捉えることができる。図23(B)に示すように、移動距離が小さい場合(すなわち、手の移動速度が遅い場合)は小さな角度変化であっても手の形状の変化は大きいものとして捉えることができる。
また、上述の各実施の形態では、入力判別部155は判別した制御コマンドをアプリケーションソフトに入力するよう構成されていたが、制御コマンドを入力するソフトウェアはアプリケーションソフトに限られない。入力判別部155は、判別した制御コマンドを、例えば、オペレーティングシステムに入力してもよい。また、判別した制御コマンドを通信線や無線を介して入力装置100以外の他の装置に入力するよう構成されていてもよい。
また、上述の実施の形態では、入力装置100の一例としてパーソナルコンピュータを示したが、入力装置100はパーソナルコンピュータに限られず、ユーザから入力を判別する機能を備えた他の種類の電気機器であってもよい。例えば、入力装置100は、テレビ、レコーダ、ゲーム機、固定電話機、携帯電話機、スマートフォン、タブレット端末、PDA(Personal Digital Assistant)等であってもよい。
本実施の形態の入力装置100は、専用のシステムにより実現してもよいし、通常のコンピュータシステムにより実現してもよい。例えば、上述の動作を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に格納して配布し、該プログラムをコンピュータにインストールして、上述の処理を実行することによって入力装置100を構成してもよい。また、インターネット等のネットワーク上のサーバ装置が備えるディスク装置に格納しておき、例えばコンピュータにダウンロード等できるようにしてもよい。また、上述の機能を、OSとアプリケーションソフトとの共同により実現してもよい。この場合には、OS以外の部分のみを媒体に格納して配布してもよく、また、コンピュータにダウンロード等してもよい。
上記プログラムを記録する記録媒体としては、USBメモリ、フレキシブルディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)、Blu−ray Disc(登録商標)、MO(Magneto-Optical disk)、SDメモリーカード(Secure Digital memory card)、メモリースティック(登録商標)、その他、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ、磁気テープ等のコンピュータ読取可能な記録媒体を使用することができる。
上記の実施の形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)
ポイント領域が表示された操作画面に対応付けられる撮像画像の中のユーザの手の動きに基づいて、ユーザの入力を判別する入力装置であって、
前記手が移動したことにより生じる前記撮像画像中の前記手の形状の変化に基づいて、ユーザの入力が前記ポイント領域の選択操作かジェスチャ操作かを判別する入力判別手段、を備える、
ことを特徴とする入力装置。
(付記2)
前記入力判別手段は、前記撮像画像中の前記手が移動した方向とその移動により生じる前記手の形状の変化とに基づいて、ユーザの入力が前記ポイント領域の選択動作かジェスチャ動作かを判別する、
ことを特徴とする付記1に記載の入力装置。
(付記3)
前記手の移動開始時点および移動停止時点を検出する移動検出手段、を備え、
前記入力判別手段は、移動開始時点の前記手の形状と移動停止時点の前記手の形状とを比較して特定される前記手の形状の変化と、移動開始時点の前記手の位置と移動停止時点の前記手の位置とに基づいて特定される前記手の移動方向と、に基づいてユーザの入力が前記ポイント領域の選択操作かジェスチャ操作かを判別する、
ことを特徴とする付記2に記載の入力装置。
(付記4)
前記手の移動開始時点および移動停止時点を検出する移動検出手段、を備え、
前記入力判別手段は、移動開始時点から移動停止時点までの所定時間間隔毎の前記手の形状の変化と、移動開始時点から移動停止時点までの前記所定時間間隔毎の前記手の移動方向の変化と、に基づいてユーザの入力が前記ポイント領域の選択操作かジェスチャ操作かを判別する、
ことを特徴とする付記2に記載の入力装置。
(付記5)
移動開始時点の前記手の形状と移動停止時点の前記手の形状とを比較して、形状の相違の度合いを示す形状相違度または一致の度合いを示す形状一致度を算出する形状比較手段と、
移動開始時点の前記手の位置と移動停止時点の前記手の位置とに基づいて前記手の移動方向を特定し、移動開始時点の前記手の位置を基準とした前記ポイント領域の方向を特定し、特定した前記手の移動方向と特定した前記ポイント領域の方向とを比較して、方向の相違の度合いを示す方向相違度または一致の度合いを示す方向一致度を算出する方向比較手段と、を備え、
前記入力判別手段は、前記形状相違度または前記形状一致度と、前記方向相違度または前記方向一致度と、を所定の重みで加算し、その加算値に基づいてユーザの入力が前記ポイント領域の選択操作かジェスチャ操作かを判別する、
ことを特徴とする付記3に記載の入力装置。
(付記6)
前記所定時間間隔毎に、現時点の前記手の形状と前記所定時間前の前記手の形状とを比較して、形状の相違の度合いを示す形状相違度または一致の度合いを示す形状一致度を算出する形状比較手段と、
前記所定時間間隔毎に、現時点の移動方向と前時点の移動方向とを比較して、方向の相違の度合いを示す方向相違度または一致の度合いを示す方向一致度を算出する方向比較手段と、を備え、
前記入力判別手段は、
前記形状相違度または前記形状一致度と、前記方向相違度または前記方向一致度と、を所定の重みで加算し、
移動開始時点を累積開始時点として、加算した値を前記所定時間間隔毎に累積し、
その累積値が所定の閾値を超えた場合、ユーザの入力はジェスチャ操作と判別し、移動停止時点までに若しくは累積開始後予め定められた時間内に、前記累積値が前記所定の閾値を超えなかった場合、ユーザの入力は前記ポイント領域の選択操作と判別する、
ことを特徴とする付記4に記載の入力装置。
(付記7)
前記手は指を立てた状態のユーザの手であり、
前記形状比較手段は、移動開始時点の前記手の重心位置と指先との位置関係と、移動停止時点の前記手の重心位置と指先との位置関係とを比較して、前記形状相違度または前記形状一致度を算出する、
ことを特徴とする付記5に記載の入力装置。
(付記8)
前記手は指を立てた状態のユーザの手であり、
前記形状比較手段は、前記前時点の前記手の重心位置と指先との位置関係と、前記現時点の前記手の重心位置と指先との位置関係とを比較して、前記形状相違度または前記形状一致度を算出する、
ことを特徴とする付記6に記載の入力装置。
(付記9)
前記形状比較手段は、
前記前時点の前記手の重心位置から前記現時点の前記手の重心位置までの距離を算出し、
前記距離が大きくなるほど前記形状相違度が小さくなるように、または前記距離が大きくなるほど前記形状一致度が大きくなるように、前記形状相違度または形状一致度を補正する、
ことを特徴とする付記8に記載の入力装置。
(付記10)
前記操作画面には、ユーザに理想的な前記手の移動軌跡を案内する帯状の半透明の案内表示が表示されており、
前記手が描いた移動軌跡を前記案内表示に沿って視認可能に出力するとともに、前記累積値に基づいて案内表示の透過率を随時変更するフィードバック手段、を備える、
ことを特徴とする付記6、8、又は9に記載の入力装置。
(付記11)
ポイント領域が表示された操作画面に対応付けられる撮像画像の中のユーザの手の動きに基づいて、ユーザの入力を判別する入力方法であって、
前記手が移動したことにより生じる前記撮像画像中の前記手の形状の変化に基づいて、ユーザの入力が前記ポイント領域の選択操作かジェスチャ操作かを判別する入力判別ステップ、を有する、
ことを特徴とする入力方法。
(付記12)
ポイント領域が表示された操作画面に対応付けられる撮像画像の中のユーザの手の動きに基づいて、ユーザの入力を判別する入力装置を制御するコンピュータに、
前記手が移動したことにより生じる前記撮像画像中の前記手の形状の変化に基づいて、ユーザの入力が前記ポイント領域の選択操作かジェスチャ操作かを判別する入力判別機能、を実現させる、
ことを特徴とするプログラム。
100 入力装置
110 操作部
120 表示部
130 撮像部
140 画像記憶部
150 制御部
151 画像取得部
152 移動検出部
153 方向比較部
154 形状比較部
155 入力判別部
160 記憶部

Claims (10)

  1. ポイント領域が表示された操作画面に対応付けられる撮像画像の中のユーザの手の動きに基づいて、ユーザの入力を判別する入力装置であって、
    前記手が移動したことにより生じる前記撮像画像中の前記手の形状の変化に基づいて、ユーザの入力が前記ポイント領域の選択操作かジェスチャ操作かを判別する入力判別手段、を備える、
    ことを特徴とする入力装置。
  2. 前記入力判別手段は、前記撮像画像中の前記手が移動した方向とその移動により生じる前記手の形状の変化とに基づいて、ユーザの入力が前記ポイント領域の選択動作かジェスチャ動作かを判別する、
    ことを特徴とする請求項1に記載の入力装置。
  3. 前記手の移動開始時点および移動停止時点を検出する移動検出手段、を備え、
    前記入力判別手段は、移動開始時点の前記手の形状と移動停止時点の前記手の形状とを比較して特定される前記手の形状の変化と、移動開始時点の前記手の位置と移動停止時点の前記手の位置とに基づいて特定される前記手の移動方向と、に基づいてユーザの入力が前記ポイント領域の選択操作かジェスチャ操作かを判別する、
    ことを特徴とする請求項2に記載の入力装置。
  4. 前記手の移動開始時点および移動停止時点を検出する移動検出手段、を備え、
    前記入力判別手段は、移動開始時点から移動停止時点までの所定時間間隔毎の前記手の形状の変化と、移動開始時点から移動停止時点までの前記所定時間間隔毎の前記手の移動方向の変化と、に基づいてユーザの入力が前記ポイント領域の選択操作かジェスチャ操作かを判別する、
    ことを特徴とする請求項2に記載の入力装置。
  5. 移動開始時点の前記手の形状と移動停止時点の前記手の形状とを比較して、形状の相違の度合いを示す形状相違度または一致の度合いを示す形状一致度を算出する形状比較手段と、
    移動開始時点の前記手の位置と移動停止時点の前記手の位置とに基づいて前記手の移動方向を特定し、移動開始時点の前記手の位置を基準とした前記ポイント領域の方向を特定し、特定した前記手の移動方向と特定した前記ポイント領域の方向とを比較して、方向の相違の度合いを示す方向相違度または一致の度合いを示す方向一致度を算出する方向比較手段と、を備え、
    前記入力判別手段は、前記形状相違度または前記形状一致度と、前記方向相違度または前記方向一致度と、を所定の重みで加算し、その加算値に基づいてユーザの入力が前記ポイント領域の選択操作かジェスチャ操作かを判別する、
    ことを特徴とする請求項3に記載の入力装置。
  6. 前記所定時間間隔毎に、現時点の前記手の形状と前記所定時間前の前記手の形状とを比較して、形状の相違の度合いを示す形状相違度または一致の度合いを示す形状一致度を算出する形状比較手段と、
    前記所定時間間隔毎に、現時点の移動方向と前時点の移動方向とを比較して、方向の相違の度合いを示す方向相違度または一致の度合いを示す方向一致度を算出する方向比較手段と、を備え、
    前記入力判別手段は、
    前記形状相違度または前記形状一致度と、前記方向相違度または前記方向一致度と、を所定の重みで加算し、
    移動開始時点を累積開始時点として、加算した値を前記所定時間間隔毎に累積し、
    その累積値が所定の閾値を超えた場合、ユーザの入力はジェスチャ操作と判別し、移動停止時点までに若しくは累積開始後予め定められた時間内に、前記累積値が前記所定の閾値を超えなかった場合、ユーザの入力は前記ポイント領域の選択操作と判別する、
    ことを特徴とする請求項4に記載の入力装置。
  7. 前記手は指を立てた状態のユーザの手であり、
    前記形状比較手段は、前記前時点の前記手の重心位置と指先との位置関係と、前記現時点の前記手の重心位置と指先との位置関係とを比較して、前記形状相違度または前記形状一致度を算出する、
    ことを特徴とする請求項6に記載の入力装置。
  8. 前記操作画面には、ユーザに理想的な前記手の移動軌跡を案内する帯状の半透明の案内表示が表示されており、
    前記手が描いた移動軌跡を前記案内表示に沿って視認可能に出力するとともに、前記累積値に基づいて案内表示の透過率を随時変更するフィードバック手段、を備える、
    ことを特徴とする請求項6又は7に記載の入力装置。
  9. ポイント領域が表示された操作画面に対応付けられる撮像画像の中のユーザの手の動きに基づいて、ユーザの入力を判別する入力方法であって、
    前記手が移動したことにより生じる前記撮像画像中の前記手の形状の変化に基づいて、ユーザの入力が前記ポイント領域の選択操作かジェスチャ操作かを判別する入力判別ステップ、を有する、
    ことを特徴とする入力方法。
  10. ポイント領域が表示された操作画面に対応付けられる撮像画像の中のユーザの手の動きに基づいて、ユーザの入力を判別する入力装置を制御するコンピュータに、
    前記手が移動したことにより生じる前記撮像画像中の前記手の形状の変化に基づいて、ユーザの入力が前記ポイント領域の選択操作かジェスチャ操作かを判別する入力判別機能、を実現させる、
    ことを特徴とするプログラム。
JP2012181223A 2012-08-17 2012-08-17 入力装置、入力方法、及びプログラム Active JP5665140B2 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP2012181223A JP5665140B2 (ja) 2012-08-17 2012-08-17 入力装置、入力方法、及びプログラム
KR1020157003798A KR101624215B1 (ko) 2012-08-17 2013-08-13 입력 장치, 입력 방법, 및 기억 매체
CA2882004A CA2882004A1 (en) 2012-08-17 2013-08-13 Input device, input method, and storage medium
EP13879402.9A EP2887318A4 (en) 2012-08-17 2013-08-13 INPUT DEVICE, INPUT METHOD AND STORAGE MEDIUM
PCT/JP2013/071893 WO2014027666A1 (ja) 2012-08-17 2013-08-13 入力装置、入力方法、及び記憶媒体
US14/422,124 US9753545B2 (en) 2012-08-17 2013-08-13 Input device, input method, and storage medium
CN201380043996.8A CN104584080B (zh) 2012-08-17 2013-08-13 输入设备和输入方法
TW102129418A TWI543018B (zh) 2012-08-17 2013-08-16 An input device, an input method, and storage medium
IL237225A IL237225A0 (en) 2012-08-17 2015-02-15 Input device, input method and storage medium
HK15107654.5A HK1207192A1 (en) 2012-08-17 2015-08-08 Input device, input method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012181223A JP5665140B2 (ja) 2012-08-17 2012-08-17 入力装置、入力方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2014038527A true JP2014038527A (ja) 2014-02-27
JP5665140B2 JP5665140B2 (ja) 2015-02-04

Family

ID=50286613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012181223A Active JP5665140B2 (ja) 2012-08-17 2012-08-17 入力装置、入力方法、及びプログラム

Country Status (10)

Country Link
US (1) US9753545B2 (ja)
EP (1) EP2887318A4 (ja)
JP (1) JP5665140B2 (ja)
KR (1) KR101624215B1 (ja)
CN (1) CN104584080B (ja)
CA (1) CA2882004A1 (ja)
HK (1) HK1207192A1 (ja)
IL (1) IL237225A0 (ja)
TW (1) TWI543018B (ja)
WO (1) WO2014027666A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049661A (ja) * 2015-08-31 2017-03-09 キヤノン株式会社 情報処理装置とその制御方法、プログラム、記憶媒体
JP2018005815A (ja) * 2016-07-08 2018-01-11 大日本印刷株式会社 入力システム及びその入力装置
JP2020120411A (ja) * 2016-04-27 2020-08-06 ロヴィ ガイズ, インコーポレイテッド 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム
JPWO2019168190A1 (ja) * 2018-03-02 2021-02-12 Necソリューションイノベータ株式会社 操作推定装置、操作推定方法、及びプログラム
US11353949B2 (en) 2016-04-27 2022-06-07 Rovi Guides, Inc. Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
JP6178741B2 (ja) * 2013-09-24 2017-08-09 京セラドキュメントソリューションズ株式会社 電子機器
US9996638B1 (en) * 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US10168786B2 (en) * 2014-02-18 2019-01-01 Mitsubishi Electric Corporation Gesture guidance device for moving platform, gesture guidance system for moving platform, and gesture guidance method for moving platform
US9785247B1 (en) 2014-05-14 2017-10-10 Leap Motion, Inc. Systems and methods of tracking moving hands and recognizing gestural interactions
JP6650595B2 (ja) * 2015-09-24 2020-02-19 パナソニックIpマネジメント株式会社 機器制御装置、機器制御方法、機器制御プログラムおよび記録媒体
EP3182250B1 (en) 2015-12-18 2019-10-30 Aptiv Technologies Limited System and method for monitoring 3d space in front of an output unit for the control of the output unit
US10162422B2 (en) * 2016-10-10 2018-12-25 Deere & Company Control of machines through detection of gestures by optical and muscle sensors
JP6719434B2 (ja) * 2017-09-25 2020-07-08 Kddi株式会社 機器制御装置、機器制御方法及び機器制御システム
CN111062312B (zh) * 2019-12-13 2023-10-27 RealMe重庆移动通信有限公司 手势识别方法、手势控制方法、装置、介质与终端设备
WO2021246089A1 (ja) * 2020-06-01 2021-12-09 国立研究開発法人産業技術総合研究所 ジェスチャ認識装置、システム及びそのプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011204019A (ja) * 2010-03-25 2011-10-13 Sony Corp ジェスチャ入力装置、ジェスチャ入力方法およびプログラム
WO2011142317A1 (ja) * 2010-05-11 2011-11-17 日本システムウエア株式会社 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5239328B2 (ja) 2007-12-21 2013-07-17 ソニー株式会社 情報処理装置及びタッチ動作認識方法
US8555207B2 (en) 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US8428368B2 (en) * 2009-07-31 2013-04-23 Echostar Technologies L.L.C. Systems and methods for hand gesture control of an electronic device
JP5114795B2 (ja) 2010-01-29 2013-01-09 島根県 画像認識装置および操作判定方法並びにプログラム
IL204436A (en) * 2010-03-11 2016-03-31 Deutsche Telekom Ag A system and method for remote control of online TV by waving hands
US20110289455A1 (en) 2010-05-18 2011-11-24 Microsoft Corporation Gestures And Gesture Recognition For Manipulating A User-Interface
JP2011248606A (ja) 2010-05-26 2011-12-08 Canon Inc 表示制御装置および表示制御方法
US9262015B2 (en) * 2010-06-28 2016-02-16 Intel Corporation System for portable tangible interaction
CN102236414A (zh) * 2011-05-24 2011-11-09 北京新岸线网络技术有限公司 三维显示空间中的图片操作方法和系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011204019A (ja) * 2010-03-25 2011-10-13 Sony Corp ジェスチャ入力装置、ジェスチャ入力方法およびプログラム
WO2011142317A1 (ja) * 2010-05-11 2011-11-17 日本システムウエア株式会社 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049661A (ja) * 2015-08-31 2017-03-09 キヤノン株式会社 情報処理装置とその制御方法、プログラム、記憶媒体
JP2020120411A (ja) * 2016-04-27 2020-08-06 ロヴィ ガイズ, インコーポレイテッド 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム
JP7027478B2 (ja) 2016-04-27 2022-03-01 ロヴィ ガイズ, インコーポレイテッド 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム
US11353949B2 (en) 2016-04-27 2022-06-07 Rovi Guides, Inc. Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment
US12050724B2 (en) 2016-04-27 2024-07-30 Rovi Guides, Inc. Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment
JP2018005815A (ja) * 2016-07-08 2018-01-11 大日本印刷株式会社 入力システム及びその入力装置
JPWO2019168190A1 (ja) * 2018-03-02 2021-02-12 Necソリューションイノベータ株式会社 操作推定装置、操作推定方法、及びプログラム

Also Published As

Publication number Publication date
KR101624215B1 (ko) 2016-06-07
HK1207192A1 (en) 2016-01-22
KR20150034258A (ko) 2015-04-02
EP2887318A4 (en) 2016-04-27
EP2887318A1 (en) 2015-06-24
US9753545B2 (en) 2017-09-05
JP5665140B2 (ja) 2015-02-04
CN104584080B (zh) 2017-03-01
US20150234469A1 (en) 2015-08-20
CA2882004A1 (en) 2014-02-20
IL237225A0 (en) 2015-04-30
CN104584080A (zh) 2015-04-29
TWI543018B (zh) 2016-07-21
WO2014027666A1 (ja) 2014-02-20
TW201423482A (zh) 2014-06-16

Similar Documents

Publication Publication Date Title
JP5665140B2 (ja) 入力装置、入力方法、及びプログラム
US10565437B2 (en) Image processing device and method for moving gesture recognition using difference images
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
CN105009035B (zh) 利用手势增强触摸输入
CN105229582B (zh) 基于近距离传感器和图像传感器的手势检测
KR20140138424A (ko) 제스쳐를 이용한 사용자 인터페이스 방법 및 장치
KR20120058996A (ko) 객체 제어 장치 및 방법
KR20120089992A (ko) 제스처 인식 장치, 제스처 인식 방법, 제어 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP2013137613A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
EP4307096A1 (en) Key function execution method, apparatus and device, and storage medium
US11886643B2 (en) Information processing apparatus and information processing method
CN114360047A (zh) 举手手势识别方法、装置、电子设备及存储介质
CN104714736A (zh) 一种退出全屏锁定状态的控制方法及终端
JP5565886B2 (ja) 入力装置、入力方法、及びプログラム
EP3568745B1 (en) Hover interaction using orientation sensing
CN118116078A (zh) 识别挥动动作的方法及相关装置
KR20210029753A (ko) 제스처 인식 장치 및 방법
CN118368357A (zh) 界面控制方法、装置、终端及存储介质
CN105446604B (zh) 一种信息处理方法及电子设备
CN114415929A (zh) 电子设备的控制方法、装置、电子设备和可读存储介质
KR20200046764A (ko) 제스처 인식 장치 및 방법
CN105867806A (zh) 一种输入方法及电子设备

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140606

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141204

R150 Certificate of patent or registration of utility model

Ref document number: 5665140

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150