JP5565886B2 - 入力装置、入力方法、及びプログラム - Google Patents

入力装置、入力方法、及びプログラム Download PDF

Info

Publication number
JP5565886B2
JP5565886B2 JP2012181222A JP2012181222A JP5565886B2 JP 5565886 B2 JP5565886 B2 JP 5565886B2 JP 2012181222 A JP2012181222 A JP 2012181222A JP 2012181222 A JP2012181222 A JP 2012181222A JP 5565886 B2 JP5565886 B2 JP 5565886B2
Authority
JP
Japan
Prior art keywords
movement
relative
information
input
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012181222A
Other languages
English (en)
Other versions
JP2014038526A (ja
Inventor
竜太郎 谷村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC System Technologies Ltd
Original Assignee
NEC System Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2012181222A priority Critical patent/JP5565886B2/ja
Application filed by NEC System Technologies Ltd filed Critical NEC System Technologies Ltd
Priority to PCT/JP2013/071925 priority patent/WO2014027674A1/ja
Priority to US14/421,800 priority patent/US20150220155A1/en
Priority to EP13829724.7A priority patent/EP2887316A4/en
Priority to CA2882006A priority patent/CA2882006A1/en
Priority to CN201380043894.6A priority patent/CN104584077A/zh
Priority to KR1020157003147A priority patent/KR20150034242A/ko
Priority to TW102129617A priority patent/TWI516985B/zh
Publication of JP2014038526A publication Critical patent/JP2014038526A/ja
Application granted granted Critical
Publication of JP5565886B2 publication Critical patent/JP5565886B2/ja
Priority to IL237224A priority patent/IL237224A0/en
Priority to HK15107956.0A priority patent/HK1207463A1/xx
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、入力装置、入力方法、及びプログラムに関する。
ユーザの手の動きに基づいてユーザからの操作指令を判別する、いわゆるハンドジェスチャ入力装置が知られている。例えば、特許文献1〜3には、カメラで撮像されたユーザの手の動きに基づいて、ユーザのジェスチャを認識する装置が開示されている。また、特許文献4、5には、認識したユーザのジェスチャに基づいて機器を制御する装置が開示されている。
特開2012−098988号公報 特開2011−186730号公報 特開2011−076255号公報 特開2009−230460号公報 特開2002−083302号公報
従来のハンドジェスチャ入力装置は、例えば、左に手を動かすジェスチャをした後の手を元の位置に戻す動作を右に手を動かすジェスチャと誤認識したり、円を描くジェスチャを上下左右へ手を動かすジェスチャと誤認識したりと、誤認識の発生が絶えない。
本発明は、このような問題に鑑みてなされたものであり、ユーザのジェスチャを精度よく認識できる入力装置、入力方法、及びプログラムを提供することを目的とする。
本発明の第1の観点に係る入力装置は、
ユーザの意思の下に移動する物体を撮像した画像を取得する画像取得手段と、
前記物体が描く軌跡の中から、予め記憶された移動パターンとそれぞれ判別される連続する複数の移動軌跡を抽出する移動軌跡抽出手段と、
前記複数の移動軌跡の相対的な移動量の違いを示す相対移動量情報、及び相対的な移動速度の違いを示す相対移動速度情報の少なくとも1つの情報から構成される相対情報を取得する相対情報取得手段と、
前記相対情報に基づいてユーザの機器に対する入力を判別する入力判別手段と、を備える、
ことを特徴とする。
本発明の第2の観点に係る入力装置は、
ユーザの意思の下に移動する物体を撮像した画像を取得する画像取得手段と、
前記物体が描く軌跡の中から、予め記憶された移動パターンとそれぞれ判別される連続する複数の移動軌跡を抽出する移動軌跡抽出手段と、
前記複数の移動軌跡の相対的な関係を示す相対情報を取得する相対情報取得手段と、
前記相対情報に基づいてユーザの機器に対する入力を判別する入力判別手段と、を備え、
前記移動軌跡抽出手段は、前記移動軌跡それぞれの移動パターンが、予め記憶された複数の移動パターンのいずれに該当するか判別し、
前記入力判別手段は、
同じ移動パターンと判別される移動軌跡の連続発生回数を取得し、
前記連続発生回数と前記移動パターンの情報と前記相対情報とに基づいてユーザの入力を判別する、
ことを特徴とする。
本発明の第の観点に係る入力方法は、
ユーザの意思の下に移動する物体を撮像した画像を取得する画像取得ステップと、
前記物体が描く軌跡の中から、予め記憶された移動パターンとそれぞれ判別される連続する複数の移動軌跡を抽出する移動軌跡抽出ステップと、
前記複数の移動軌跡の相対的な移動量の違いを示す相対移動量情報、及び相対的な移動速度の違いを示す相対移動速度情報の少なくとも1つの情報から構成される相対情報を取得する相対情報取得ステップと、
前記相対情報に基づいてユーザの機器に対する入力を判別する入力判別ステップと、を有する、
ことを特徴とする。
本発明の第4の観点に係る入力方法は、
ユーザの意思の下に移動する物体を撮像した画像を取得する画像取得ステップと、
前記物体が描く軌跡の中から、予め記憶された移動パターンとそれぞれ判別される連続する複数の移動軌跡を抽出する移動軌跡抽出ステップと、
前記複数の移動軌跡の相対的な関係を示す相対情報を取得する相対情報取得ステップと、
前記相対情報に基づいてユーザの機器に対する入力を判別する入力判別ステップと、を有し、
前記移動軌跡抽出ステップでは、前記移動軌跡それぞれの移動パターンが、予め記憶された複数の移動パターンのいずれに該当するか判別し、
前記入力判別ステップでは、
同じ移動パターンと判別される移動軌跡の連続発生回数を取得し、
前記連続発生回数と前記移動パターンの情報と前記相対情報とに基づいてユーザの入力を判別する、
ことを特徴とする。
本発明の第の観点に係るプログラムは、
コンピュータに、
ユーザの意思の下に移動する物体を撮像した画像を取得する画像取得機能と、
前記物体が描く軌跡の中から、予め記憶された移動パターンとそれぞれ判別される連続する複数の移動軌跡を抽出する移動軌跡抽出機能と、
前記複数の移動軌跡の相対的な移動量の違いを示す相対移動量情報、及び相対的な移動速度の違いを示す相対移動速度情報の少なくとも1つの情報から構成される相対情報を取得する相対情報取得機能と、
前記相対情報に基づいてユーザの機器に対する入力を判別する入力判別機能と、を実現させる、
ことを特徴とする。
本発明の第6の観点に係るプログラムは、
コンピュータに、
ユーザの意思の下に移動する物体を撮像した画像を取得する画像取得機能と、
前記物体が描く軌跡の中から、予め記憶された移動パターンとそれぞれ判別される連続する複数の移動軌跡を抽出する移動軌跡抽出機能と、
前記複数の移動軌跡の相対的な関係を示す相対情報を取得する相対情報取得機能と、
前記相対情報に基づいてユーザの機器に対する入力を判別する入力判別機能と、を実現させ、
前記移動軌跡抽出機能では、前記移動軌跡それぞれの移動パターンが、予め記憶された複数の移動パターンのいずれに該当するか判別し、
前記入力判別機能では、
同じ移動パターンと判別される移動軌跡の連続発生回数を取得し、
前記連続発生回数と前記移動パターンの情報と前記相対情報とに基づいてユーザの入力を判別する、
ことを特徴とする。
本発明によれば、ユーザのジェスチャを精度よく認識できる入力装置、入力方法、及びプログラムを提供できる。
本発明の実施の形態に係る入力装置の操作指令の入力の状態を示す斜視図である。 図1に示す入力装置の内部構成を示すブロック図である。 図2に示す制御部の機能を説明するための機能ブロック図である。 図2に示す記憶部に格納された移動パターン情報テーブルを説明するための図である。 ユーザの手の移動パターンを説明するための図であり、(A)は右回りの円を描く移動パターン、(B)は左回りの円を描く移動パターン、(C)は左方向の直線移動の移動パターン、(D)は右方向の直線移動の移動パターンを説明するための図である。 図2に示す記憶部に格納されたコマンドテーブルを説明するための図である。 相対情報を説明するための図であり、(A)は相対範囲情報を説明するための図、(B)は相対位置情報を説明するための図である。 図6に示すコマンドテーブルに格納された組み合わせ情報を説明するための図であり、(A)は図6に示すコマンドテーブルのレコード1の組み合わせ情報の図、(B)は図6に示すコマンドテーブルのレコード2の組み合わせ情報の図、(C)は図6に示すコマンドテーブルのレコード3の組み合わせ情報の図、(D)は図6に示すコマンドテーブルのレコード4の組み合わせ情報の図である。 本発明の実施の形態に係る入力装置で実行される入力処理のフローチャートである。 入力処理で使用される画像データを説明するための図である。 画像データから人の手の軌跡を抽出した様子を示す図である。 画像データから複数の移動軌跡を抽出する様子を示す図であり、(A)は画像データから2つの移動軌跡を抽出した様子を示す図、(B)は抽出した移動軌跡それぞれについて移動パターンを判別して記憶した様子を示す図である。 相対移動量情報と相対移動速度情報を説明するための図である。 同じ移動パターンと判別される移動軌跡が連続発生した様子を示す図である。 相対位置情報を説明するための図であり、(A)は移動範囲の中心位置間の距離および各頂点の距離を基に相対位置情報を取得する様子を示す図であり、(B)は移動範囲の各辺の距離を基に相対位置情報を取得する様子を示す図である。
以下、本発明の実施の形態に係る処理装置について図面を参照しながら説明する。
本実施の形態の入力装置100は、カメラで撮像されたユーザの手の動きに基づいて、ユーザの機器に対する入力(例えば、ユーザの機器に対する操作指令やコマンド等)を判別する機能を備えた、例えば図1に示すようなパーソナルコンピュータである。入力装置100は、図2に示すように、操作部110と、表示部120と、撮像部130と、画像記憶部140と、制御部150と、記憶部160とから構成される。
操作部110は、キーボード等の入力デバイスから構成される。操作部110は、ユーザからの処理開始命令等を受け取って後述の制御部150に送信する。
表示部120は、液晶ディスプレイ等の表示装置から構成される。表示部120は、制御部150の制御に従って各種画像を表示する。
撮像部130は、CCD(Charge Coupled Device Image Sensor)カメラやCMOS(Complementary Metal Oxide Semiconductor)カメラ等の撮像装置から構成される。撮像部130は、例えば、表示部120の上部中央に設置されている。撮像部130は、ユーザの手の画像(映像を含む。)を撮像し、逐次、画像記憶部140に送信する。
画像記憶部140は、RAM(Random Access Memory)等のビデオメモリから構成される。画像記憶部140は、撮像部130から送信された画像データを記憶する。
制御部150は、プロセッサ等の処理装置から構成される。制御部150は不図示のROM(Read Only Memory)やRAMに格納されているプログラムに従って動作し、後述の「入力処理」を含む種々の動作を実行する。制御部150は、「入力処理」に従って動作することで、図3に示すように、画像取得部151、移動軌跡抽出部152、相対情報取得部153、入力判別部154として機能する。なお、これらの機能については、後述の「入力処理」の説明の箇所で述べる。
記憶部160は、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)、フラッシュメモリ、ハードディスク等のデータ読み書き可能な記憶装置から構成される。記憶部160には、「移動パターン情報テーブル」、「コマンドテーブル」等の各種データが格納されている。
「移動パターン情報テーブル」は、ユーザの手の軌跡が予め記憶された複数の移動パターンのいずれに該当するかを判別するための情報である。「移動パターン情報」は、図4に示すように、「識別情報」と「特徴データ」とを関連付けた情報から構成される。
「識別情報」は、ユーザの手の移動パターンを識別するための情報である。例えば、ユーザの手が、図5(A)に示すように右回りの円を描くであれば「周回(右回り)」、図5(B)に示すように左回りの円を描くのであれば「周回(左回り)」、図5(C)に示すように、左方向の直線移動であれば「直線(左方方向)」、図5(D)に示すように、右方向の直線移動であれば「直線(右方方向)」といった情報が識別情報である。なお、識別情報の書式は特定の書式に限定されない。例えば、1、2、3・・・といった数値であってもよいし、A、B、C・・・といった記号であってもよい。
「特徴データ」は、ユーザの手の移動パターンを特定するための情報である。特徴データは、例えば、ユーザの手が描く移動軌跡の特徴を抽出して格納した特徴量データから構成される。制御部150は、ユーザの手の軌跡を特徴データに照合することによって、ユーザの手の軌跡がいずれの移動パターンに該当するか判別する。
「コマンドテーブル」は、ユーザのジェスチャが、複数ある機器コマンドのいずれに該当するかを判別するための情報である。コマンドテーブルは、図6に示すように、「組み合わせ情報」と「制御コマンド」を関連付けた情報から構成される。
「組み合わせ情報」は、ユーザのジェスチャを判別するための情報である。組み合わせ情報は、「識別情報」と「相対情報」とを組み合わせた情報から構成される。
「相対情報」は、ユーザの手の軌跡から抽出した複数の移動軌跡の相対的な関係を示す情報である。相対情報は、「相対範囲情報」や「相対位置情報」等から構成される。
「相対範囲情報」は、複数の移動軌跡の相対的な移動範囲の大きさの違いを示すであり、例えば、複数ある移動軌跡の一つを基準とした他の移動軌跡の移動範囲の大きさを示す情報である。例えば、ユーザの手の一連の動き(例えば、所定期間(例えば10秒間)のユーザの手の連続した動き。以下、単に「軌跡」という。)の中から、特徴データで示される特徴を有する移動軌跡が、図7(A)に示すように、2つ検出されたとする(以下、2つの移動軌跡を「移動軌跡A1」「移動軌跡A2」と呼ぶ)。このとき、例えば、移動軌跡A1を取り囲む最小の四角の面積に対する移動軌跡A2を取り囲む最小の四画の面積の比(例えば、移動軌跡A1の移動範囲の面積を1とした場合の移動軌跡A2の移動範囲の面積)が相対範囲情報である。
「相対位置情報」は、複数の移動軌跡の相対的な位置関係を示す情報であり、例えば、複数ある移動軌跡の一つを基準とした他の移動軌跡の方向や座標を示す情報である。例えば、ユーザの手の軌跡の中から、特徴データで示される特徴を有する移動軌跡が、図7(B)に示すように、2つ検出されたとする(以下、2つの移動軌跡を「移動軌跡B1」「移動軌跡B2」と呼ぶ)。このとき、例えば、移動軌跡B1の移動範囲の中心位置に対する移動軌跡B2の移動範囲の中心位置の方向(例えば「右方向」)や、移動軌跡B1の中心位置を基準とした、例えば、原点(0,0)とした移動軌跡B2の中心位置の座標(例えば、(21,3))が相対位置情報である。
図8(A)〜(D)は、上記「組み合わせ情報」を理解容易にするため、図6に示すレコード1〜4を図示したものである。図8(A)で示す軌跡は、右回りの移動軌跡2つの連続として構成され(以下、最初の移動軌跡を「移動軌跡1」その後に続く移動軌跡を「移動軌跡2」とよぶ)、移動軌跡1に対する移動軌跡2の面積比は1よりも小さく、移動軌跡2の中心位置は移動軌跡1の中心位置より右にあるので、図6に示すレコード1の組み合わせ情報に相当する。また、図8(B)の軌跡は、左回りの移動軌跡2つの連続として構成され、移動軌跡1に対する移動軌跡2の面積比は1よりも小さく、移動軌跡2の中心位置は移動軌跡1の中心位置の左にあるので、図6に示すレコード2の組み合わせ情報に相当する。また、図8(C)の軌跡は、右回りの移動軌跡と右方向の直線移動の移動軌跡の連続として構成され、移動軌跡2の中心位置は移動軌跡1の中心位置の右にあるので、図6に示すレコード3の組み合わせ情報に相当する。また、図8(D)の軌跡は、右回りの移動軌跡と左方向の直線移動の移動軌跡の連続として構成される軌跡であり、移動軌跡2の中心位置は移動軌跡1の中心位置の左にあるので、図6に示すレコード4の組み合わせ情報に相当する。制御部150は、撮像部130で撮像された画像データを解析して、ユーザの手の軌跡がコマンドテーブルに格納された複数の組み合わせ情報のいずれに該当するか判別する。
「制御コマンド」は、機器を制御するための制御情報である。「操作コマンド」は、例えば、音楽再生ソフト等のアプリケーションソフトやオペレーティングシステム等に入力される、再生、停止、早送り、スキップ、決定、キャンセル、ボリューム変更等の制御情報である。制御部150は、ユーザのジェスチャが上記「組み合わせ情報」のいずれに該当するか判別し、判別した組み合わせ情報に関連付けられている操作コマンドをアプリケーションソフト等に入力する。
次に、このような構成を有する入力装置100の動作について説明する。
制御部150は、操作部110より処理開始命令を受信すると、撮像部130に対して撮像の開始を命令する。撮像部130は撮像開始を命令されると、逐次、撮像した画像を画像記憶部140に送信する。また、制御部150は、操作部110より処理開始命令を受信すると、音楽再生ソフト等のアプリケーションソフトを実行するとともに、そのアプリケーションソフトに操作コマンドを入力するための「入力処理」を開始する。以下、図9のフローチャートを参照して「入力処理」について説明する。
制御部150の画像取得部151は、画像記憶部140から、人の手が撮像された最新の所定期間分(例えば、10秒分)の画像データ(例えば図10に示すような複数枚の画像データ)を取得する(ステップS101)。
図9のフローに戻り、制御部150の移動軌跡抽出部152は、複数枚の画像データそれぞれについて人の手の領域を検出する(ステップS102)。例えば、記憶部160に、人の手の形の特徴を抽出したパターンデータを予め記憶しておいて、移動軌跡抽出部152は、そのパターンデータと画像データとを照合することによって、画像データ中の人の手の領域(例えば、図10の破線で示すような、人の手を包含する最少の矩形領域。以下、「手領域」という。)を検出する。なお、手領域を検出する手法は特定の手法に限定されず、既知のさまざまな手法を使用可能である。
図9のフローに戻り、移動軌跡抽出部152は、検出した手領域の情報を基に、複数枚の画像データそれぞれについて手領域の重心位置の座標(以下、「重心座標」という。)を特定する(ステップS103)。
移動軌跡抽出部152は、特定した重心座標を使って人の手の軌跡を抽出する(ステップS104)。例えば、移動軌跡抽出部152は、特定した複数の重心座標を同一座標平面上に転写し、転写した複数の重心座標を時間順に接続していくことによって、例えば図11に示すように、人の手の軌跡を抽出する。
図9のフローに戻り、移動軌跡抽出部152は、抽出した軌跡の情報を移動パターン情報テーブルの特徴データと照合することによって、抽出した軌跡の中から、特徴データと一致する移動パターンを有する移動軌跡を抽出する(ステップS105)。例えば、記憶部160が、例えば図4に示すように、右回り周回の特徴を示す特徴データ(図中の特徴データ2)を格納した移動パターン情報テーブルを記憶しており、制御部150が例えば図11に示すような軌跡を抽出したとすれば、移動軌跡抽出部152は、例えば図12(A)に示すように、抽出した軌跡の中から特徴データ2の特徴と一致する移動パターンの2つの移動軌跡(以下、2つの移動軌跡を「移動軌跡1」、「移動軌跡2」という。)を抽出する。
図9のフローに戻り、移動軌跡抽出部152は、抽出した移動軌跡の移動パターンの種類を判別する。より具体的には、移動軌跡抽出部152は抽出した移動パターンに関連付けられている識別情報を移動パターン情報テーブルから取得する。そして、移動軌跡抽出部152は、取得した識別情報を移動軌跡の発生順序で順序付けて記憶部160に保存する(ステップS106)。例えば、ステップS105で図12(A)に示すように特徴データ2と一致する移動軌跡が2つ抽出されたとすれば、移動軌跡抽出部152は、図4に示す移動パターン情報テーブルから、特徴データ2の識別情報である“周回(右回り)”を取得し、そして図12(B)に示す(a)のように、最初の移動軌跡を移動軌跡1、2つ目の移動軌跡を移動軌跡2として、取得した識別情報をそれぞれ保存する。なお、移動軌跡が1つしか抽出されなかったのであれば、その移動軌跡の識別情報のみ保存する。移動軌跡が3つ以上抽出されたのであれば、3つそれぞれ識別情報を保存する。例えば、移動軌跡が3つ抽出されたのであれば、最初の移動軌跡を移動軌跡1、2つ目の移動軌跡を移動軌跡2、3つ目の移動軌跡を移動軌跡3として識別情報を保存する。
図9のフローに戻り、移動軌跡抽出部152は、特徴データで示される特徴を有する移動軌跡が複数個抽出されたか、すなわち、ステップS106で複数の移動軌跡の情報が保存されたか判別する(ステップS107)。複数個抽出されていない場合(ステップS107:No)、ステップS101に戻り、複数個抽出されるまでステップS101〜ステップS107の処理を繰り返す。複数個抽出されている場合(ステップS107:Yes)、ステップS108に進む。
移動軌跡抽出部152は、抽出された複数の移動軌跡の中に時間的に連続している移動軌跡があるか判別する(ステップS108)。例えば、図12(A)に示すように、画像データから移動軌跡1と移動軌跡2が抽出されたのであれば、移動軌跡1の終端の座標と移動軌跡2の始端の座標が一致しているか否か判別し、一致している場合、移動軌跡1と移動軌跡2は時間的に連続していると判別し、そうでない場合、移動軌跡1と移動軌跡2は時間的に連続していないと判別する。複数の移動軌跡の中に時間的に連続する移動軌跡がない場合(ステップS108:No)、制御部150は、ステップS101に戻り、連続する移動軌跡が発見されるまでステップS101〜ステップS108の処理を繰り返す。連続する移動軌跡が1つでもある場合(ステップS108:Yes)、ステップS109に進む。
相対情報取得部153は、時間的に連続する複数の移動軌跡それぞれについて移動範囲を特定する(ステップS109)。例えば、図12(A)に示すように、時間的に連続する移動軌跡として移動軌跡1と移動軌跡2とが抽出されたのであれば、これら移動軌跡を包含する最小の矩形領域(例えば、図中の破線で囲まれた部分)を移動範囲と特定する。
図9のフローに戻り、相対情報取得部153は、特定した移動範囲の情報を基に、時間的に連続する複数の移動軌跡の相対情報(例えば、相対位置情報と相対範囲情報)を取得する。例えば、相対情報取得部153は、移動軌跡1の移動範囲の中心(図中の中心位置1)に対する移動軌跡2の移動範囲の中心(図中の中心位置2)の方向、例えば「右方向」を相対位置情報として取得する。また、相対情報取得部153は、移動軌跡1の移動範囲の面積(図中の面積1)に対する移動軌跡2の移動範囲の面積(図中の面積2)の比、例えば「面積2/面積1=0.38」を相対範囲情報として取得する。相対情報取得部153は、取得した相対情報を、例えば図12(B)に示す(b)のように、記憶部160に保存する(ステップS110)。
図9のフローに戻り、入力判別部154は、ステップS110で取得した識別情報と相対情報の組み合わせが、コマンドテーブルに格納された組み合わせ情報のいずれに該当するか判別する(ステップS111)。例えば、記憶部160が、例えば図6に示すようなコマンドテーブルを記憶しており、相対情報取得部153が図12(B)に示す(b)のような相対情報と識別情報を取得したとすれば、図6に示すレコード1の組み合わせ情報を該当の組み合わせ情報と判別する。
図9のフローに戻り、入力判別部154は、コマンドテーブルから、判別した組み合わせ情報に関連付けられている制御コマンドをユーザの入力と判別し、判別した制御コマンドをアプリケーションソフトに入力する(ステップS112)。例えば、入力判別部154は、図6に示すレコード1の組み合わせ情報を該当の組み合わせ情報と判別したのであれば、レコード1に格納されている制御コマンド(音量変更)をユーザの入力と判別し、そのコマンドをアプリケーションソフトに入力する。
制御コマンドの入力が完了したら、制御部150は、ステップS101に戻り、再びステップS101〜ステップS112の処理を繰り返す。
本実施の形態によれば、複数の移動軌跡の相対的な関係を基に制御コマンドを判別しているので、ユーザのジェスチャを精度よく認識することができる。例えば、従来のハンドジェスチャ入力装置は、ユーザの手の移動軌跡と予め記憶した移動パターンとを照合することによってユーザのジェスチャを判別している。この場合、ユーザが描く移動軌跡の大きさや形状にユーザ毎にバラツキがあるので、ジェスチャの誤認識が絶えない。この点、本実施の形態の入力装置100は、ユーザの手の軌跡を1つの一体の移動軌跡ではなく、複数の移動軌跡の連続として認識し、バラツキが少ないと考えられるそれら移動軌跡の相対的な関係を基に制御コマンドを判別しているので、入力装置100はユーザのジェスチャの誤認識を減少させることができる。
また、入力装置100が認識可能なコマンド数を多くしようとすると、必然的に、入力装置100が認識する移動パターンの形状は複雑なものになる。形状が複雑になると誤認識が増え、結果として入力装置100のジェスチャの認識精度は低下する。しかし、本実施の形態の入力装置100は、ユーザの手の軌跡を1つの一体の移動軌跡ではなく、複数の移動軌跡の連続として認識している(すなわち、ユーザの手の一連の動きを複数の単純な形状の移動軌跡の連続として認識している)ので、入力装置100が認識する必要がある1つ1つの移動パターンは従来のハンドジェスチャ入力装置と比べ単純なものとなり、結果、入力装置100はジェスチャの誤認識の発生を減少させることができる。
なお、上述の実施の形態は一例であり、種々の変更及び応用が可能である。
例えば、入力装置100が認識するジェスチャはユーザの手の動き(すなわちハンドジェスチャ)に限られず、ユーザの意思の下に移動する物体(ユーザの体の一部を含む。)の動きであってもよい。例えば、入力装置100は、ユーザの頭部、足、眼球(黒目)、手足の指の動きをユーザのジェスチャとして認識するよう構成されていてもよい。また、入力装置100は、ユーザが手に持って動かす物の動きをユーザのジェスチャとして認識するよう構成されていてもよい。例えば、先端に球体が取り付けられた指示棒のパターンデータを記憶し、ユーザが動かす指示棒の先端の球体の動きを認識するよう構成されていてもよい。
また、入力装置100が制御コマンドの判別に使用する相対情報は、相対位置情報や相対範囲情報に限られず、例えば、複数の移動軌跡の相対的な移動量の違いを示す「相対移動量情報」であってもよい。例えば、入力装置100が、図13に示すように、移動量L1の移動軌跡1と、移動量L2の移動軌跡2を抽出したとすれば、移動軌跡1の移動量を基準とした移動軌跡2の移動量L2/L1が相対移動量情報である。
また、入力装置100が制御コマンドの判別に使用する相対情報は、複数の移動軌跡の相対的な移動速度の違いを示す「相対移動速度情報」であってもよい。例えば、入力装置100が、図13に示すように、L1の距離を時間T1で移動したすなわち移動速度S1(=L1/T1)の移動軌跡1と、L2の距離を時間T2で移動したすなわち移動速度S2(=L2/T2)の移動軌跡2を抽出したとすれば、移動軌跡1の移動速度を基準とした移動軌跡2の移動速度S2/S1が相対移動速度情報である。
また、上述の実施の形態では、相対情報と識別情報とをコマンドテーブルの組み合わせ情報に照合することによって制御コマンドを判別したが、入力装置100は、同じ移動パターンと判別される移動軌跡の連続発生回数の情報を使ってユーザの入力を判別してもよい。例えば、図14に示すように、右回りの移動軌跡4つ(以下、時間が若い順に移動軌跡1〜4とする。)が抽出されたとすれば、入力装置100は、移動軌跡1と2の識別情報と相対情報とを図6に示すコマンドテーブルに照合してユーザの入力をレコード1の音量変更と判別し、さらに、周回(右回り)の移動パターンの連続発生回数(4回)を基に、音量レベルの変更量を例えば音量レベル4アップ等と判別してもよい。
また、入力装置100は、移動パターンが同じで移動範囲がほぼ一致する移動軌跡(例えば、面積と位置が一定の閾値に収まる移動軌跡)の連続発生回数を基にユーザの入力を判別してもよい。図14の例であれば、移動パターンが同じで移動範囲がほぼ一致する移動軌跡は移動軌跡2〜4の3つであるので、入力装置100は、移動軌跡の連続発生回数を3回と判別し、ユーザの入力を例えば音量レベル3アップ等と判別してもよい。
また、上述の実施の形態では、相対位置情報および相対範囲情報の少なくとも1つと識別情報とを組み合わせて「組み合わせ情報」としたが、組み合わせ情報の構成要素は相対位置情報、相対範囲情報、識別情報に限られない。例えば、相対位置情報、相対範囲情報、相対移動量情報、及び相対移動速度情報の中から選択された1以上の情報と識別情報とを組み合わせて組み合わせ情報としてもよいし、識別情報を使用せずに、相対情報のみ(例えば、相対位置情報、相対範囲情報、相対移動量情報、及び相対移動速度情報の中から選択された1以上の情報)を構成要素としてもよい。また、相対情報と他の情報(例えば、同じ移動パターンの連続発生回数等)を組み合わせて組み合わせ情報としてもよい。
また、ステップS104では、手領域の重心位置の軌跡を手の移動軌跡として抽出したが、移動軌跡は手領域の重心位置の軌跡に限定されない。例えば、移動軌跡抽出部152は、指(例えば、人差し指)を立てた人の手の立てた指の先端の軌跡をユーザの手の移動軌跡として抽出してもよい。
また、ステップS108では、2つの移動軌跡の終端と始端の座標が一致しているか否かで2つの移動軌跡が時間的に連続しているか否かを判別したが、移動軌跡の連続の判定は上記の方法に限定されない。例えば、図12(A)に示すように、画像データから移動軌跡1と移動軌跡2が抽出されたのであれば、移動軌跡抽出部152は、画像データそれぞれの撮影時間等から、ユーザの手(例えば、手領域の重心)が移動軌跡1の終端を通過した時間T1と、移動軌跡2の始端を通過した時間T2とを判別し、時間T1と時間T2の差分が一定の閾値内であるか否かによって移動軌跡1と移動軌跡2が時間的に連続しているか否かを判別してもよい。
また、ステップS109では、移動軌跡を包含する最小の矩形領域を移動範囲と特定したが、移動範囲は移動軌跡を包含する最小の矩形領域に限定されない。例えば、相対情報取得部153は、移動軌跡を包含する所定形状(例えば、円や楕円)の領域を移動範囲として特定してもよいし、例えば、移動軌跡が図5(A)や(B)に示すようなループ状なのであれば、ループが取り囲む部分を移動範囲としてもよい。
また、ステップS105では、抽出した移動軌跡を移動パターン情報テーブルの特徴データと照合することによって、移動軌跡の移動パターンを識別したが、移動パターンの識別方法は特徴データとの照合に限られず、既知のさまざまな手法を使用可能である。例えば、ステップS103で取得した重心座標のデータを使って近似直線(回帰直線)を求め、手の移動軌跡と近似直線との類似度を算出し、一定の閾値以上の類似度の手の移動動作を直線移動動作と判別してもよい。また、手の移動軌跡の円形度を求め、一定の閾値以上の円形度の手の移動動作を周回動作と判別してもよい。
また、ステップS102では、人の手を包含する最少の矩形領域を手領域として検出したが手領域は人の手を包含する最少の矩形領域に限定されない。例えば、相対情報取得部153は、移動軌跡を包含する所定形状(例えば、円や楕円)の領域を手領域として検出してもよいし、手の形状そのものを手領域として検出してもよい。
また、上述の実施の形態では、相対位置情報の例として、一方の移動軌跡の移動範囲の中心位置に対する他方の移動軌跡の移動範囲の中心位置の方向(例えば「右方向」)や、一方の移動軌跡の中心位置を基準とした他方の移動軌跡の中心位置の座標(例えば、(21,3))を示したが、相対位置情報は、2つの移動軌跡の距離であってもよいし、例えば、図15(A)に示すように、一方の移動軌跡の中心位置を基準とした他方の移動軌跡の中心位置の角度であってもよい。また、相対位置情報は、方向、座標、距離、角度の中から選択された1以上の情報であってもよい。
相対位置情報を2つの移動軌跡の距離とする場合、この距離は、例えば図15(A)に示すように、一方の移動軌跡(移動軌跡1)の移動範囲の中心位置と他方の移動軌跡(移動軌跡2)の移動範囲の中心位置との距離(図中のL)であってもよい。
また、移動軌跡1の移動範囲の各頂点と移動軌跡1の移動範囲の対応する頂点、例えば図15(A)に示すように、左上頂点同士の距離L1、右上頂点同士の距離L2、右下頂点同士の距離L3、右下頂点同士の距離L4、の中の最も大きな距離(図の例ではL4)を移動軌跡1と移動軌跡2の距離としてもよい。また、図15(B)に示すように、移動範囲の左辺同士の距離LX1と右辺同士の距離LX2の大きな方の距離(例えば、LX1)を移動軌跡1と移動軌跡2の距離としてもよいし、移動範囲の上辺同士の距離LY1と下辺同士の距離LY2の大きな方の距離(例えば、LY2)を移動軌跡1と移動軌跡2の距離としてもよい。図15(A)や(B)のように2つの移動軌跡の大きさが違う場合、中心位置の距離Lを相対位置情報とする場合と比べ、相対位置情報を大きな値として取得できる。
また、上述の実施の形態では、入力判別部154は判別した制御コマンドをアプリケーションソフトに入力するよう構成されていたが、制御コマンドを入力するソフトウェアはアプリケーションソフトに限られない。入力判別部154は、判別した制御コマンドを、例えば、オペレーティングシステムに入力してもよい。また、判別した制御コマンドを通信線や無線を介して入力装置100以外の他の装置に入力するよう構成されていてもよい。
また、上述の実施の形態では、入力装置100の一例としてパーソナルコンピュータを示したが、入力装置100はパーソナルコンピュータに限られず、ユーザの入力を判別する機能を備えた他の種類の電気機器であってもよい。例えば、入力装置100は、テレビ、レコーダ、ゲーム機、固定電話機、携帯電話機、スマートフォン、タブレット端末、PDA(Personal Digital Assistant)等であってもよい。
本実施の形態の入力装置100は、専用のシステムにより実現してもよいし、通常のコンピュータシステムにより実現してもよい。例えば、上述の動作を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に格納して配布し、該プログラムをコンピュータにインストールして、上述の処理を実行することによって入力装置100を構成してもよい。また、インターネット等のネットワーク上のサーバ装置が備えるディスク装置に格納しておき、例えばコンピュータにダウンロード等できるようにしてもよい。また、上述の機能を、OSとアプリケーションソフトとの共同により実現してもよい。この場合には、OS以外の部分のみを媒体に格納して配布してもよく、また、コンピュータにダウンロード等してもよい。
上記プログラムを記録する記録媒体としては、USBメモリ、フレキシブルディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)、Blu−ray Disc(登録商標)、MO(Magneto-Optical disk)、SDメモリーカード(Secure Digital memory card)、メモリースティック(登録商標)、その他、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ、磁気テープ等のコンピュータ読取可能な記録媒体を使用することができる。
上記の実施の形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)
ユーザの意思の下に移動する物体を撮像した画像を取得する画像取得手段と、
前記物体が描く軌跡の中から、予め記憶された移動パターンとそれぞれ判別される連続する複数の移動軌跡を抽出する移動軌跡抽出手段と、
前記複数の移動軌跡の相対的な関係を示す相対情報を取得する相対情報取得手段と、
前記相対情報に基づいてユーザの機器に対する入力を判別する入力判別手段と、を備える、
ことを特徴とする入力装置。
(付記2)
前記移動軌跡抽出手段は、前記移動軌跡それぞれの移動パターンが、予め記憶された複数の移動パターンのいずれに該当するか判別し、
前記入力判別手段は、判別した移動パターンの情報と前記相対情報とに基づいてユーザの入力を判別する、
ことを特徴とする付記1に記載の入力装置。
(付記3)
前記入力判別手段は、
同じ移動パターンと判別される移動軌跡の連続発生回数を取得し、
前記連続発生回数と前記移動パターンの情報と前記相対情報とに基づいてユーザの入力を判別する、
ことを特徴とする付記2に記載の入力装置。
(付記4)
前記相対情報と前記移動パターンを識別する識別情報とを組み合わせた組み合わせ情報と、機器を制御するための制御情報と、を関連付けて記憶する記憶手段、を備え、
前記入力判別手段は、前記相対情報取得手段で取得した前記相対情報と前記移動軌跡抽出手段で取得した前記移動パターンが前記記憶手段に記憶された複数の組み合わせ情報のいずれに該当するか判別し、判別した組み合わせ情報に関連づけられている前記制御情報をユーザの入力と判別する、
ことを特徴とする付記2に記載の入力装置。
(付記5)
前記相対情報は、前記複数の移動軌跡の相対的な位置関係を示す相対位置情報、相対的な移動範囲の大きさの違いを示す相対範囲情報、相対的な移動量の違いを示す相対移動量情報、及び相対的な移動速度の違いを示す相対移動速度情報の少なくとも1つの情報から構成される、
ことを特徴とする付記1乃至4のいずれか1つに記載の入力装置。
(付記6)
前記移動軌跡抽出手段は、前記物体が描く軌跡のなかから、予め記憶された移動パターンと判別される連続する2つの移動軌跡を抽出し、
前記相対情報取得手段は、前記連続する2つの移動軌跡の一方の移動軌跡の位置を基準とした他方の移動軌跡の方向を前記相対位置情報として取得する、
ことを特徴とする付記5に記載の入力装置。
(付記7)
前記移動軌跡抽出手段は、前記物体が描く軌跡のなかから、予め記憶された移動パターンと判別される連続する2つの移動軌跡を抽出し、
前記相対情報取得手段は、前記連続する2つの移動軌跡の移動範囲の面積比を前記相対範囲情報として取得する、
ことを特徴とする付記5に記載の入力装置。
(付記8)
前記物体は人の手である、
ことを特徴とする付記1乃至7のいずれか1つに記載の入力装置。
(付記9)
ユーザの意思の下に移動する物体を撮像した画像を取得する画像取得ステップと、
前記物体が描く軌跡の中から、予め記憶された移動パターンとそれぞれ判別される連続する複数の移動軌跡を抽出する移動軌跡抽出ステップと、
前記複数の移動軌跡の相対的な関係を示す相対情報を取得する相対情報取得ステップと、
前記相対情報に基づいてユーザの機器に対する入力を判別する入力判別ステップと、を有する、
ことを特徴とする入力方法。
(付記10)
コンピュータに、
ユーザの意思の下に移動する物体を撮像した画像を取得する画像取得機能と、
前記物体が描く軌跡の中から、予め記憶された移動パターンとそれぞれ判別される連続する複数の移動軌跡を抽出する移動軌跡抽出機能と、
前記複数の移動軌跡の相対的な関係を示す相対情報を取得する相対情報取得機能と、
前記相対情報に基づいてユーザの機器に対する入力を判別する入力判別機能と、を実現させる、
ことを特徴とするプログラム。
100 入力装置
110 操作部
120 表示部
130 撮像部
140 画像記憶部
150 制御部
151 画像取得部
152 移動軌跡抽出部
153 相対情報取得部
154 入力判別部
160 記憶部

Claims (16)

  1. ユーザの意思の下に移動する物体を撮像した画像を取得する画像取得手段と、
    前記物体が描く軌跡の中から、予め記憶された移動パターンとそれぞれ判別される連続する複数の移動軌跡を抽出する移動軌跡抽出手段と、
    前記複数の移動軌跡の相対的な移動量の違いを示す相対移動量情報、及び相対的な移動速度の違いを示す相対移動速度情報の少なくとも1つの情報から構成される相対情報を取得する相対情報取得手段と、
    前記相対情報に基づいてユーザの機器に対する入力を判別する入力判別手段と、を備える、
    ことを特徴とする入力装置。
  2. ユーザの意思の下に移動する物体を撮像した画像を取得する画像取得手段と、
    前記物体が描く軌跡の中から、予め記憶された移動パターンとそれぞれ判別される連続する複数の移動軌跡を抽出する移動軌跡抽出手段と、
    前記複数の移動軌跡の相対的な関係を示す相対情報を取得する相対情報取得手段と、
    前記相対情報に基づいてユーザの機器に対する入力を判別する入力判別手段と、を備え、
    前記移動軌跡抽出手段は、前記移動軌跡それぞれの移動パターンが、予め記憶された複数の移動パターンのいずれに該当するか判別し、
    前記入力判別手段は、
    同じ移動パターンと判別される移動軌跡の連続発生回数を取得し、
    前記連続発生回数と前記移動パターンの情報と前記相対情報とに基づいてユーザの入力を判別する、
    ことを特徴とする入力装置。
  3. 前記相対情報には、少なくとも前記相対移動量情報が含まれる、
    ことを特徴とする請求項1に記載の入力装置。
  4. 前記相対情報には、少なくとも前記相対移動速度情報が含まれる、
    ことを特徴とする請求項1に記載の入力装置。
  5. 前記移動軌跡抽出手段は、前記物体が描く軌跡のなかから、予め記憶された移動パターンと判別される連続する2つの移動軌跡を抽出し、
    前記相対情報取得手段は、前記連続する2つの移動軌跡の一方の移動軌跡の移動量に対する他方の移動軌跡の移動量の比率を前記相対移動量情報として取得する、
    ことを特徴とする請求項3に記載の入力装置。
  6. 前記移動軌跡抽出手段は、前記物体が描く軌跡のなかから、予め記憶された移動パターンと判別される連続する2つの移動軌跡を抽出し、
    前記相対情報取得手段は、前記連続する2つの移動軌跡の一方の移動軌跡の移動速度に対する他方の移動軌跡の移動速度の比率を前記相対移動速度情報として取得する、
    ことを特徴とする請求項4に記載の入力装置。
  7. 前記移動軌跡抽出手段は、前記移動軌跡それぞれの移動パターンが、予め記憶された複数の移動パターンのいずれに該当するか判別し、
    前記入力判別手段は、判別した移動パターンの情報と前記相対情報とに基づいてユーザの入力を判別する、
    ことを特徴とする請求項1、3、4、5、又は6に記載の入力装置。
  8. 前記相対情報と前記移動パターンを識別する識別情報とを組み合わせた組み合わせ情報と、機器を制御するための制御情報と、を関連付けて記憶する記憶手段、を備え、
    前記入力判別手段は、前記相対情報取得手段で取得した前記相対情報と前記移動軌跡抽出手段で取得した前記移動パターンが前記記憶手段に記憶された複数の組み合わせ情報のいずれに該当するか判別し、判別した組み合わせ情報に関連づけられている前記制御情報をユーザの入力と判別する、
    ことを特徴とする請求項に記載の入力装置。
  9. 前記相対情報は、前記複数の移動軌跡の相対的な位置関係を示す相対位置情報、相対的な移動範囲の大きさの違いを示す相対範囲情報、相対的な移動量の違いを示す相対移動量情報、及び相対的な移動速度の違いを示す相対移動速度情報の少なくとも1つの情報から構成される、
    ことを特徴とする請求項に記載の入力装置。
  10. 前記移動軌跡抽出手段は、前記物体が描く軌跡のなかから、予め記憶された移動パターンと判別される連続する2つの移動軌跡を抽出し、
    前記相対情報取得手段は、前記連続する2つの移動軌跡の一方の移動軌跡の位置を基準とした他方の移動軌跡の方向を前記相対位置情報として取得する、
    ことを特徴とする請求項に記載の入力装置。
  11. 前記移動軌跡抽出手段は、前記物体が描く軌跡のなかから、予め記憶された移動パターンと判別される連続する2つの移動軌跡を抽出し、
    前記相対情報取得手段は、前記連続する2つの移動軌跡の移動範囲の面積比を前記相対範囲情報として取得する、
    ことを特徴とする請求項に記載の入力装置。
  12. 前記物体は人の手である、
    ことを特徴とする請求項1乃至11のいずれか1項に記載の入力装置。
  13. ユーザの意思の下に移動する物体を撮像した画像を取得する画像取得ステップと、
    前記物体が描く軌跡の中から、予め記憶された移動パターンとそれぞれ判別される連続する複数の移動軌跡を抽出する移動軌跡抽出ステップと、
    前記複数の移動軌跡の相対的な移動量の違いを示す相対移動量情報、及び相対的な移動速度の違いを示す相対移動速度情報の少なくとも1つの情報から構成される相対情報を取得する相対情報取得ステップと、
    前記相対情報に基づいてユーザの機器に対する入力を判別する入力判別ステップと、を有する、
    ことを特徴とする入力方法。
  14. ユーザの意思の下に移動する物体を撮像した画像を取得する画像取得ステップと、
    前記物体が描く軌跡の中から、予め記憶された移動パターンとそれぞれ判別される連続する複数の移動軌跡を抽出する移動軌跡抽出ステップと、
    前記複数の移動軌跡の相対的な関係を示す相対情報を取得する相対情報取得ステップと、
    前記相対情報に基づいてユーザの機器に対する入力を判別する入力判別ステップと、を有し、
    前記移動軌跡抽出ステップでは、前記移動軌跡それぞれの移動パターンが、予め記憶された複数の移動パターンのいずれに該当するか判別し、
    前記入力判別ステップでは、
    同じ移動パターンと判別される移動軌跡の連続発生回数を取得し、
    前記連続発生回数と前記移動パターンの情報と前記相対情報とに基づいてユーザの入力を判別する、
    ことを特徴とする入力方法。
  15. コンピュータに、
    ユーザの意思の下に移動する物体を撮像した画像を取得する画像取得機能と、
    前記物体が描く軌跡の中から、予め記憶された移動パターンとそれぞれ判別される連続する複数の移動軌跡を抽出する移動軌跡抽出機能と、
    前記複数の移動軌跡の相対的な移動量の違いを示す相対移動量情報、及び相対的な移動速度の違いを示す相対移動速度情報の少なくとも1つの情報から構成される相対情報を取得する相対情報取得機能と、
    前記相対情報に基づいてユーザの機器に対する入力を判別する入力判別機能と、を実現させる、
    ことを特徴とするプログラム。
  16. コンピュータに、
    ユーザの意思の下に移動する物体を撮像した画像を取得する画像取得機能と、
    前記物体が描く軌跡の中から、予め記憶された移動パターンとそれぞれ判別される連続する複数の移動軌跡を抽出する移動軌跡抽出機能と、
    前記複数の移動軌跡の相対的な関係を示す相対情報を取得する相対情報取得機能と、
    前記相対情報に基づいてユーザの機器に対する入力を判別する入力判別機能と、を実現させ、
    前記移動軌跡抽出機能では、前記移動軌跡それぞれの移動パターンが、予め記憶された複数の移動パターンのいずれに該当するか判別し、
    前記入力判別機能では、
    同じ移動パターンと判別される移動軌跡の連続発生回数を取得し、
    前記連続発生回数と前記移動パターンの情報と前記相対情報とに基づいてユーザの入力を判別する、
    ことを特徴とするプログラム。
JP2012181222A 2012-08-17 2012-08-17 入力装置、入力方法、及びプログラム Active JP5565886B2 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP2012181222A JP5565886B2 (ja) 2012-08-17 2012-08-17 入力装置、入力方法、及びプログラム
US14/421,800 US20150220155A1 (en) 2012-08-17 2013-08-14 Input device, input method, and recording medium
EP13829724.7A EP2887316A4 (en) 2012-08-17 2013-08-14 INPUT DEVICE, INPUT METHOD, AND RECORDING MEDIUM
CA2882006A CA2882006A1 (en) 2012-08-17 2013-08-14 Input device, input method, and recording medium
CN201380043894.6A CN104584077A (zh) 2012-08-17 2013-08-14 输入设备、输入方法和记录介质
KR1020157003147A KR20150034242A (ko) 2012-08-17 2013-08-14 입력 장치, 입력 방법, 및 기록 매체
PCT/JP2013/071925 WO2014027674A1 (ja) 2012-08-17 2013-08-14 入力装置、入力方法、及び記録媒体
TW102129617A TWI516985B (zh) 2012-08-17 2013-08-19 An input device, an input method, and a recording medium
IL237224A IL237224A0 (en) 2012-08-17 2015-02-15 Input device, input method and recording means
HK15107956.0A HK1207463A1 (en) 2012-08-17 2015-08-18 Input device, input method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012181222A JP5565886B2 (ja) 2012-08-17 2012-08-17 入力装置、入力方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2014038526A JP2014038526A (ja) 2014-02-27
JP5565886B2 true JP5565886B2 (ja) 2014-08-06

Family

ID=50101303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012181222A Active JP5565886B2 (ja) 2012-08-17 2012-08-17 入力装置、入力方法、及びプログラム

Country Status (10)

Country Link
US (1) US20150220155A1 (ja)
EP (1) EP2887316A4 (ja)
JP (1) JP5565886B2 (ja)
KR (1) KR20150034242A (ja)
CN (1) CN104584077A (ja)
CA (1) CA2882006A1 (ja)
HK (1) HK1207463A1 (ja)
IL (1) IL237224A0 (ja)
TW (1) TWI516985B (ja)
WO (1) WO2014027674A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107643821B (zh) * 2016-07-22 2021-07-27 北京搜狗科技发展有限公司 一种输入控制方法、装置及电子设备
CN114422762B (zh) * 2021-12-25 2023-10-13 深圳市幕工坊科技有限公司 投影幕动作控制系统
CN114332013A (zh) * 2021-12-29 2022-04-12 福州大学 基于肺动脉树分级的ct图像靶肺段识别方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6950534B2 (en) * 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
JP2002083302A (ja) 2000-09-07 2002-03-22 Sony Corp 情報処理装置、動作認識処理方法及びプログラム格納媒体
US7835999B2 (en) * 2007-06-27 2010-11-16 Microsoft Corporation Recognizing input gestures using a multi-touch input device, calculated graphs, and a neural network with link weights
JP2009093291A (ja) * 2007-10-04 2009-04-30 Toshiba Corp ジェスチャー判定装置及び方法
JP5224449B2 (ja) 2008-03-24 2013-07-03 株式会社メガチップス 機器制御方法
US8971565B2 (en) * 2008-05-29 2015-03-03 Hie-D Technologies, Llc Human interface electronic device
JP4318056B1 (ja) * 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
JP5501715B2 (ja) * 2009-09-28 2014-05-28 Necパーソナルコンピュータ株式会社 ユーザインターフェース装置、ユーザインターフェース装置の制御方法、及びプログラム
JP5413673B2 (ja) 2010-03-08 2014-02-12 ソニー株式会社 情報処理装置および方法、並びにプログラム
IL204436A (en) * 2010-03-11 2016-03-31 Deutsche Telekom Ag A system and method for remote control of online TV by waving hands
US20110299737A1 (en) * 2010-06-04 2011-12-08 Acer Incorporated Vision-based hand movement recognition system and method thereof
JP2012018544A (ja) * 2010-07-07 2012-01-26 Canon Inc 音声出力装置、音声出力方法、及びプログラム
KR101522991B1 (ko) * 2010-09-22 2015-05-26 시마네켄 조작입력장치 및 방법, 그리고 프로그램
JP5604279B2 (ja) * 2010-12-08 2014-10-08 日本システムウエア株式会社 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
US9189068B2 (en) * 2011-03-14 2015-11-17 Lg Electronics Inc. Apparatus and a method for gesture recognition

Also Published As

Publication number Publication date
EP2887316A4 (en) 2016-01-13
IL237224A0 (en) 2015-04-30
CN104584077A (zh) 2015-04-29
WO2014027674A1 (ja) 2014-02-20
TW201423483A (zh) 2014-06-16
EP2887316A1 (en) 2015-06-24
CA2882006A1 (en) 2014-02-20
US20150220155A1 (en) 2015-08-06
TWI516985B (zh) 2016-01-11
HK1207463A1 (en) 2016-01-29
KR20150034242A (ko) 2015-04-02
JP2014038526A (ja) 2014-02-27

Similar Documents

Publication Publication Date Title
US8768006B2 (en) Hand gesture recognition
JP5665140B2 (ja) 入力装置、入力方法、及びプログラム
JP5962547B2 (ja) 情報処理装置、情報処理方法およびプログラム
EP2880508B1 (en) Improved identification of a gesture
US8958631B2 (en) System and method for automatically defining and identifying a gesture
US20130241819A1 (en) Gesture recognition apparatus, electronic device, gesture recognition method, control program, and recording medium
EP2880510B1 (en) Improved video tracking
CN102906671A (zh) 手势输入装置及手势输入方法
TW201303788A (zh) 圖像分割方法以及圖像分割系統
US9880634B2 (en) Gesture input apparatus, gesture input method, and program for wearable terminal
TWI571772B (zh) 虛擬滑鼠驅動裝置及虛擬滑鼠模擬方法
JP5565886B2 (ja) 入力装置、入力方法、及びプログラム
US20150212725A1 (en) Information processing apparatus, information processing method, and program
KR101668747B1 (ko) 3차원 애니메이션 컨텐츠 저작 장치 및 그 방법
JP5785876B2 (ja) ジェスチャー認識装置におけるスイッチ押下判定システム、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
KR20120016379A (ko) 객체 제어 장치 및 방법
JP5852928B2 (ja) 所作入力装置、所作入力方法及びプログラム
KR20240003467A (ko) 모션 인식에 기초한 영상 콘텐츠 제공 시스템
CN115904063A (zh) 非接触式人机交互笔笔迹生成方法、装置、设备及系统
Padliya Gesture Recognition and Recommendations

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140612

R150 Certificate of patent or registration of utility model

Ref document number: 5565886

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350