JP5703194B2 - ジェスチャ認識装置、その方法、及び、そのプログラム - Google Patents

ジェスチャ認識装置、その方法、及び、そのプログラム Download PDF

Info

Publication number
JP5703194B2
JP5703194B2 JP2011248569A JP2011248569A JP5703194B2 JP 5703194 B2 JP5703194 B2 JP 5703194B2 JP 2011248569 A JP2011248569 A JP 2011248569A JP 2011248569 A JP2011248569 A JP 2011248569A JP 5703194 B2 JP5703194 B2 JP 5703194B2
Authority
JP
Japan
Prior art keywords
fingertip
trajectory
effective range
fingertip position
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011248569A
Other languages
English (en)
Other versions
JP2013105305A (ja
Inventor
智行 柴田
智行 柴田
山内 康晋
康晋 山内
正志 西山
正志 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011248569A priority Critical patent/JP5703194B2/ja
Priority to CN2012104542503A priority patent/CN103106391A/zh
Priority to US13/675,664 priority patent/US9207757B2/en
Publication of JP2013105305A publication Critical patent/JP2013105305A/ja
Application granted granted Critical
Publication of JP5703194B2 publication Critical patent/JP5703194B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Description

本発明の実施形態は、ジェスチャ認識装置、その方法、及び、そのプログラムに関する。
従来のジェスチャ認識装置においては、特定部位の現在の運動が高速運動であると検出された場合に、現高速運動の履歴の中から、過去の高速運動のベクトル情報である直前高速運動を抽出し、現高速運動の方向と直前高速運動の方向とがなす角を用いて、特定部位の現在の状態が、予め定められた方向へ特定部位が高速動作していることを示す送り動作であるか否かを判定する。すなわち、このジェスチャ認識装置は、ユーザの手の動きからジェスチャコマンドを判定する。
特開2010−182014号公報 特開2001−312356号公報
しかし、上記従来のジェスチャ認識装置では、手の動きの速度から送り動作を判定しているため、ユーザが送り動作を行う後に発生する戻し動作が、閾値以上の早さである場合に、その戻し動作も送り動作であると誤判定するという問題点があった。
そこで本発明の実施形態は、上記問題点に鑑み、指先動きに応じた送り動作の誤判定を軽減できるジェスチャ認識装置、その方法、及び、そのプログラムを提案することを目的とする。
本実施形態は、動画像を取得する画像取得部と、前記動画像からユーザの指先位置の軌跡を検出する検出部と、前記指先位置の軌跡から送り動作か否かの判定を行うための有効範囲を設定するものであって、前記有効範囲の一方向の大きさを前記指先の位置の軌跡から決める設定部と、前記指先位置の軌跡が、前記有効範囲に含まれている場合に、前記指先位置の軌跡が送り動作か否かを判定する判定部と、前記指先位置の軌跡が前記送り動作の場合に、前記送り動作から前記ユーザのジェスチャを認識する認識部と、を有するジェスチャ認識装置である。
実施形態1のジェスチャ認識装置のブロック図。 ジェスチャ認識装置のフローチャート。 有効範囲における指先動きの説明。 実施形態2の有効範囲における指先動きの説明。 実施形態3のジェスチャ認識装置のブロック図。 実施形態3のジェスチャ認識装置のフローチャート。 実施形態4のジェスチャ認識装置を応用した説明図。 ヘッドマウントディスプレイの表示画面。
一実施形態のジェスチャ認識装置について図面に基づいて説明する。
実施形態1
実施形態1のジェスチャ認識装置10について図1〜図3に基づいて説明する。
本実施形態に係わるジェスチャ認識装置10は、ユーザの1本の指Fの指先動きにより画面を操作するためのものであり、ユーザの送り動作を検知して対応する方向に画面の表示内容を遷移させる。なお、「送り動作」とは、ユーザの一方向への指先動きである。なお、一方向とは、上方向、下方向、左方向、右方向、又は、斜め上方向、斜め下方向などの一つの方向を意味する。
ユーザの指先の送り動作を繰り返し行う場合、送り動作の後に指先を元の位置に戻す動作を「戻し動作」という。
ジェスチャ認識装置10の構成について図1のブロック図に基づいて説明する。
ジェスチャ認識装置10は、撮像部11、画像取得部12、検出部13、判定部14、設定部15、認識部16、表示部17とを有する。
撮像部11は、ユーザの1本の指Fの指先動きを動画像で撮像する。撮像部11は、イメージセンサなどの撮像素子、又は、カメラなどであり、単眼の撮像素子に限らず、各画素にセンサからの各画素に撮像された物体までの推定した距離が付加される距離センサ、同様にセンサからの距離が取得できる複数の撮像素子を用いてもよい。
画像取得部12は、撮像部11で取得した動画像を取得する。
検出部13は、動画像から1本の指Fの指先位置の軌跡を検出する。
判定部14は、検出した1本の指Fの指先位置の軌跡、設定部15から送られた有効範囲Aに基づいて指先動きが送り動作か否かを判定する。
設定部15は、指先動きが送り動作か否かを判定するのに用いる有効範囲Aを設定する。
認識部16は、判定部14が判定した送り動作から、ユーザのジェスチャを認識する。
表示部17は、画像取得部12で取得した動画像を表示すると共に、設定部15で設定した有効範囲Aを重畳して表示する。
ジェスチャ認識装置10の動作について図2のフローチャートに基づいて説明する。
ステップS101において、撮像部11が、ユーザの1本の指Fの指先動きを撮像し、画像取得部12は、撮像された動画像の各画像(各フレーム)を取得し、取得した各フレームを検出部13へ送り、ステップS102に進む。
ステップS102において、検出部13は、送られてきた動画像の各フレームに写っている1本の指Fの指先位置をそれぞれ検出する。以下、この検出方法を順番に説明する。
第1に、検出部13は、予め指先のパターンと背景のパターンから2クラス識別器を学習し、取得した1フレーム中から指先パターンに識別される矩形領域を探索する。指先の領域は、特徴的なテクスチャが少ないため、次の傾向の異なる特徴を相補的に利用し,カスケード接続することで高速で高精度な検出処理を実現する。
第2に、検出部13は、顔検出向けに開発された共起関係のHaar−like特徴であるJoint Haar−like特徴量を用いて、AdaBoostアルゴリズムで学習した識別器(T. Mita, T. Kaneko, B. Stenger, and O. Hori, Discriminative feature co-occurrence selection for object detection, IEEE Trans. Pattern Anal. Mach. Intell.,Vol.30,No.7,pp.1257-1269, 2008.参照)により指先の候補領域を抽出する。
第3に、検出部13は、人物検出向けに開発された輝度勾配の組み合わせによる2次元ヒストグラムから得られる共起行列であるCo−occurrence Histograms of Oriented Gradients特徴を用いて、Support Vector Machineで学習した識別器(T. Watanabe, S. Ito, and K. Yokoi, Co-occurrence histograms of oriented gradients of pedestrian detection, In PSIVT 2009, LNCS, Vol. 5414, pp. 37-47, 2009.参照)で最終的に指先位置を検出する。
なお、前段の識別器は、非常に高速に識別できるという特徴を有し、後段の識別器は前記識別器よりも高速でないものの詳細な特徴を用いて精度よく識別できる特徴を有する。
また、検出部13は、過去フレームにおいて指先検出した結果が存在する場合、その結果に基づき追跡処理を行う。
上記の検出方法は、いずれもテクスチャに着目した特徴(例えば、特徴量)から指先か否かを検出するため、モーションブラーによる指先のテクスチャが精細に撮像できないと、検出できない。そのため、色情報を用いて指先を、非特許文献(D.Comaniciu, V .Ramesh and P. Meer, Kernel Based Object Tracking, PAMI,Vol.25,No.5,pp.564-577,2003.)に記載された方法に基づき追跡してもよい。
検出部13は、現フレームで検出した1本の指Fの指先位置と、過去の指先位置の軌跡を論理和で統合した結果を、最終的な現フレームの指先位置とする。
検出部13は、検出した現フレームの1本の指Fの指先位置(例えば、左上の座標と右下の座標で表す長方形)を設定部4と判定部5へ送る。
検出部13は、引き続き動画像のフレーム毎に1本の指Fの指先位置の検出を行う。これにより、検出部13は、検出した指先位置の軌跡を送ることとなる。
ステップS103において、判定部14は、送られてきた現フレームから過去のフレームの1本の指Fの指先位置の軌跡と、設定部15から送られた有効範囲Aに基づいて、1本の指Fの指先動きが送り動作であるか否かを図3に示すように判定する。この指先位置の軌跡は、検出部13から送られてきた任意のフレーム数N(例えば、5フレーム)のそれぞれの指先位置を用いる。
また、判定部14は、有効範囲A内でのみ指先動きを判定する。この有効範囲Aは、設定部15が前フレームまでの指先動きから設定されるものであり、この設定については後から説明する。また、判定部14は、この有効範囲A以外の範囲については、指先動きは判定しない。
まず、判定部14は、指先位置の軌跡が、有効範囲A内に含まれるか否かを判定し、有効範囲A内のときは次の処理に移行し、有効範囲A外のときは送り動作でないと判定する。
次に、判定部14は、指先位置の軌跡から求まる画像中の現時点での指先の速度(x成分とy成分)と加速度(x成分とy成分)からなる特徴量をもとに、予め学習した動き(一方向の指先動き)であるか否かを判定する。この判定には識別器を用い、例えばk−Nearest Neighbour Classificationでもよいし、Support Vector Machineでもよいが、予め動き(一方向の指先動き)を学習しておく。判定部14は、この判定により指先がジクザクに動いたりする動作を排除できる。
また、速度の閾値と加速度に閾値とを予め決定しておき、判定部14は、指先動きが送り動作であっても、ゆっくりした指Fの動作を排除できる。
但し、上記判定では、戻し動作については排除できないため、図3に示すように、ユーザは、戻し動作については、有効範囲A以外で行う。
判定部14は、送り動作と判定した指先動きの判定結果を認識部16に送り、ステップS104に進む。
ステップS104において、設定部15は、検出部13から送られてきたNフレーム間の1本の指Fの指先位置の軌跡から、次フレームにおける指先動きの判定に用いる有効範囲Aを設定して判定部14に送り、表示部17に写っている画像中に有効範囲Aを重畳して表示する。
まず、設定部15は、有効範囲Aの初期範囲を画像全体に設定する。
次に、設定部15は、検出部13が検出したNフレーム間の1本の指Fの指先位置の軌跡から、指先の動いた範囲を有効範囲Aとして設定する。例えば、N=5とした場合に、設定部15は、過去のnフレーム目の指先位置から(n+4)フレーム目の指先位置の軌跡で表現される領域を有効範囲Aとして設定する。この有効範囲Aは、厳密に指先が移動した領域である必要はなく、図3に示すように、矩形領域で表現し、例えば、横方向の大きさは、nフレーム目の指先位置と(n+4)フレーム目の指先位置とによって決まり、縦方向は指先の1〜3倍の大きさに設定する。
次に、設定部15は、設定した(n+4)フレーム目の有効範囲Aを判定部14と表示部17へ送る。判定部14は、上記したように(n+5)フレーム目の判定に用いる。また、表示部17は、図3に示すように、画像中に有効範囲Aを重畳して表示する。
なお、設定部15は、nフレーム目において検出された指先位置と(n+1)フレーム目において検出された指先位置が、閾値以上の距離が離れている場合は、有効範囲Aを初期化する。
ステップS105において、認識部16は、判定部14で判定した送り動作に基づいて、ユーザのジェスチャを認識して終了する。この認識方法は、例えば、特許文献1に記載した方法を用いる。
本実施形態によれば、送り動作のみを判定でき、戻し動作を送り動作と誤判定することを軽減できる。すなわち、ユーザが、表示部17に写った有効範囲A以外で戻し動作を行うことにより、従来のように戻し動作を送り動作と誤判定することを軽減できる。
実施形態2
次に、実施形態2に係わるジェスチャ認識装置10について図4に基づいて説明する。
本実施形態のジェスチャ認識装置10と実施形態1のジェスチャ認識装置10の異なる点は、判定部14と設定部15の機能にある。
本実施形態では、設定部15は、画像中に有効範囲Aを設定するのではなく、送り動作を示す1次元の方向ベクトルも設定する。
判定部14は、図4に示すように、有効範囲A中の指先動きに関して、指先位置の軌跡から求めた指先動きベクトルと方向ベクトルのなす角度θ1と判定角度θ0(例えば、−30°<=θ0<=30°)とを比較し、判定部14は、θ1<=θ0のときを送り動作と判定する。なお、図4においては、送り動作がθ1=0°で示し、戻し動作はθ1=180°で示している。
そして、設定部15は、設定した有効範囲Aと指先位置との距離が閾値以上となると、有効範囲Aを初期化する。
なお、本実施形態の場合は、有効範囲Aを表示部17に表示する必要がない。
本実施形態であると、実施形態1のようにユーザが表示部17に写った有効範囲A以外で戻し動作を行う必要がなく、有効範囲Aで戻し動作を行っても、送り動作のみを判定できる。
実施形態3
次に、実施形態3に係わるジェスチャ認識装置100について図5と図6に基づいて説明する。
本実施形態のジェスチャ認識装置100と実施形態1のジェスチャ認識装置10の異なる点は、本実施形態のジェスチャ認識装置100が管理部118を有する点にある。すなわち、実施形態1のジェスチャ認識装置10は一本の指Fの指先動きによるジェスチャ認識していたが、本実施形態のジェスチャ認識装置100は、管理部118を設けることにより複数本の指Fの指先動きによるジェスチャ認識を行う。
なお、ジェスチャ認識装置100の中でジェスチャ認識装置10と同様な部分については説明を省略する。
ジェスチャ認識装置100の構成について図5のブロック図に基づいて説明する。
ジェスチャ認識装置100は、図5に示すように、撮像部111、画像取得部112、検出部113、判定部114、設定部115、認識部116に加えて、上記したように管理部118を有する。
撮像部111は、ユーザの複数本の指Fの指先を撮像する。
画像取得部112は、その撮像した動画像を取得する。
検出部113は、各フレーム中の各指先位置をそれぞれ検出し、管理部118にその検出結果を送る。この検出方法は実施形態1と同様である。
管理部118は、複数本の指Fの指先から1本の指Fの指先を特定し、その特定指先位置の軌跡のみを判定部114、設定部115に送る。
判定部114は、管理部118が特定した指先に関して、検出部113から管理部118を経て送られてきたその特定指先位置の軌跡と、設定部115で設定された有効範囲Aとを基に指先動きが送り動作であるか否かを判定する。この判定方法は実施形態1と同様である。
設定部115は、検出部113から管理部118を経て送られてきたその特定指先位置の軌跡から有効範囲Aを設定し、判定部114へ送る。この設定方法は実施形態1と同様である。
管理部118は、1本の指先動きが送り動作であるか否かを判定した後に、次の指先動きを判定するように、判定部114、設定部115に特定指先位置の軌跡を送り、全ての指Fの指先動きの判定が終了すると、この制御を終了する。
認識部116は、判定した各指先動き(送り動作)を統合し、複数の指先動きで定義されるジェスチャであるか否かを認識する。例えば、2本の指先動きで定義されるジェスチャには、2本の指が異なる方向に移動し間を広げる操作である「ピンチアウト」や、2本の指を縮める操作である「ピンチイン」などがある。このとき片手の2本の指で行うジェスチャであってもよいし、両手で1本ずつ行うジェスチャであってもよいし、2人のユーザのそれぞれの指を用いたジェスチャであってもよい。
また、判定部114で判定可能な1次元方向の指先動きであれば、2本以上の指先動きで定義できるジェスチャであればよく、片手の全ての指(5本)を手の中央から外側へはじく動作で表示してある複数オブジェクトがばらばらに散らばるようなジェスチャを定義してもよい。
ジェスチャ認識装置100の動作について図6のフローチャートに基づいて説明する。なお、ジェスチャ認識装置100の動作のうち、図6のステップS101〜S102は、図2のステップS101〜S102と同様であるため説明を省略する。
ステップS303において、管理部118は、検出部203が検出した指Fの本数と、それら指Fの指先位置がそれぞれフレーム毎に入力される。管理部118は、指先動きを判定した指Fを順番に特定して、特定指先位置の軌跡を判定部114と設定部115に送る。
ステップS304において、判定部14は、特定指先位置の軌跡に関して、設定部115で設定された有効範囲Aを基に指先動作が送り動作か否かを判定する。設定部115は、判定結果を認識部116へ送る。
ステップS305において、設定部115は、指先動きの判定に用いる次フレームからの有効範囲Aを特定指先位置の軌跡から設定し、判定部114へ送る。
ステップS306において、認識部116は、全ての指Fの指先動きの組み合わせが、予め設定したジェスチャであるか否かを認識して終了する。
実施形態4
次に、実施形態4について図7と図8に基づいて説明する。本実施形態は、実施形態1のジェスチャ認識装置1をヘッドマウントディスプレイ302に適用した例である。
図7に示すように、本実施形態は、ヘッドマウントディスプレイ302の表示項目送りをジェスチャで行う。ハンズフリーを目的として開発されたヘッドマウントディスプレイ302は、ハンズフリーな操作が可能なジェスチャ認識による操作が有益である。
ヘッドマウントディスプレイ302は、ウェアラブルコンピュータ300、表示部17、撮像部11を有する。ジェスチャ認識装置10は、ウェアラブルコンピュータ300にプログラムとして内蔵されている。
撮像部11は、ユーザの視線方向を撮影している。
表示部17は、ヘッドマウントディスプレイ302に画像を表示する。
ウェアラブルコンピュータ300(ジェスチャ認識装置10)は、ユーザの指Fによる送り動作を認識し、図8に示すように、その指Fの送り動作に基づいて、表示部17によってヘッドマウントディスプレイ302で表示中の複数項目を動作の方向へスクロールさせるコマンドを実行する。
本実施形態によれば、ユーザは送り動作によって、送った方向に項目をスクロールさせ詳細を閲覧できる。
変更例
上記各実施形態の変更例について説明する。
変更例1は、判定部14が判定に用いる特徴量の変更例である。上記実施形態の以外の他の特徴量としては、次のようなものもある。
第1の他の特徴量としては、Nフレームの平均x速度、Nフレームの平均x加速度、Nフレームの平均y速度、Nフレームの平均y加速度の4次元特徴量を用いる。
第2の他の特徴量としては、に、使用する履歴数がN−1の速度と、N−2の加速度を要素としてもつ4N−6次元の特徴量を用いる。
上記実施形態4はヘッドマウントディスプレイ302で説明したが、これに限らず、ジェスチャ認識装置10を他の機器に適用してもよく、また、実施形態2のジェスチャ認識装置100を適用してもよい。
ジェスチャ認識装置10,100は、例えば、汎用のコンピュータを基本ハードウェアとして用いることでも実現することが可能である。すなわち、画像取得部12.112、検出部13,113、判定部14,114、設定部15,115、管理部118は、上記のコンピュータに搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、ジェスチャ認識装置10,100は、上記のプログラムをコンピュータに予めインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記録して、又はネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータに適宜インストールすることで実現してもよい。また、画像取得部12.112、検出部13,113、判定部14,114、設定部15,115、管理部118は、上記のコンピュータに内蔵又は外付けされたメモリ、ハードディスクもしくはCD−R,CD−RW,DVD−RAM,DVD−Rなどの記憶媒体などを適宜利用して実現できる。
上記では本発明の一実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の主旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10,100・・・ジェスチャ認識装置、12,112・・・画像取得部、13,113・・・検出部、14,114・・・判定部、15,115・・・設定部、16,116・・・認識部、117・・・管理部

Claims (8)

  1. 動画像を取得する画像取得部と、
    前記動画像からユーザの指先位置の軌跡を検出する検出部と、
    前記指先位置の軌跡から送り動作か否かの判定を行うための有効範囲を設定するものであって、前記有効範囲の一方向の大きさを前記指先の位置の軌跡から決める設定部と、
    前記指先位置の軌跡が、前記有効範囲に含まれている場合に、前記指先位置の軌跡が送り動作か否かを判定する判定部と、
    前記指先位置の軌跡が前記送り動作の場合に、前記送り動作から前記ユーザのジェスチャを認識する認識部と、
    を有するジェスチャ認識装置。
  2. 前記動画像と前記有効範囲を重畳して表示する表示部をさらに有する、
    請求項1に記載のジェスチャ認識装置。
  3. 前記設定部は、前記有効範囲に加えて、前記送り動作の指先動きを示す方向ベクトルも設定し、
    前記判定部は、前記指先位置の軌跡が前記有効範囲に含まれ、かつ、前記指先位置の軌跡が表す指先動きベクトルと前記方向ベクトルとのなす角度が判定角度より小さいときに前記送り動作と判定する、
    請求項1に記載のジェスチャ認識装置。
  4. 前記検出部が複数本の指の各指先位置の軌跡をそれぞれ検出した場合に、前記指毎の前記指先位置の軌跡を前記判定部と前記設定部に順番に送る管理部をさらに有し、
    前記設定部は、前記指毎に前記有効範囲を設定し、
    前記判定部は、前記指毎に前記送り動作か否かを判定し、
    前記認識部は、前記複数本の指の前記送り動作を統合して、前記ユーザのジェスチャを認識する、
    請求項1乃至3のいずれか一項に記載のジェスチャ認識装置。
  5. 前記有効範囲が矩形領域である、
    請求項1乃至4のいずれか一項に記載のジェスチャ認識装置。
  6. 前記設定部は、前記矩形領域からなる前記有効範囲の一方向の大きさを前記指先の位置の軌跡から決め、他方向の大きさを指先の大きさから決める、
    請求項5に記載のジェスチャ認識装置。
  7. 動画像を取得し、
    前記動画像からユーザの指先位置の軌跡を検出し、
    前記指先位置の軌跡から送り動作か否かの判定を行うための有効範囲を設定するものであって、前記有効範囲の一方向の大きさを前記指先の位置の軌跡から決め
    前記指先位置の軌跡が、前記有効範囲に含まれている場合に、前記指先位置の軌跡が送り動作か否かを判定し、
    前記指先位置の軌跡が前記送り動作の場合に、前記送り動作から前記ユーザのジェスチャを認識する、
    ジェスチャ認識方法。
  8. 動画像を取得する画像取得機能と、
    前記動画像からユーザの指先位置の軌跡を検出する検出機能と、
    前記指先位置の軌跡から送り動作か否かの判定を行うための有効範囲を設定するものであって、前記有効範囲の一方向の大きさを前記指先の位置の軌跡から決める設定機能と、
    前記指先位置の軌跡が、前記有効範囲に含まれている場合に、前記指先位置の軌跡が送り動作か否かを判定する判定機能と、
    前記指先位置の軌跡が前記送り動作の場合に、前記送り動作から前記ユーザのジェスチャを認識する認識機能と、
    をコンピュータによって実現するためのジェスチャ認識プログラム。
JP2011248569A 2011-11-14 2011-11-14 ジェスチャ認識装置、その方法、及び、そのプログラム Active JP5703194B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011248569A JP5703194B2 (ja) 2011-11-14 2011-11-14 ジェスチャ認識装置、その方法、及び、そのプログラム
CN2012104542503A CN103106391A (zh) 2011-11-14 2012-11-13 手势识别设备及其方法
US13/675,664 US9207757B2 (en) 2011-11-14 2012-11-13 Gesture recognition apparatus, method thereof and program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011248569A JP5703194B2 (ja) 2011-11-14 2011-11-14 ジェスチャ認識装置、その方法、及び、そのプログラム

Publications (2)

Publication Number Publication Date
JP2013105305A JP2013105305A (ja) 2013-05-30
JP5703194B2 true JP5703194B2 (ja) 2015-04-15

Family

ID=48314240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011248569A Active JP5703194B2 (ja) 2011-11-14 2011-11-14 ジェスチャ認識装置、その方法、及び、そのプログラム

Country Status (3)

Country Link
US (1) US9207757B2 (ja)
JP (1) JP5703194B2 (ja)
CN (1) CN103106391A (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5962403B2 (ja) * 2012-10-01 2016-08-03 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
JP2014241005A (ja) * 2013-06-11 2014-12-25 株式会社東芝 表示制御装置、表示制御方法、及び表示制御プログラム
CN103336579A (zh) * 2013-07-05 2013-10-02 百度在线网络技术(北京)有限公司 穿戴式设备的输入方法和穿戴式设备
US9213817B2 (en) 2013-08-28 2015-12-15 Paypal, Inc. Motion-based credentials using magnified motion
US10401966B2 (en) * 2015-05-15 2019-09-03 Atheer, Inc. Method and apparatus for applying free space input for surface constrained control
CN106491071A (zh) * 2015-09-06 2017-03-15 中兴通讯股份有限公司 一种检测视力的方法和终端
JPWO2017065050A1 (ja) * 2015-10-16 2018-08-02 コニカミノルタ株式会社 入力装置、電子機器、電子機器の入力方法及びその入力プログラム
JPWO2017065051A1 (ja) * 2015-10-16 2018-08-02 コニカミノルタ株式会社 入力装置、電子機器、電子機器の入力方法及びその入力プログラム
CN106570972B (zh) * 2016-11-14 2019-09-17 浙江大华技术股份有限公司 一种开锁方法、系统及装置
CN112764524A (zh) * 2019-11-05 2021-05-07 沈阳智能机器人国家研究院有限公司 一种基于纹理特征的肌电信号手势动作识别方法
JP7122408B2 (ja) * 2020-10-28 2022-08-19 株式会社日本総合研究所 情報処理装置及び情報処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001312356A (ja) * 2000-04-28 2001-11-09 Tomohiro Kuroda 身体を利用する画像入力インタフェースを備えた一体型装着型計算機
US7034838B2 (en) * 2001-12-27 2006-04-25 Ricoh Company, Ltd. Information processing apparatus
JP2010009558A (ja) * 2008-05-28 2010-01-14 Oki Semiconductor Co Ltd 画像認識装置、電装機器動作制御ユニット、電化製品、画像認識プログラム、半導体装置
JP5175755B2 (ja) * 2009-02-04 2013-04-03 株式会社東芝 ジェスチャ認識装置、その方法及びそのプログラム
CN101655756A (zh) 2009-07-15 2010-02-24 苏州瀚瑞微电子有限公司 触控板的手势检测方法
JP5209795B2 (ja) * 2009-09-09 2013-06-12 シャープ株式会社 ジェスチャー判定装置およびその方法
JP5569062B2 (ja) * 2010-03-15 2014-08-13 オムロン株式会社 ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム
US8331908B2 (en) * 2010-10-04 2012-12-11 Microsoft Corporation Mobile telephone hosted meeting controls
US8760417B2 (en) * 2010-10-15 2014-06-24 Sap Ag Touch-enabled circle control for time and date entry
CN102142084B (zh) * 2011-05-06 2012-12-26 北京网尚数字电影院线有限公司 一种手势识别的方法

Also Published As

Publication number Publication date
CN103106391A (zh) 2013-05-15
US20130135192A1 (en) 2013-05-30
JP2013105305A (ja) 2013-05-30
US9207757B2 (en) 2015-12-08

Similar Documents

Publication Publication Date Title
JP5703194B2 (ja) ジェスチャ認識装置、その方法、及び、そのプログラム
Mukherjee et al. Fingertip detection and tracking for recognition of air-writing in videos
Al-Shamayleh et al. A systematic literature review on vision based gesture recognition techniques
US10901519B2 (en) Cursor mode switching
US8768006B2 (en) Hand gesture recognition
US9256324B2 (en) Interactive operation method of electronic apparatus
EP3090382B1 (en) Real-time 3d gesture recognition and tracking system for mobile devices
US10242294B2 (en) Target object classification using three-dimensional geometric filtering
JP2020119510A (ja) フィンガーチップモーションパターンのリアルタイムのジェスチャへのオンデバイス分類
JP2014137818A (ja) 手の平開閉動作識別方法と装置、マン・マシン・インタラクション方法と設備
TWI571772B (zh) 虛擬滑鼠驅動裝置及虛擬滑鼠模擬方法
TW201407420A (zh) 改善之視訊追蹤
US20150199592A1 (en) Contour-based classification of objects
US20160140762A1 (en) Image processing device and image processing method
Hoque et al. Computer vision based gesture recognition for desktop object manipulation
Jain et al. Gestarlite: An on-device pointing finger based gestural interface for smartphones and video see-through head-mounts
Dominio et al. Feature descriptors for depth-based hand gesture recognition
US11340706B2 (en) Gesture recognition based on depth information and computer vision
Wong et al. Virtual touchpad: Hand gesture recognition for smartphone with depth camera
Lee et al. Real time FPGA implementation of hand gesture recognizer system
Kang et al. Laser-pointer human computer interaction system
Ukita et al. Wearable vision interfaces: towards wearable information playing in daily life
AHAD et al. Human-Human Interaction Recognition Based on Gradient-Based Features
Richhariya et al. A Survey: Movement of the Hand motion Trajectory for dependent and independent Recognition
Jordan et al. Vision-Based Human-Computer Interaction through Real-Time Hand Tracking and Gesture Recognition Dept. of CIS-Senior Design 2009-2010

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141119

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150223

R151 Written notification of patent or utility model registration

Ref document number: 5703194

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350