JPWO2011142317A1 - ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 - Google Patents
ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 Download PDFInfo
- Publication number
- JPWO2011142317A1 JPWO2011142317A1 JP2012514789A JP2012514789A JPWO2011142317A1 JP WO2011142317 A1 JPWO2011142317 A1 JP WO2011142317A1 JP 2012514789 A JP2012514789 A JP 2012514789A JP 2012514789 A JP2012514789 A JP 2012514789A JP WO2011142317 A1 JPWO2011142317 A1 JP WO2011142317A1
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- hand
- gravity
- center
- palm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Abstract
【課題】自由空間におけるユーザのジェスチャーを正確に認識することが可能なジェスチャー認識装置を提供する。【解決手段】本発明は、処理装置に搭載され、動画像を介して自由空間における人間の手によるジェスチャーを認識し、該認識したジェスチャーに応じた所定の操作を前記処理装置に実行させるジェスチャー認識装置(1000)であり、前記手の掌部分の重心を特定する掌重心特定手段(30)と、前記手の掌部分の面積を特定する掌面積特定手段(40)と、前記重心と手の指先との間の距離を求める指長さ算出手段(50)と、前記重心と指先とを結んだ直線がなす角度を求める角度算出手段(50)と、前記手の掌部分の重心の変位と、前記手の掌部分の面積の変動と、前記重心と手の指先との間の距離の変動と、前記重心と指先とを結んだ直線がなす角度の変動と、の組み合わせによって、前記ジェスチャーを識別するジェスチャー識別手段(60)と、を備える。【選択図】図1
Description
本発明は、ジェスチャーを認識する装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体に関し、より詳細には、ユーザに直観的な操作を提供可能なジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体に関する。
パーソナルコンピュータの操作を目的とした種々の入力デバイスが市販されている。この入力デバイスの例としては、マウス、トラックボール、ジョイスティック、タッチパネルなどが挙げられる。このような入力デバイスはキーボードとは異なり、ユーザに種々の直観的な操作を提供することができる。
特にタッチパネルは他の入力デバイスと異なり、専用の作業領域を必要とせず、指や専用のペンをディスプレイの表面に接触させることで様々な操作が可能となるため、主にモバイル用のコンピュータに加え、自動販売機、携帯電話、カーナビ、OA機器など多種の機器に搭載されている。
タッチパネルは、液晶などのディスプレイの表面に接触を検知するための素子を配置し、さらにそれを透明なスクリーンで覆うことで作成される。画面への接触を感知する方式は感圧式と静電式との2種類があり、前者は圧力の変化を感知し、後者は静電気による電気信号を感知する(特許文献1参照)。
しかし、タッチパネルは常にユーザの指やペンによって触れられるため、ディスプレイの表面が汚れて視認し難くなる。さらに、強く押圧することにより、ディスプレイの表面に傷がつく、あるいは破損する等の不具合が発生するおそれがある。
上述の不具合点を改善したものがジェスチャー認識装置である。特許文献2はジェスチャー認識装置の一例を開示している。このように、ジェスチャー認識装置は自由空間にユーザの手などで行われるジェスチャーをカメラで撮像し、その画像を基にそのジェスチャーを認識し、それに応じた操作を処理装置に行わせている。これは、タッチパネルと異なって非接触方式を採用しているため、ディスプレイに悪影響を与えることはない。
しかし、現行のジェスチャー認識装置はいくつかの改善すべき問題点がある。
ユーザによるジェスチャーは自由空間内で行われるため、その挙動は複雑かつ不安定になる。そのため、ユーザによる意図的な動作なのか、あるいは無意識な動作なのかを判別する、あるいは特定のジェスチャーの開始点、終了点などを認識することが困難である。また、三次元の動きをカメラで撮像して二次元の画像で判定するため、カメラに対して遠近方向の動きと、上下左右の動きとを明確に区分けすることができず、そのためには複数のカメラでジェスチャーを撮像するなど複雑な構成を用いねばならない。
ユーザによるジェスチャーは自由空間内で行われるため、その挙動は複雑かつ不安定になる。そのため、ユーザによる意図的な動作なのか、あるいは無意識な動作なのかを判別する、あるいは特定のジェスチャーの開始点、終了点などを認識することが困難である。また、三次元の動きをカメラで撮像して二次元の画像で判定するため、カメラに対して遠近方向の動きと、上下左右の動きとを明確に区分けすることができず、そのためには複数のカメラでジェスチャーを撮像するなど複雑な構成を用いねばならない。
本発明の目的は、単純な構成で自由空間におけるユーザのジェスチャーを正確に認識することが可能なジェスチャー認識装置、該装置によるジェスチャー認識方法、該方法を実行するプログラム、並びに該プログラムを格納したコンピュータ可読媒体を提供することである。
本発明の別の目的は、ジェスチャーの開始および終了を正確に認識することが可能なジェスチャー認識装置、該装置によるジェスチャー認識方法、該方法を実行するプログラム、並びに該プログラムを格納したコンピュータ可読媒体を提供することである。
本発明のさらに別の目的は、より直感的な操作をユーザに提供可能なジェスチャー認識装置、該装置によるジェスチャー認識方法、該方法を実行するプログラム、並びに該プログラムを格納したコンピュータ可読媒体を提供することである。
前記課題を解決するために創案された請求項1の発明は、処理装置に搭載され、動画像を介して自由空間における人間の手によるジェスチャーを認識し、該認識したジェスチャーに応じた所定の操作を前記処理装置に実行させるジェスチャー認識装置であって、前記手の掌部分の重心を特定する掌重心特定手段と、前記手の掌部分の面積を特定する掌面積特定手段と、前記重心と手の指先との間の距離を求める指長さ算出手段と、前記重心と指先とを結んだ直線がなす角度を求める角度算出手段と、前記手の掌部分の重心の変位と、前記手の掌部分の面積の変動と、前記重心と手の指先との間の距離の変動と、前記重心と指先とを結んだ直線がなす角度の変動と、の組み合わせによって、前記ジェスチャーを識別するジェスチャー識別手段と、を備える。
前記課題を解決するために創案された請求項2の発明は、請求項1に記載のジェスチャー認識装置において、前記ジェスチャー識別手段が前記手の掌部分の重心が変位したときに、前記手が上下左右の何れかに移動したと判断することである。
前記課題を解決するために創案された請求項3の発明は、請求項1または2に記載のジェスチャー認識装置において、前記ジェスチャー識別手段が前記手の掌部分の面積が変動したときに、前記手が前後の何れかに移動したと判断することである。
前記課題を解決するために創案された請求項4の発明は、請求項1ないし3の何れか一項に記載のジェスチャー認識装置において、前記ジェスチャー識別手段が前記手の掌部分の面積が一定で、かつ前記重心と手の指先との間の距離が変動したときに、前記手の指が示す形状が変化したと判断することである。
前記課題を解決するために創案された請求項5の発明は、請求項1ないし4の何れか一項に記載のジェスチャー認識装置において、前記ジェスチャー識別手段が前記重心と指先とを結んだ直線がなす角度が変動したときに、前記手の掌部分が回転していると識別することである。
前記課題を解決するために創案された請求項6の発明は、請求項1ないし5の何れか一項に記載のジェスチャー認識装置において、前記ジェスチャーは、操作開始を示すジェスチャーと、操作を実行するジェスチャーと、操作終了を示すジェスチャーと、を含むことである。
前記課題を解決するために創案された請求項7の発明は、請求項1ないし6の何れか一項に記載のジェスチャー認識装置において、前記操作終了を示すジェスチャーが前記掌の重心が下方向に移動し、前記掌の面積が減少し、前記重心と手の指先との間の距離が短縮した場合に該当することである。
前記課題を解決するために創案された請求項8の発明は、請求項1ないし7の何れか一項に記載のジェスチャー認識装置において、前記処理装置に実行させる操作が、該処理装置の画面にメニューを表示させること、該処理装置の画面に表示されたオブジェクトの大きさを変えること、該処理装置の画面に表示されたオブジェクトを移動および回転させること、該処理装置の画面に表示された複数の画像をスクロールまたはコマ送りすること、を含むことである。
前記課題を解決するために創案された請求項9の発明は、請求項1ないし8の何れか一項に記載のジェスチャー認識装置において、前記ジェスチャー認識装置が複数のジェスチャーを同時に認識し、該認識したジェスチャーのそれぞれに応じた操作を前記処理装置に同時に実行させることである。
前記課題を解決するために創案された請求項10の発明は、請求項1ないし9の何れか一項に記載のジェスチャー認識装置において、前記処理装置がパーソナルコンピュータと、携帯端末と、カーナビゲーションと、携帯電話と、を含むことである。
前記課題を解決するために創案された請求項11の発明は、動画像を介して自由空間における人間の手によるジェスチャーを認識し、該認識したジェスチャーに応じた所定の操作を処理装置に実行させるジェスチャー認識方法であって、前記手の掌部分の重心を特定する掌重心特定段階と、前記手の掌部分の面積を特定する掌面積特定段階と、前記重心と手の指先との間の距離を求める指長さ算出段階と、前記重心と指先とを結んだ直線がなす角度を求める角度算出段階と、前記手の掌部分の重心の変位と、前記手の掌部分の面積の変動と、前記重心と手の指先との間の距離の変動と、前記重心と指先とを結んだ直線がなす角度の変動と、の組み合わせによって、前記ジェスチャーを識別するジェスチャー識別段階と、を含む。
前記課題を解決するために創案された請求項12の発明は、請求項11に記載のジェスチャー認識方法において、前記ジェスチャー識別段階で、前記手の掌部分の重心が変位したときには、前記手が上下左右の何れかに移動したと判断することである。
前記課題を解決するために創案された請求項13の発明は、請求項11または12に記載のジェスチャー認識方法において、前記ジェスチャー識別段階で、前記手の掌部分の面積が変動したときには、前記手が前後の何れかに移動したと判断することである。
前記課題を解決するために創案された請求項14の発明は、請求項11ないし13の何れか一項に記載のジェスチャー認識方法において、前記ジェスチャー識別段階で、前記手の掌部分の面積が一定で、かつ前記重心と手の指先との間の距離が変動したときには、前記手の指が示す形状が変化したと判断することである。
前記課題を解決するために創案された請求項15の発明は、請求項11ないし14の何れか一項に記載のジェスチャー認識方法において、前記ジェスチャー識別段階で、前記重心と指先とを結んだ直線がなす角度が変動したときには、前記手の掌部分が回転していると識別することである。
前記課題を解決するために創案された請求項16の発明は、請求項11ないし15の何れか一項に記載のジェスチャー認識方法において、前記ジェスチャーが、操作開始を示すジェスチャーと、操作を実行するジェスチャーと、操作終了を示すジェスチャーと、を含むことである。
前記課題を解決するために創案された請求項17の発明は、請求項11ないし16の何れか一項に記載のジェスチャー認識方法において、前記操作終了を示すジェスチャーが、前記掌の重心が下方向に移動し、前記掌の面積が減少し、前記重心と手の指先との間の距離が短縮した場合に該当することである。
前記課題を解決するために創案された請求項18の発明は、請求項11ないし17の何れか一項に記載のジェスチャー認識方法において、前記処理装置に実行させる操作が、該処理装置の画面にメニューを表示させること、該処理装置の画面に表示されたオブジェクトの大きさを変えること、該処理装置の画面に表示されたオブジェクトを移動および回転させること、該処理装置の画面に表示された複数の画像をスクロールまたはコマ送りすること、を含むことである。
前記課題を解決するために創案された請求項19の発明は、請求項11ないし18の何れか一項に記載のジェスチャー認識方法を実行する電子回路である。
前記課題を解決するために創案された請求項20の発明は、請求項11ないし18の何れか一項に記載のジェスチャー認識方法を前記処理装置に実行させるプログラムである。
前記課題を解決するために創案された請求項21の発明は、請求項20に記載のプログラムを格納したコンピュータ可読媒体である。
請求項1および請求項11の発明では、人間の手のジェスチャーを認識するために、掌の重心と、掌の面積と、指の長さと、指の角度と、からなる要素の組み合わせを用いている。これらの要素を組み合わせれば、自由空間のような三次元の不安定な領域におけるジェスチャーであっても正確に認識することができる。
請求項2および請求項12の発明では、手の水平方向(上下左右)の移動を掌の重心の移動で判別する。人間が意図的に手を上下左右に動かせば、掌の重心のみが動き、他の要素は変わらない。したがって、手の水平方向の動きを正確に認識することができる。
請求項3および請求項13の発明では、手の遠近方向の移動を掌の面積の変化で判別する。掌の面積は、指の形状(グー、パー、チョキ等)には依存しない。したがって、人間が意図的に手を遠近方向に動かせば、掌の面積のみ変化し、他の要素は変わらない。したがって、手の遠近方向の動きを正確に認識することができる。
請求項4および請求項14の発明では、手の指が示す形状の変化を指の長さの変化で判別する。上述のように掌の面積が一定ならば手と撮像装置との距離は変化していない。したがって、掌の面積が一定で、かつ指の長さが変化しているときは、指を動かしている場合である。したがって、指の長さの変化によって、指が示す形状の変化を認識することができる。
請求項5および請求項15の発明では、掌の回転の有無を手の指の角度の変化によって判別する。したがって、掌の回転を正確に認識することができる。
請求項6および請求項16の発明では、ジェスチャーを一連のサブジェスチャーの集合としており、これらのサブジェスチャーには操作の開始および終了を示すものが含まれている。従来、自由空間におけるジェスチャーでは、その開始および終了を認識することが困難であった。しかし、本発明では、ジェスチャーの開始および終了を正確に認識することで、ユーザにより直感的な操作を提供することができる。
請求項7および請求項17の発明では、人間の手の無意識の動作を認識し、これを操作終了のジェスチャーとしている。人間は無意識な状態になると脱力状態になる。したがって、人間の手の掌は下を向き、指が若干曲がる。本発明では、この状態を認識することで操作の終了を判断している。その結果、ユーザにより直感的な操作を提供している。
請求項8および請求項18の発明では、処理装置に行わせる操作を規定している。このように、本発明では多彩な操作を可能にしている。
請求項9の発明では、タッチパネルにおけるマルチタッチの操作と同様の操作をジェスチャー認識装置で実現している。
請求項10の発明では、本発明を多種の処理装置に適用することが可能である。
請求項19の発明は、本発明を電子回路の形態で提供している。
請求項20の発明は、本発明をプログラムの形態で提供している。
請求項21の発明は、本発明をコンピュータ可読媒体の形態で提供している。
本発明によって、より認識確度の高いジェスチャー認識方法、該方法を実行するプログラム、並びに該プログラムを格納したコンピュータ可読媒体を提供することができる。また、本発明は、単一の撮像装置と、パーソナルコンピュータ等の処理装置とから構成される単純なシステムで実現することができる。
本発明によって、ジェスチャーの開始および終了、並びに、意図的な動作と無意識な動作とを判別することが可能であり、その結果、ユーザにより直感的で、かつ多彩な操作を提供することができる。
本発明の一実施形態に係るジェスチャー認識装置の構成や機能について添付図面を参照して以下に詳細に説明する。このジェスチャー認識装置は、コンピュータなどの処理装置に搭載され、動画像を介してユーザの手によるジェスチャーを認識し、この認識したジェスチャーに対応する操作を当該処理装置に実行される機能を有する。特に、掌の重心の変位と、掌の面積の変動と、掌の重心から各指先までの距離の変動と、掌の重心から各指先とを結んだ線の角度の変動と、の組み合わせによって、ユーザのジェスチャーを識別する機能を有する。
図1は、本発明の一実施形態に係るジェスチャー認識装置1000の機能ブロック図を示している。図示のように、物体認識装置1000は、機能要素として、フレーム画像受信部10と、手領域検出部20と、掌重心特定部30と、掌面積特定部40と、指長さ/角度特定部50と、ジェスチャー識別部60と、操作決定部70と、記憶部80と、から構成される。また、入力部には撮像装置が接続され、出力部には処理装置が接続されている。撮像装置は、ユーザの手を所定のフレームレートで撮像し、その撮像したデータを所定の形式の動画像データとして出力する機能を有する。この撮像装置には汎用ビデオカメラを用いてよい。また、処理装置には汎用コンピュータを用いてよい。
[フレーム画像受信部]
フレーム画像受信部10は、撮像装置から動画像データを受け取る機能を有する。具体的には、撮像装置が生成した所定の形式の動画像データを受け取り、必要に応じてその動画像データを後段の機能要素が処理可能なデータ形式に変換する。
フレーム画像受信部10は、撮像装置から動画像データを受け取る機能を有する。具体的には、撮像装置が生成した所定の形式の動画像データを受け取り、必要に応じてその動画像データを後段の機能要素が処理可能なデータ形式に変換する。
[手領域検出部]
手領域検出部20は、フレーム画像受信部10から受け取った動画像データを構成する複数のフレーム画像内の手の領域を求める機能を有する。手の領域の求め方に特に限定するものではなく、既存の手法を用いてよい。例えば、テンプレートマッチング手法を用いてよい。あるいは、特開2007−43311で開示している、赤外線などの光を手に照射して、その反射光で手の領域を検出する手法を用いてもよい。検出した手の領域の画素座標は掌重心特定部30に送られる。
手領域検出部20は、フレーム画像受信部10から受け取った動画像データを構成する複数のフレーム画像内の手の領域を求める機能を有する。手の領域の求め方に特に限定するものではなく、既存の手法を用いてよい。例えば、テンプレートマッチング手法を用いてよい。あるいは、特開2007−43311で開示している、赤外線などの光を手に照射して、その反射光で手の領域を検出する手法を用いてもよい。検出した手の領域の画素座標は掌重心特定部30に送られる。
[掌重心特定部]
掌重心特定部30は、手領域検出部20が検出した手の領域における掌部分の重心を求める機能を有する。図2を参照して掌の重心を求める方法を説明する。
1)手の領域において最も水平方向に大きい個所を検出する。そしてこの検出箇所の水平方向における中点を仮の重心とする(図2(a)参照)。
2)仮の重心を中心とし、手の領域よりも小さい正方形を描く(図2(b)参照)。
3)描いた正方形の少なくとも一辺が手の領域の何れかのエッジに接触するまで拡大する(図2(c)参照)。
4)この状態で正方形を未接触のエッジ方向(図では下方向)にシフトさせながら、さらに正方形を拡大させ、すべての辺が手の領域のエッジに達したら拡大を終了する(図2(d))。
5)このときの正方形の中心を掌の重心とする。
手が撮像装置に対して水平方向に移動すると掌の重心も同様に移動することになる。従って、掌の重心は手の前後左右の変位を把握するための要素として利用する。
掌重心特定部30は、手領域検出部20が検出した手の領域における掌部分の重心を求める機能を有する。図2を参照して掌の重心を求める方法を説明する。
1)手の領域において最も水平方向に大きい個所を検出する。そしてこの検出箇所の水平方向における中点を仮の重心とする(図2(a)参照)。
2)仮の重心を中心とし、手の領域よりも小さい正方形を描く(図2(b)参照)。
3)描いた正方形の少なくとも一辺が手の領域の何れかのエッジに接触するまで拡大する(図2(c)参照)。
4)この状態で正方形を未接触のエッジ方向(図では下方向)にシフトさせながら、さらに正方形を拡大させ、すべての辺が手の領域のエッジに達したら拡大を終了する(図2(d))。
5)このときの正方形の中心を掌の重心とする。
手が撮像装置に対して水平方向に移動すると掌の重心も同様に移動することになる。従って、掌の重心は手の前後左右の変位を把握するための要素として利用する。
[掌面積特定部]
掌面積特定部40は、手領域検出部20が検出した手の領域における掌部分の面積を求める機能を有する。図3を参照して掌の面積を求める方法を説明する。
1)掌重心特定部30が求めた重心を中心とし、かつ手の領域よりも小さい真円を描く(図3(a)参照)。
2)描いた真円の円周が手の領域の何れかのエッジに接触するまで拡大する(図3(b)参照)。
3)このときの真円の面積を掌の面積とする。
手と撮像装置と間の距離が一定ならば、掌の面積は指の形状に左右されずに常に一定となる。すなわち、手が撮像装置に対して遠近方向に移動すると掌の面積が変動する。したがって、掌の面積は、撮像装置と手との間の距離の変動を把握するための要素として利用する。
掌面積特定部40は、手領域検出部20が検出した手の領域における掌部分の面積を求める機能を有する。図3を参照して掌の面積を求める方法を説明する。
1)掌重心特定部30が求めた重心を中心とし、かつ手の領域よりも小さい真円を描く(図3(a)参照)。
2)描いた真円の円周が手の領域の何れかのエッジに接触するまで拡大する(図3(b)参照)。
3)このときの真円の面積を掌の面積とする。
手と撮像装置と間の距離が一定ならば、掌の面積は指の形状に左右されずに常に一定となる。すなわち、手が撮像装置に対して遠近方向に移動すると掌の面積が変動する。したがって、掌の面積は、撮像装置と手との間の距離の変動を把握するための要素として利用する。
[指長さ/角度特定部]
指長さ/角度特定部50は、手領域検出部20が検出した手の領域における指部分の長さおよびその角度を求める機能を有する。図4を参照して指の長さおよび角度を求める方法を説明する。
1)掌重心特定部30が求めた重心から手の領域のエッジの各座標までの間隔を求める。
2)求めた間隔のうち、最も長い順に5つの座標を選択する(図中のa、b、c、d、e)。これらの座標が各指先の座標に相当する。
3)選択した5つの座標のそれぞれと重心との距離を求めその値を加算する。これを指の長さとする。
4)それぞれの指先と重心とを結んだ線と水平線または垂直線とでなす角度を求める。
指の長さは、手の形状、例えばグー、パー、チョキ形状等を判別するための要素として利用する。そして、指の角度は、掌の回転を判別するための要素として利用する。
指長さ/角度特定部50は、手領域検出部20が検出した手の領域における指部分の長さおよびその角度を求める機能を有する。図4を参照して指の長さおよび角度を求める方法を説明する。
1)掌重心特定部30が求めた重心から手の領域のエッジの各座標までの間隔を求める。
2)求めた間隔のうち、最も長い順に5つの座標を選択する(図中のa、b、c、d、e)。これらの座標が各指先の座標に相当する。
3)選択した5つの座標のそれぞれと重心との距離を求めその値を加算する。これを指の長さとする。
4)それぞれの指先と重心とを結んだ線と水平線または垂直線とでなす角度を求める。
指の長さは、手の形状、例えばグー、パー、チョキ形状等を判別するための要素として利用する。そして、指の角度は、掌の回転を判別するための要素として利用する。
[ジェスチャー識別部]
ジェスチャー識別部60は、上述の掌重心特定部30が求めた掌の重心の変位と、掌面積特定部40が求めた掌の面積の変動と、指長さ/角度特定部50が求めた指の長さおよび角度の変動とからなる要素の組み合わせを基に、手によるジェスチャーを認識する機能を有する。具体的には、記憶部80にアクセスして、上記の要素の組み合わせに対応したジェスチャーを取得する。
以下に要素の組み合わせとジェスチャーとの関係の例を示す。
ジェスチャー識別部60は、上述の掌重心特定部30が求めた掌の重心の変位と、掌面積特定部40が求めた掌の面積の変動と、指長さ/角度特定部50が求めた指の長さおよび角度の変動とからなる要素の組み合わせを基に、手によるジェスチャーを認識する機能を有する。具体的には、記憶部80にアクセスして、上記の要素の組み合わせに対応したジェスチャーを取得する。
以下に要素の組み合わせとジェスチャーとの関係の例を示す。
表1に示すように、手の重心の変位と、掌の面積の変動と、指の長さおよび角度の変動とからなる要素を組み合わせれば、様々な手の状態を正確に識別することができる。なお、表1の最後の行において、手の状態が「無意識動作」としているが、これは、人間の手が脱力状態になるとその重心が下方に移動し、掌の面積が減少し、指の長さが短縮することが発明者等の種々の実験および経験より判明した(この場合、指の角度は問わない)。そのため、この状態を無意識動作として、他の意識的な動作と区分けしている。
[操作決定部]
操作決定部70は、記憶部80にアクセスして、ジェスチャー識別部60が認識したジェスチャーに対応する操作を取得し、そのコマンドの後段の処理装置に送付する。例えば、表1の「手が右に移動中」の状態に対応する操作が「カーソルを右に移動させる」の場合、カーソルを右に移動させるコマンドを出力する。
操作決定部70は、記憶部80にアクセスして、ジェスチャー識別部60が認識したジェスチャーに対応する操作を取得し、そのコマンドの後段の処理装置に送付する。例えば、表1の「手が右に移動中」の状態に対応する操作が「カーソルを右に移動させる」の場合、カーソルを右に移動させるコマンドを出力する。
[記憶部]
手の重心の変位と、掌の面積の変動と、指の長さの変動および角度とからなる要素の組み合わせと、ジェスチャーとの関係、並びに、ジェスチャーと実行する操作との関係が格納されたデータベース機能を有する。主に、メモリ、ハードディスク、CD、DVDなどの格納手段によって実装される。
手の重心の変位と、掌の面積の変動と、指の長さの変動および角度とからなる要素の組み合わせと、ジェスチャーとの関係、並びに、ジェスチャーと実行する操作との関係が格納されたデータベース機能を有する。主に、メモリ、ハードディスク、CD、DVDなどの格納手段によって実装される。
以上の機能要素を有するジェスチャー認識装置1000が行うジェスチャー認識方法のフロー図を図5に示す。次に、このジェスチャー認識装置1000が処理装置に所定の操作を行わせる場合の実施例を以下に示す。なお、以下の実施例においては、図5のフロー図に示す処理が継続的に行われていることに留意されたい。
(操作内容) 処理装置の画面上にメニューを表示させる。
(条件) 手が一本指の状態で画面上の所定の位置に一定の期間(0.5秒間とする)停止させると開始の合図となって画面上のカーソルが変化する。さらにその状態で一定の期間(3秒間とする)停止させると画面上にメニューが表示される。
(処理内容)
図6は処理装置の画面とそれをジェスチャーで操作する手を示す図で、図7はこの処理のフロー図である。まず、手領域検出部20がユーザの手の形状が一本指であるかどうかを判断する(ステップS100)。一本指形状と判断した場合に(ステップS100で「YES」)、手に重心の移動方向に合わせて画面上のカーソルを移動させる(図6(a))。次に、ジェスチャー識別部60が掌の重心が変動中で、掌の面積が一定で、指の長さが一定であるかどうかを判断する(ステップS130)。掌の重心が変動中で、掌の面積が一定で、指の長さが一定であると判断した場合(ステップS130で「YES」)、この状態で経過時間をカウントする(ステップS140)。経過時間が0.5秒になったら(ステップS140で「YES」)、画面上のカーソルの形状や色を変化させ、メニューが表示されることをビジュアル的にユーザに知らせる(ステップS150)(図6(b)(c))。この状態で経過時間を再びカウントし、経過時間が3秒となったら(ステップS160で「YES」)、画面上にメニューを表示させて、この処理を終了する(ステップS170)(図6(d))。
(条件) 手が一本指の状態で画面上の所定の位置に一定の期間(0.5秒間とする)停止させると開始の合図となって画面上のカーソルが変化する。さらにその状態で一定の期間(3秒間とする)停止させると画面上にメニューが表示される。
(処理内容)
図6は処理装置の画面とそれをジェスチャーで操作する手を示す図で、図7はこの処理のフロー図である。まず、手領域検出部20がユーザの手の形状が一本指であるかどうかを判断する(ステップS100)。一本指形状と判断した場合に(ステップS100で「YES」)、手に重心の移動方向に合わせて画面上のカーソルを移動させる(図6(a))。次に、ジェスチャー識別部60が掌の重心が変動中で、掌の面積が一定で、指の長さが一定であるかどうかを判断する(ステップS130)。掌の重心が変動中で、掌の面積が一定で、指の長さが一定であると判断した場合(ステップS130で「YES」)、この状態で経過時間をカウントする(ステップS140)。経過時間が0.5秒になったら(ステップS140で「YES」)、画面上のカーソルの形状や色を変化させ、メニューが表示されることをビジュアル的にユーザに知らせる(ステップS150)(図6(b)(c))。この状態で経過時間を再びカウントし、経過時間が3秒となったら(ステップS160で「YES」)、画面上にメニューを表示させて、この処理を終了する(ステップS170)(図6(d))。
(操作内容) 画面上のオブジェクトの拡大/縮小
(条件) 手を二本指形状にして、かつカーソルを画面上の所定の位置で一定の期間(0.5秒間とする)静止させると開始の合図。その状態で当該二本指の間隔を狭めると画面に表示されたオブジェクトが縮小し、広げると拡大する。そして、無意識動作(表1参照)になると終了の合図とする。
(処理内容)
図8は、ユーザの手と画面との対応を示したものであり、図9はこの時に行う処理のフロー図である。まず、手領域検出部20がユーザの手の形状が二本指であるかどうかを判断する(ステップS200)。二本指であると判断したら(ステップS200で「YES」)、次はカーソルが画面上の予め決められた所定の領域内にあるかどうかを判断する(ステップS210)。所定の位置にあると判断したら(ステップS210で「YES」)、ジェスチャー識別部60が掌の重心が静止で、掌の面積が一定で、指の長さが一定であるかどうかを判断する(ステップS220)。手の重心が静止中で、掌の面積が一定で、指の長さが一定であると判断したら(ステップS220で「YES」)、オブジェクトの拡大/形状の操作の開始と判断し、この状態で経過時間をカウントする(ステップS230)。0.5秒経過したら(ステップS230で「YES」)、指の長さの変化、すなわち伸長/短縮に応じて画面上のオブジェクトを拡大/縮小する(ステップS240)。このとき、掌の重心が移動、面積が縮小、指の長さが短縮、すなわち、ユーザの手が無意識動作になったことを認識し(ステップS250)、さらに、画面上でカーソルが所定の領域外に移動したと判断した場合(ステップS260)、操作の終了と判断し、処理を終了する。
(条件) 手を二本指形状にして、かつカーソルを画面上の所定の位置で一定の期間(0.5秒間とする)静止させると開始の合図。その状態で当該二本指の間隔を狭めると画面に表示されたオブジェクトが縮小し、広げると拡大する。そして、無意識動作(表1参照)になると終了の合図とする。
(処理内容)
図8は、ユーザの手と画面との対応を示したものであり、図9はこの時に行う処理のフロー図である。まず、手領域検出部20がユーザの手の形状が二本指であるかどうかを判断する(ステップS200)。二本指であると判断したら(ステップS200で「YES」)、次はカーソルが画面上の予め決められた所定の領域内にあるかどうかを判断する(ステップS210)。所定の位置にあると判断したら(ステップS210で「YES」)、ジェスチャー識別部60が掌の重心が静止で、掌の面積が一定で、指の長さが一定であるかどうかを判断する(ステップS220)。手の重心が静止中で、掌の面積が一定で、指の長さが一定であると判断したら(ステップS220で「YES」)、オブジェクトの拡大/形状の操作の開始と判断し、この状態で経過時間をカウントする(ステップS230)。0.5秒経過したら(ステップS230で「YES」)、指の長さの変化、すなわち伸長/短縮に応じて画面上のオブジェクトを拡大/縮小する(ステップS240)。このとき、掌の重心が移動、面積が縮小、指の長さが短縮、すなわち、ユーザの手が無意識動作になったことを認識し(ステップS250)、さらに、画面上でカーソルが所定の領域外に移動したと判断した場合(ステップS260)、操作の終了と判断し、処理を終了する。
(操作内容) 画面上のオブジェクトの回転/移動
(条件) 手を二本指形状にして、かつカーソルを画面上の所定の領域内で一定の期間(0.5秒間とする)静止させると開始の合図。その状態で二本指の位置を移動させるとオブジェクトも移動し、手を回転させるとオブジェクトも回転する。そして、無意識動作(表1参照)になると終了の合図。
(処理内容)
図10は、ユーザの手と画面との対応を示したものであり、図11はこの時に行う処理のフロー図である。このフロー図において、図9のフロー図の手順と同一のものには同一のステップ番号を付与してその説明を省略する。操作開始の判断後(ステップS230で「YES」)、掌の重心が一定で、かつ指の角度が変動していると判断した場合には、画面上のオブジェクトをその変動した角度に応じて回転させる(ステップS340)。一方、指の角度が一定で、かつ掌の重心が変動した場合には、画面上のオブジェクトをその移動に合わせて移動させる(ステップS345)。
(条件) 手を二本指形状にして、かつカーソルを画面上の所定の領域内で一定の期間(0.5秒間とする)静止させると開始の合図。その状態で二本指の位置を移動させるとオブジェクトも移動し、手を回転させるとオブジェクトも回転する。そして、無意識動作(表1参照)になると終了の合図。
(処理内容)
図10は、ユーザの手と画面との対応を示したものであり、図11はこの時に行う処理のフロー図である。このフロー図において、図9のフロー図の手順と同一のものには同一のステップ番号を付与してその説明を省略する。操作開始の判断後(ステップS230で「YES」)、掌の重心が一定で、かつ指の角度が変動していると判断した場合には、画面上のオブジェクトをその変動した角度に応じて回転させる(ステップS340)。一方、指の角度が一定で、かつ掌の重心が変動した場合には、画面上のオブジェクトをその移動に合わせて移動させる(ステップS345)。
以上が本発明の一実施形態に係るジェスチャー認識装置1000が実施する操作の例である。しかし、ジェスチャー認識装置1000の実施内容は当然のことながら上述の例に限定されるものではない。例えば、ユーザの指先の動きを用いて、画面上に並んだフォルダや画像などを水平または垂直方向にスクロールやコマ送りをしてもよい。以下にこの手法を用いた実施例4を説明する。
(操作内容) 画面上のオブジェクトの移動、回転、拡大、縮小
(条件) 手を二本指形状にして一定の期間(0.5秒間とする)静止させると開始の合図。その状態で二本指の位置を移動させるとオブジェクトが移動し、二本指の角度を変えるとオブジェクトが回転する。さらに、二本指の間隔を変更するとオブジェクトが拡大または縮小する。そして、手を二本指形状にして一定の期間(3秒間とする)静止させると終了の合図。
(処理内容)
図12は、ユーザの手と画面との対応を示したものであり、図13はこの時に行う処理のフロー図である。まず、手領域検出部20がユーザの手の形状が二本指であるかどうかを判断する(ステップS400)。二本指であると判断したら(ステップS400で「YES」)、ジェスチャー識別部60が二本指の指先が静止、すなわち指先の座標が一定であるかどうかを判断する(ステップS410)。二本指の指先が静止状態であると判断したら(ステップS410で「YES」)、この状態で経過時間をカウントする(ステップS420)。0.5秒経過したら(ステップS420で「YES」)、操作開始と判断する。また、このときの二本指の指先の座標を基点とする。次に、ステップS430、S440、S450の処理を行う。なお、説明の便宜上、フロー図ではこれらの処理は相互に独立して行われるように記載しているが、実際は同時に行われる。
二本指の指先の座標の間の中点を求め、その中点の位置の移動に応じて対象のオブジェクトを移動する(ステップS430)。
二本指の指先の座標の間の距離を求め、その距離の変動に応じて対象のオブジェクトを拡大または縮小する(ステップS440)。例えば、指先の座標間の距離が大きくなれば、その増加分に応じてオブジェクトを拡大し、距離が小さくなれば、その減少分に応じてオブジェクトを縮小する。
二本指の指先の座標を結んだ直線の角度を求め、その角度の変動に応じて対象のオブジェクトを回転する(ステップS450)。例えば、指先の座標を結んだ直線が右回りに所定の角度だけ回転すれば、オブジェクトを右回りにその角度だけ回転する。
二本指の指先の座標が静止状態であると判断したら(ステップS460で「YES」)、この状態で経過時間をカウントする(ステップS470)。3秒経過したら(ステップS470で「YES」)、操作の終了と判断し、処理を終了する。
(条件) 手を二本指形状にして一定の期間(0.5秒間とする)静止させると開始の合図。その状態で二本指の位置を移動させるとオブジェクトが移動し、二本指の角度を変えるとオブジェクトが回転する。さらに、二本指の間隔を変更するとオブジェクトが拡大または縮小する。そして、手を二本指形状にして一定の期間(3秒間とする)静止させると終了の合図。
(処理内容)
図12は、ユーザの手と画面との対応を示したものであり、図13はこの時に行う処理のフロー図である。まず、手領域検出部20がユーザの手の形状が二本指であるかどうかを判断する(ステップS400)。二本指であると判断したら(ステップS400で「YES」)、ジェスチャー識別部60が二本指の指先が静止、すなわち指先の座標が一定であるかどうかを判断する(ステップS410)。二本指の指先が静止状態であると判断したら(ステップS410で「YES」)、この状態で経過時間をカウントする(ステップS420)。0.5秒経過したら(ステップS420で「YES」)、操作開始と判断する。また、このときの二本指の指先の座標を基点とする。次に、ステップS430、S440、S450の処理を行う。なお、説明の便宜上、フロー図ではこれらの処理は相互に独立して行われるように記載しているが、実際は同時に行われる。
二本指の指先の座標の間の中点を求め、その中点の位置の移動に応じて対象のオブジェクトを移動する(ステップS430)。
二本指の指先の座標の間の距離を求め、その距離の変動に応じて対象のオブジェクトを拡大または縮小する(ステップS440)。例えば、指先の座標間の距離が大きくなれば、その増加分に応じてオブジェクトを拡大し、距離が小さくなれば、その減少分に応じてオブジェクトを縮小する。
二本指の指先の座標を結んだ直線の角度を求め、その角度の変動に応じて対象のオブジェクトを回転する(ステップS450)。例えば、指先の座標を結んだ直線が右回りに所定の角度だけ回転すれば、オブジェクトを右回りにその角度だけ回転する。
二本指の指先の座標が静止状態であると判断したら(ステップS460で「YES」)、この状態で経過時間をカウントする(ステップS470)。3秒経過したら(ステップS470で「YES」)、操作の終了と判断し、処理を終了する。
なお、以上のステップS430ないしS450の処理では、指先の座標の相対位置に基づいて動作を確定するため、指先の座標の絶対位置は考慮しない。従って、指先の位置は操作対象となるオブジェクトの上に位置する必要はなく、画面上の任意の領域内に位置してよい。
上記実施例1ないし3では、操作期間中における手の挙動を掌面積、指の長さ、指の角度等の組み合わせで判断しているが、実施例4では2本の指先の位置のみに基づいて判断している。これは、操作期間中はユーザの手の位置が撮像装置に対して大きくブレない(変動しない)という根拠に基づく。実施例4のジェスチャーの操作終了には一定の時間が掛かるが、認識処理が単純なため指の素早い動きにも好適に追従することができる。
以上に渡り、ジェスチャー認識装置1000が処理装置に所定の操作を行わせる場合の実施例を説明した。また、上記実施例には記載していないが、同時に複数の指の状態を個別に認識して、それぞれの指の状態に応じた複数の操作を同時に行ってもよい。あるいは、両手のジェスチャーを同時に認識して、それぞれのジェスチャーに応じた操作を同時に行ってもよい。
本発明の一実施形態に係るジェスチャー認識装置1000が適応される処理装置は特に限定するものではない。例えばパーソナルコンピュータ、携帯端末、ATM、カーナビゲーション、自動販売機、携帯電話、OA機器等の様々な機器に適用してよい。
なお、本発明の一実施形態にジェスチャー認識装置1000が有する機能は、特定のハードウェア資源またはソフトウェア処理に限定されないことに留意されたい。すなわち、この機能を実現できる限り、如何なるハードウェア(電子回路等)、ソフトウェア(プログラム)、あるいはそれらの組み合わせ等を用いてよい。
上述した本発明の一実施形態に係るジェスチャー認識方法を、プログラムとして実装する場合には、このプログラムを外部のサーバ等から該方法を実行する情報処理装置にダウンロードするか、あるいはコンピュータ可読媒体の形態で分配されることが好ましい。コンピュータ可読媒体の例としては、CD−ROM、DVD、磁気テープ、フレキシブルディスク、光磁気ディスク、ハードディスク、メモリ媒体などが挙げられる。
以上、本発明を図面に示した実施形態を用いて説明したが、これらは例示的なものに過ぎず、本技術分野の当業者ならば、本発明の範囲および趣旨から逸脱しない範囲で多様な変更および変形が可能なことは理解できるであろう。したがって、本発明の範囲は、説明された実施形態によって定められず、特許請求の範囲に記載された技術的趣旨により定められねばならない。
10 フレーム画像受信部
20 手領域検出部
30 掌重心特定部
40 掌面積特定部
50 指長さ/角度特定部
60 ジェスチャー識別部
70 操作決定部
80 記憶部
1000 ジェスチャー認識装置
20 手領域検出部
30 掌重心特定部
40 掌面積特定部
50 指長さ/角度特定部
60 ジェスチャー識別部
70 操作決定部
80 記憶部
1000 ジェスチャー認識装置
Claims (21)
- 処理装置に搭載され、動画像を介して自由空間における人間の手によるジェスチャーを認識し、該認識したジェスチャーに応じた所定の操作を前記処理装置に実行させるジェスチャー認識装置であって、
前記手の掌部分の重心を特定する掌重心特定手段と、
前記手の掌部分の面積を特定する掌面積特定手段と、
前記重心と手の指先との間の距離を求める指長さ算出手段と、
前記重心と指先とを結んだ直線がなす角度を求める角度算出手段と、
前記手の掌部分の重心の変位と、前記手の掌部分の面積の変動と、前記重心と手の指先との間の距離の変動と、前記重心と指先とを結んだ直線がなす角度の変動と、の組み合わせによって、前記ジェスチャーを識別するジェスチャー識別手段と、
を備えることを特徴とするジェスチャー認識装置。 - 前記ジェスチャー識別手段は、前記手の掌部分の重心が変位したときに、前記手が上下左右の何れかに移動したと判断することを特徴とする請求項1に記載のジェスチャー認識装置。
- 前記ジェスチャー識別手段は、前記手の掌部分の面積が変動したときに、前記手が前後の何れかに移動したと判断することを特徴とする請求項1または2に記載のジェスチャー認識装置。
- 前記ジェスチャー識別手段は、前記手の掌部分の面積が一定で、かつ前記重心と手の指先との間の距離が変動したときに、前記手の指が示す形状が変化したと判断することを特徴とする請求項1ないし3の何れか一項に記載のジェスチャー認識装置。
- 前記ジェスチャー識別手段は、前記重心と指先とを結んだ直線がなす角度が変動したときに、前記手の掌部分が回転していると識別することを特徴とする請求項1ないし4の何れか一項に記載のジェスチャー認識装置。
- 前記ジェスチャーは、操作開始を示すジェスチャーと、操作を実行するジェスチャーと、操作終了を示すジェスチャーと、を含むことを特徴とする請求項1ないし5の何れか一項に記載のジェスチャー認識装置。
- 前記操作終了を示すジェスチャーは、前記掌の重心が下方向に移動し、前記掌の面積が減少し、前記重心と手の指先との間の距離が短縮した場合に該当することを特徴とする請求項6に記載のジェスチャー認識装置。
- 前記処理装置に実行させる操作は、該処理装置の画面にメニューを表示させること、該処理装置の画面に表示されたオブジェクトの大きさを変えること、該処理装置の画面に表示されたオブジェクトを移動および回転させること、該処理装置の画面に表示された複数の画像をスクロールまたはコマ送りすること、を含むことを特徴とする請求項1ないし7の何れか一項に記載のジェスチャー認識装置。
- 前記ジェスチャー認識装置は複数のジェスチャーを同時に認識し、該認識したジェスチャーのそれぞれに応じた操作を前記処理装置に同時に実行させることを特徴とする請求項1ないし8の何れか一項に記載のジェスチャー認識装置。
- 前記処理装置は、パーソナルコンピュータと、携帯端末と、カーナビゲーションと、携帯電話と、を含むことを特徴とする請求項1ないし9の何れか一項に記載のジェスチャー認識装置。
- 動画像を介して自由空間における人間の手によるジェスチャーを認識し、該認識したジェスチャーに応じた所定の操作を処理装置に実行させるジェスチャー認識方法であって、
前記手の掌部分の重心を特定する掌重心特定段階と、
前記手の掌部分の面積を特定する掌面積特定段階と、
前記重心と手の指先との間の距離を求める指長さ算出段階と、
前記重心と指先とを結んだ直線がなす角度を求める角度算出段階と、
前記手の掌部分の重心の変位と、前記手の掌部分の面積の変動と、前記重心と手の指先との間の距離の変動と、前記重心と指先とを結んだ直線がなす角度の変動と、の組み合わせによって、前記ジェスチャーを識別するジェスチャー識別段階と、
を含むことを特徴とするジェスチャー認識方法。 - 前記ジェスチャー識別段階で、前記手の掌部分の重心が変位したときには、前記手が上下左右の何れかに移動したと判断することを特徴とする請求項11に記載のジェスチャー認識方法。
- 前記ジェスチャー識別段階で、前記手の掌部分の面積が変動したときには、前記手が前後の何れかに移動したと判断することを特徴とする請求項11または12に記載のジェスチャー認識方法。
- 前記ジェスチャー識別段階で、前記手の掌部分の面積が一定で、かつ前記重心と手の指先との間の距離が変動したときには、前記手の指が示す形状が変化したと判断することを特徴とする請求項11ないし13の何れか一項に記載のジェスチャー認識方法。
- 前記ジェスチャー識別段階で、前記重心と指先とを結んだ直線がなす角度が変動したときには、前記手の掌部分が回転していると識別することを特徴とする請求項11ないし14の何れか一項に記載のジェスチャー認識方法。
- 前記ジェスチャーは、操作開始を示すジェスチャーと、操作を実行するジェスチャーと、操作終了を示すジェスチャーと、を含むことを特徴とする請求項11ないし15の何れか一項に記載のジェスチャー認識方法。
- 前記操作終了を示すジェスチャーは、前記掌の重心が下方向に移動し、前記掌の面積が減少し、前記重心と手の指先との間の距離が短縮した場合に該当することを特徴とする請求項16に記載のジェスチャー認識方法。
- 前記処理装置に実行させる操作は、該処理装置の画面にメニューを表示させること、該処理装置の画面に表示されたオブジェクトの大きさを変えること、該処理装置の画面に表示されたオブジェクトを移動および回転させること、該処理装置の画面に表示された複数の画像をスクロールまたはコマ送りすること、を含むことを特徴とする請求項11ないし17の何れか一項に記載のジェスチャー認識方法。
- 請求項11ないし18の何れか一項に記載のジェスチャー認識方法を実行する電子回路。
- 請求項11ないし18の何れか一項に記載のジェスチャー認識方法を前記処理装置に実行させるプログラム。
- 請求項20に記載のプログラムを格納したコンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010109528 | 2010-05-11 | ||
JP2010109528 | 2010-05-11 | ||
PCT/JP2011/060655 WO2011142317A1 (ja) | 2010-05-11 | 2011-05-09 | ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2011142317A1 true JPWO2011142317A1 (ja) | 2013-07-22 |
Family
ID=44914373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012514789A Pending JPWO2011142317A1 (ja) | 2010-05-11 | 2011-05-09 | ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9069386B2 (ja) |
JP (1) | JPWO2011142317A1 (ja) |
WO (1) | WO2011142317A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9753545B2 (en) * | 2012-08-17 | 2017-09-05 | Nec Solutions Innovators, Ltd. | Input device, input method, and storage medium |
US9778464B2 (en) * | 2013-02-19 | 2017-10-03 | Mirama Service Inc. | Shape recognition device, shape recognition program, and shape recognition method |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10345911B2 (en) * | 2011-12-23 | 2019-07-09 | Intel Corporation | Mechanism to provide visual feedback regarding computing system command gestures |
EP2650754A3 (en) * | 2012-03-15 | 2014-09-24 | Omron Corporation | Gesture recognition apparatus, electronic device, gesture recognition method, control program, and recording medium |
CN104169839A (zh) * | 2012-03-15 | 2014-11-26 | 松下电器产业株式会社 | 手势输入操作处理装置 |
JP5174978B1 (ja) * | 2012-04-26 | 2013-04-03 | 株式会社三菱東京Ufj銀行 | 情報処理装置、電子機器およびプログラム |
US9383895B1 (en) * | 2012-05-05 | 2016-07-05 | F. Vinayak | Methods and systems for interactively producing shapes in three-dimensional space |
US9870056B1 (en) * | 2012-10-08 | 2018-01-16 | Amazon Technologies, Inc. | Hand and hand pose detection |
JP2014085965A (ja) * | 2012-10-25 | 2014-05-12 | Nec Personal Computers Ltd | 情報処理装置、情報処理方法、及びプログラム |
WO2014081104A1 (en) * | 2012-11-21 | 2014-05-30 | Lg Electronics Inc. | Multimedia device for having touch sensor and method for controlling the same |
TWI456430B (zh) * | 2012-12-07 | 2014-10-11 | Pixart Imaging Inc | 手勢判斷裝置、其操作方法與手勢判斷方法 |
TWI454971B (zh) * | 2012-12-11 | 2014-10-01 | Pixart Imaging Inc | 電子裝置控制方法以及使用此電子裝置控制方法的電子裝置 |
KR101393573B1 (ko) * | 2012-12-27 | 2014-05-09 | 현대자동차 주식회사 | 광 스캔을 이용한 사용자 인터페이스 시스템 및 방법 |
CN103529930B (zh) * | 2013-01-04 | 2016-12-28 | 努比亚技术有限公司 | 基于体感识别的索引菜单的方法、装置及其终端 |
CN103019530B (zh) * | 2013-01-04 | 2016-09-28 | 深圳市中兴移动通信有限公司 | 基于手势识别的索引菜单的方法、装置及其终端 |
CN103926999B (zh) * | 2013-01-16 | 2017-03-01 | 株式会社理光 | 手掌开合手势识别方法和装置、人机交互方法和设备 |
CN103150018B (zh) * | 2013-03-07 | 2016-09-21 | 深圳泰山体育科技股份有限公司 | 手势识别方法及装置 |
US9547378B2 (en) * | 2013-03-07 | 2017-01-17 | Hewlett-Packard Development Company, L.P. | Sensor on side of computing device |
JP2014182662A (ja) * | 2013-03-19 | 2014-09-29 | Stanley Electric Co Ltd | 操作装置及び操作方法 |
US9916009B2 (en) * | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
JP6095478B2 (ja) * | 2013-05-16 | 2017-03-15 | スタンレー電気株式会社 | 入力操作装置 |
JP2014228945A (ja) * | 2013-05-20 | 2014-12-08 | コニカミノルタ株式会社 | 領域指定装置 |
US9829984B2 (en) * | 2013-05-23 | 2017-11-28 | Fastvdo Llc | Motion-assisted visual language for human computer interfaces |
KR101462792B1 (ko) | 2013-07-01 | 2014-12-01 | 주식회사 넥서스칩스 | 제스처 식별 장치 및 그 방법 |
CN103544469B (zh) * | 2013-07-24 | 2017-05-10 | Tcl集团股份有限公司 | 一种基于掌心测距的指尖检测方法和装置 |
JP6121534B2 (ja) * | 2013-08-02 | 2017-04-26 | 三菱電機株式会社 | ジェスチャー判定装置及び方法、並びにジェスチャー操作装置、並びにプログラム及び記録媒体 |
JP6259225B2 (ja) * | 2013-08-22 | 2018-01-10 | アルパイン株式会社 | 電子機器およびこれに接続された携帯端末のジェスチャ認識操作方法、車載システム |
CN105531646A (zh) * | 2013-09-17 | 2016-04-27 | 皇家飞利浦有限公司 | 手势驱动的范围和值的同时选择 |
CN103488296B (zh) * | 2013-09-25 | 2016-11-23 | 华为软件技术有限公司 | 体感交互手势控制方法及装置 |
US9412012B2 (en) | 2013-10-16 | 2016-08-09 | Qualcomm Incorporated | Z-axis determination in a 2D gesture system |
KR101536267B1 (ko) * | 2013-10-16 | 2015-11-23 | 한양대학교 에리카산학협력단 | 화면 분할모듈을 갖는 스마트 디스플레이 |
KR101526423B1 (ko) * | 2013-12-19 | 2015-06-05 | 현대자동차 주식회사 | 차량용 제스처 인식 장치 |
KR101559502B1 (ko) | 2013-12-26 | 2015-10-14 | 서경대학교 산학협력단 | 실시간 손 포즈 인식을 통한 비접촉식 입력 인터페이스 방법 및 기록 매체 |
JP6349800B2 (ja) * | 2014-03-12 | 2018-07-04 | オムロン株式会社 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
RU2014108820A (ru) * | 2014-03-06 | 2015-09-20 | ЭлЭсАй Корпорейшн | Процессор изображений, содержащий систему распознавания жестов с функциональными возможностями обнаружения и отслеживания пальцев |
CN106796649A (zh) * | 2014-05-24 | 2017-05-31 | 远程信息技术发展中心 | 使用标记物的基于姿态的人机接口 |
KR101865655B1 (ko) * | 2014-06-26 | 2018-06-11 | 한국과학기술원 | 증강현실 상호 작용 서비스 제공 장치 및 방법 |
DE102014017166A1 (de) * | 2014-11-20 | 2016-05-25 | Audi Ag | Verfahren zum Betreiben einer Objektbewertungsvorrichtung für ein Kraftfahrzeug, Objektbewertungsvorrichtung für ein Kraftfahrzeug und Kraftfahrzeug mit einer Objektbewertungsvorrichtung |
US9720513B2 (en) * | 2015-03-18 | 2017-08-01 | Korea Electronics Technology Institute | Apparatus and method for receiving a key input |
JP6579866B2 (ja) * | 2015-08-31 | 2019-09-25 | キヤノン株式会社 | 情報処理装置とその制御方法、プログラム、記憶媒体 |
CN106886275B (zh) * | 2015-12-15 | 2020-03-20 | 比亚迪股份有限公司 | 车载终端的控制方法、装置以及车辆 |
KR20170104819A (ko) * | 2016-03-08 | 2017-09-18 | 삼성전자주식회사 | 제스처를 가이드하는 전자 장치 및 그의 제스처 가이드 방법 |
JP6953818B2 (ja) * | 2016-11-14 | 2021-10-27 | 株式会社アイシン | 動作判定装置 |
US11402909B2 (en) | 2017-04-26 | 2022-08-02 | Cognixion | Brain computer interface for augmented reality |
US11237635B2 (en) | 2017-04-26 | 2022-02-01 | Cognixion | Nonverbal multi-input and feedback devices for user intended computer control and communication of text, graphics and audio |
DE102017210317A1 (de) | 2017-06-20 | 2018-12-20 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Erfassen einer Nutzereingabe anhand einer Geste |
US11409363B2 (en) * | 2018-05-30 | 2022-08-09 | West Texas Technology Partners, Llc | Augmented reality hand gesture recognition systems |
CN110046603B (zh) * | 2019-04-25 | 2020-11-27 | 合肥工业大学 | 一种中国普乐手语编码的手势动作识别方法 |
CN110443148B (zh) * | 2019-07-10 | 2021-10-22 | 广州市讯码通讯科技有限公司 | 一种动作识别方法、系统和存储介质 |
CN113496165B (zh) * | 2020-04-01 | 2024-04-16 | 京东科技信息技术有限公司 | 用户手势识别方法、装置、手部智能穿戴设备及存储介质 |
CN113946205B (zh) * | 2020-07-17 | 2024-02-09 | 云米互联科技(广东)有限公司 | 燃气控制方法、燃气设备及存储介质 |
CN113946206A (zh) * | 2020-07-17 | 2022-01-18 | 云米互联科技(广东)有限公司 | 家电交互方法、家电设备及存储介质 |
KR20230035209A (ko) * | 2021-08-30 | 2023-03-13 | 소프트뱅크 가부시키가이샤 | 전자기기 및 프로그램 |
CN114253395B (zh) * | 2021-11-11 | 2023-07-18 | 易视腾科技股份有限公司 | 一种用于电视控制的手势识别系统及其识别方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001273503A (ja) * | 2000-03-23 | 2001-10-05 | Eiji Kawamura | モーション認識システム |
JP2005050177A (ja) * | 2003-07-30 | 2005-02-24 | Nissan Motor Co Ltd | 非接触式情報入力装置 |
JP2008040576A (ja) * | 2006-08-02 | 2008-02-21 | Sharp Corp | 画像処理システム及び該システムを備えた映像表示装置 |
JP2009020691A (ja) * | 2007-07-11 | 2009-01-29 | Kyocera Mita Corp | ユーザ認証方法、ユーザ認証装置及び画像形成装置 |
JP2009042796A (ja) * | 2005-11-25 | 2009-02-26 | Panasonic Corp | ジェスチャー入力装置および方法 |
-
2011
- 2011-05-09 WO PCT/JP2011/060655 patent/WO2011142317A1/ja active Application Filing
- 2011-05-09 US US13/697,172 patent/US9069386B2/en not_active Expired - Fee Related
- 2011-05-09 JP JP2012514789A patent/JPWO2011142317A1/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001273503A (ja) * | 2000-03-23 | 2001-10-05 | Eiji Kawamura | モーション認識システム |
JP2005050177A (ja) * | 2003-07-30 | 2005-02-24 | Nissan Motor Co Ltd | 非接触式情報入力装置 |
JP2009042796A (ja) * | 2005-11-25 | 2009-02-26 | Panasonic Corp | ジェスチャー入力装置および方法 |
JP2008040576A (ja) * | 2006-08-02 | 2008-02-21 | Sharp Corp | 画像処理システム及び該システムを備えた映像表示装置 |
JP2009020691A (ja) * | 2007-07-11 | 2009-01-29 | Kyocera Mita Corp | ユーザ認証方法、ユーザ認証装置及び画像形成装置 |
Non-Patent Citations (3)
Title |
---|
JPN6015028432; 岩田達明,外3名: '"動画像解析による手指動作認識に基づく三次元情報入力システム"' 電子情報通信学会技術研究報告 Vol.100,No.634, 20010216, p.29-36, 社団法人電子情報通信学会 * |
JPN6015028433; 添石幸憲,外2名: '"ロボットハンド制御のための手指形状推定"' 電子情報通信学会技術研究報告 Vol.101,No.154, 20010622, p.21-25, 社団法人電子情報通信学会 * |
JPN6015028435; 高松亮,外1名: '"最適視点視野による掌の追跡と手指形状認識に基づくポインティングデバイスの提案"' ヒューマンインタフェース学会誌 Vol.1,No.1, 19990226, p.45-52, ヒューマンインタフェース学会 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9753545B2 (en) * | 2012-08-17 | 2017-09-05 | Nec Solutions Innovators, Ltd. | Input device, input method, and storage medium |
US9778464B2 (en) * | 2013-02-19 | 2017-10-03 | Mirama Service Inc. | Shape recognition device, shape recognition program, and shape recognition method |
Also Published As
Publication number | Publication date |
---|---|
US20130057469A1 (en) | 2013-03-07 |
WO2011142317A1 (ja) | 2011-11-17 |
US9069386B2 (en) | 2015-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2011142317A1 (ja) | ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 | |
US10203764B2 (en) | Systems and methods for triggering actions based on touch-free gesture detection | |
JP5532300B2 (ja) | タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体 | |
US9529527B2 (en) | Information processing apparatus and control method, and recording medium | |
RU2635285C1 (ru) | Способ и устройство управления перемещением на сенсорном экране | |
JP5604279B2 (ja) | ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 | |
JP6207240B2 (ja) | 情報処理装置及びその制御方法 | |
EP2699986B1 (en) | Touch screen selection | |
JP6062416B2 (ja) | 情報入力装置及び情報表示方法 | |
US9916043B2 (en) | Information processing apparatus for recognizing user operation based on an image | |
US9348466B2 (en) | Touch discrimination using fisheye lens | |
JP6308769B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
TWI421731B (zh) | 電子裝置之滑鼠功能執行方法及其電子裝置 | |
JP2013137613A (ja) | 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法 | |
US20170192465A1 (en) | Apparatus and method for disambiguating information input to a portable electronic device | |
EP2899623A2 (en) | Information processing apparatus, information processing method, and program | |
US9389780B2 (en) | Touch-control system | |
US9235338B1 (en) | Pan and zoom gesture detection in a multiple touch display | |
JP5721602B2 (ja) | 携帯端末装置およびプログラム | |
JP5575027B2 (ja) | 表示一体型座標入力装置及び仮想キーボード機能の起動方法 | |
JP2013077180A (ja) | 認識装置およびその制御方法 | |
JP6484859B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR20190049349A (ko) | 프로젝션 영상에서 사용자의 터치를 인식하는 방법 및 이러한 방법을 수행하는 장치 | |
JP2018185569A (ja) | 情報処理装置、表示制御プログラム及び表示制御方法 | |
JP2014215815A (ja) | 入力装置および入力制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140501 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150713 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20151109 |