JP2015172887A - ジェスチャ認識装置およびジェスチャ認識装置の制御方法 - Google Patents
ジェスチャ認識装置およびジェスチャ認識装置の制御方法 Download PDFInfo
- Publication number
- JP2015172887A JP2015172887A JP2014048911A JP2014048911A JP2015172887A JP 2015172887 A JP2015172887 A JP 2015172887A JP 2014048911 A JP2014048911 A JP 2014048911A JP 2014048911 A JP2014048911 A JP 2014048911A JP 2015172887 A JP2015172887 A JP 2015172887A
- Authority
- JP
- Japan
- Prior art keywords
- shape
- gesture
- representative point
- target part
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 35
- 238000000605 extraction Methods 0.000 claims abstract description 22
- 230000005484 gravity Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 description 23
- 239000003550 marker Substances 0.000 description 6
- 230000008859 change Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Abstract
Description
このように、身体の一部を用いてジェスチャを行う場合、従来のジェスチャ認識装置では、代表点がどこにあるかを適切に判別することができず、結果として、ジェスチャによって表現された軌跡を利用者の意図通りに認識することができないケースがあった。
取得した画像からジェスチャを検出し、当該ジェスチャに対応した、対象機器に対する命令を生成するジェスチャ認識装置であって、画像を取得する画像取得手段と、前記取得
した画像から、ジェスチャを行う対象部位を抽出する対象部位抽出手段と、前記抽出した対象部位の形状を特定する対象部位形状特定手段と、前記対象部位に対して、前記対象部位の位置を代表する点である代表点を設定する代表点決定手段と、前記代表点の動きに基づいてジェスチャを認識するジェスチャ認識手段と、前記認識したジェスチャに対応する命令を生成するコマンド生成手段と、を有し、前記代表点決定手段は、前記特定した対象部位の形状を用いて、前記対象部位に対応する代表点の位置を決定することを特徴とする。
本発明に係るジェスチャ認識装置は、このように対象部位の形状を考慮して代表点の位置を設定することで、対象部位を移動させることで入力されたジェスチャを、利用者の意図通りに認識することができる。
手全体ではなく指先を用いてジェスチャを行っていると推定できる場合、指先に対応する位置に代表点を設定する。これにより、指先の小さな動きでジェスチャを行う場合であっても、当該ジェスチャを利用者の意図通りに認識することができる。
部の指が伸展している状態とは、指を全て開いた状態は含まない。
第一の実施形態に係るジェスチャ認識システムの概要について、システム構成図である図1を参照しながら説明する。第一の実施形態に係るジェスチャ認識システムは、ジェスチャ認識装置100および対象機器200からなるシステムである。
また、対象機器200は、ジェスチャ認識装置100からコマンドを受信する装置(制御対象の機器)であり、典型的には、テレビ、ビデオレコーダ、コンピュータ、エアコン、テレビ会議システムなどの電気製品である。対象機器200は、有線または無線によって、ジェスチャ認識装置100からコマンドを受信することができれば、どのような機器
であってもよい。本実施形態では、対象機器200はテレビ受信機であり、ジェスチャ認識装置100は、当該テレビに内蔵された装置であるものとする。
画像取得部101が取得する画像(以下、カメラ画像)は、利用者が行ったジェスチャの動きと、当該ジェスチャを行った身体部位の形状を取得することができれば、どのような画像であってもよい。また、カメラ画像の画角は、テレビの視野角と略同一であればよい。
また、ジェスチャ抽出部102は、検出した対象部位に対して、当該対象部位の位置を代表する点である代表点を設定し、当該代表点の動きを追跡する。これにより、ジェスチャによって表現された動きを抽出することができる。
対象部位の形状および代表点については、後ほど詳しく説明する。
図3は、画像取得部101が取得した画像の例である。すなわち、テレビ画面に正対する利用者を、画面側から見た図である。
ジェスチャの認識処理は、ジェスチャを行う対象部位を画像から検出する処理と、検出した対象部位に対応する代表点を設定する処理と、当該代表点の動きを追跡してジェスチ
ャの内容を特定する処理と、からなる。
ジェスチャ抽出部102は、取得した画像の中から、人の手が含まれる領域(符号31)を検出する。人の手が含まれる領域は、例えば色彩や形状によって判定してもよいし、特徴点を検出することで判定してもよい。また、予め記憶されたモデルやテンプレート等と比較することで判定してもよい。手の検出には公知の技術を用いることができるため、詳細な説明は省略する。
代表点は、対象部位の位置を代表する点であり、一つの対象部位に対して一つが設定される。例えば、対象部位が人の手である場合、手のひらの中心を表す点(符号32)を代表点とすることができる。
対象部位に対して代表点を設定し、代表点の動きを追跡することで、手の動きによって表されるジェスチャを取得することができる。例えば、「手全体を動かして方向を示す」、「図形を描画する」といったジェスチャを取得することができる。
図4は、カメラ画像の例である(対象部位以外は図示を省略する)。図4(A)は、人差し指の指先を移動するジェスチャを表し、図4(B)は、手のひらを平行に移動するジェスチャを表す。
当該二つのジェスチャは、どちらも「左方向への移動」を意味するものであるが、指を立ててジェスチャを行う場合、指先の細かな動きによってジェスチャを行おうとする場合が多く、手を開いてジェスチャを行う場合、腕全体の大きな動きによってジェスチャを行おうとする場合が多い。従って、対象部位のどの部分に代表点を設定するかで、ジェスチャの認識精度が変わってしまう。
例えば、図4(A)の場合、人差し指の指先に代表点を設定すると、移動距離は符号41で示した距離となるが、手のひらの中心に代表点を設定すると、移動距離は符号42で示した距離となる。すなわち、移動距離によって異なるコマンドが割り当たっていた場合、所望のコマンドと異なるコマンドが入力されてしまうおそれがある。また、移動距離に応じてポインタを移動させたい場合、利用者が所望する移動量が得られないおそれがある。
と判定できる形状とは、例えば、立っている指の数が1本である場合(対象部位の形状が「形状1」である場合)とすることができる。
図5に示した処理は、画像取得部101およびジェスチャ抽出部102が行う処理である。当該処理は、入力開始を表す操作があった場合(例えば、ジェスチャ入力が必要な機能を対象機器側で起動した際など)に開始してもよいし、対象機器の電源が投入された際に開始してもよい。
次に、ジェスチャ抽出部102が、取得したカメラ画像から、対象部位(手)の検出を試みる(ステップS12)。対象部位の検出は、前述したように、色や形状を基準として行ってもよいし、パターンマッチング等によって行ってもよい。ここで、対象部位が検出されなかった場合は、所定の時間だけ待機した後に新たに画像を取得し、同様の処理を繰り返す。
次に、検出した対象部位の形状が、前回実行時から変化しているかを判定する(ステップS14)。ステップS14が初めて実行された場合は、「変化あり」と判断する。
ステップS14で「変化あり」と判断した場合、ステップS15へ遷移し、ジェスチャ抽出部102が、検出した対象部位に代表点を設定する。具体的には、ステップS13で判定した対象部位の形状が形状1であった場合、伸展している指の先端に代表点を設定し、それ以外の場合、手の重心点に代表点を設定する。
ステップS14で「変化なし」と判断した場合、ステップS16へ遷移する。
ステップS11〜S16の処理は繰り返し実行され、代表点の座標が、ジェスチャ認識部103へ逐次送信される。
ステップS21は、ジェスチャ認識部103が、取得した代表点の座標に基づいてジェスチャを認識する処理である。例えば、図2に示したジェスチャ定義データがあった場合で、代表点の座標が右方向へ100ピクセル以上移動していることを検出した場合、「音量UP」を表すジェスチャがなされたものと判定する。
また、カメラ画像中における対象部位の大きさを表す情報を同時に送信するようにしてもよい。ジェスチャ認識装置が取得する対象部位の移動量は、利用者と装置との距離に応じて変わるため、このようにすることで、対象部位の大きさに応じて移動量を補正するこ
とができる。
ただし、ジェスチャが終了し、続けて異なるジェスチャが開始される場合もあるため、このような場合は、当該ステップを再度実行するようにしてもよい。例えば、対象部位の形状や大きさが著しく変化した場合や、対象部位が画像からフレームアウトして再度フレームインした場合などは、異なるジェスチャが開始されたと判断し、ステップS13を再度実行するようにしてもよい。また、明示的な操作によって再実行してもよい。
第二の実施形態は、第一の実施形態に係るジェスチャ認識システムに、代表点の位置を利用者に通知する手段を追加した実施形態である。第二の実施形態に係るジェスチャ認識システムの構成は、以下に説明する点を除き、第一の実施形態と同様である。
図7は、対象機器であるテレビ画面に表示される画像の例である。例えば、検出した対象部位の形状が形状1であった場合、指先を動かすことでジェスチャを行える旨を通知し、それ以外の形状であった場合、手全体を動かすことでジェスチャを行える旨を通知する。
なお、利用者に対して通知を行う方法は、これ以外の方法であってもよい。例えば、文章のみで案内を表示してもよいし、通常の操作画面に案内用のウインドウを追加し、図形や文章を表示してもよい。また、音声等によって通知してもよい。
なお、各実施形態の説明は本発明を説明する上での例示であり、本発明は、発明の趣旨を逸脱しない範囲で適宜変更または組み合わせて実施することができる。
例えば、実施形態の説明では、ジェスチャ認識装置100を、対象機器200に組み込まれた装置であるとしたが、ジェスチャ認識装置100は独立した装置であってもよい。
また、ジェスチャ認識装置100は、対象機器200上で動作するプログラムとして実
装されてもよい。プログラムとして実装する場合は、メモリに記憶されたプログラムをプロセッサが実行するように構成してもよいし、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)などによって実行されるように構成してもよい。
また、対象部位は、必ずしも人の手でなくてもよい。例えば、他の身体部位であってもよいし、ジェスチャ入力用のマーカー等であってもよい。マーカーを用いる場合、ジェスチャ抽出部102が、マーカーの存在を検出し、当該マーカーの先端に代表点を設定するようにすればよい。
例えば、代表点を設定する位置を下記のようにしてもよい。
形状1である場合:立っている指の指先を代表点とする
形状2である場合:立っている二本の指先の中点を代表点とする
形状3である場合:立っている三本の指のうち、真ん中の指の指先を代表点とする
形状4および5である場合:手のひらの重心を代表点とする
101・・・画像取得部
102・・・ジェスチャ抽出部
103・・・ジェスチャ認識部
104・・・コマンド生成部
200・・・対象機器
Claims (10)
- 取得した画像からジェスチャを検出し、当該ジェスチャに対応した、対象機器に対する命令を生成するジェスチャ認識装置であって、
画像を取得する画像取得手段と、
前記取得した画像から、ジェスチャを行う対象部位を抽出する対象部位抽出手段と、
前記抽出した対象部位の形状を特定する対象部位形状特定手段と、
前記対象部位に対して、前記対象部位の位置を代表する点である代表点を設定する代表点決定手段と、
前記代表点の動きに基づいてジェスチャを認識するジェスチャ認識手段と、
前記認識したジェスチャに対応する命令を生成するコマンド生成手段と、
を有し、
前記代表点決定手段は、前記特定した対象部位の形状を用いて、前記対象部位に対応する代表点の位置を決定する
ことを特徴とする、ジェスチャ認識装置。 - 前記代表点決定手段は、前記対象部位形状認識手段が特定した対象部位の形状が、突出した部位を含む形状である場合に、当該突出した部位の先端に代表点を設定する
ことを特徴とする、請求項1に記載のジェスチャ認識装置。 - 前記対象部位は、人間の手であり、
前記代表点決定手段は、前記対象部位形状認識手段が特定した対象部位の形状が、第一の形状であるか、前記第一の形状とは異なる第二の形状であるかを判定し、前記対象部位の形状が第一の形状である場合に、指先に対応する位置に代表点を設定し、前記対象部位の形状が第二の形状である場合に、手の中心に対応する位置に代表点を設定する
ことを特徴とする、請求項1に記載のジェスチャ認識装置。 - 前記代表点決定手段は、前記対象部位形状認識手段が特定した、対象部位である手の形状が、一部の指が伸展している形状である場合に、第一の形状であると判定し、全ての指が伸展している形状または全ての指が屈曲している形状である場合に、第二の形状であると判定する
ことを特徴とする、請求項3に記載のジェスチャ認識装置。 - 前記代表点決定手段は、前記対象部位形状認識手段が特定した、対象部位である手の形状が、一本の指のみが伸展している形状である場合に、第一の形状であると判定する
ことを特徴とする、請求項3に記載のジェスチャ認識装置。 - 前記代表点決定手段は、前記手の中心に対応する位置として、前記対象部位抽出手段によって抽出された、当該手に対応する領域の重心を用いる
ことを特徴とする、請求項3から5のいずれかに記載のジェスチャ認識装置。 - 設定された代表点の位置を利用者に通知する通知手段をさらに有する
ことを特徴とする、請求項1から6のいずれかに記載のジェスチャ認識装置。 - 取得した画像からジェスチャを検出し、当該ジェスチャに対応した、対象機器に対する命令を生成するジェスチャ認識装置の制御方法であって、
画像を取得する画像取得ステップと、
前記取得した画像から、ジェスチャを行う対象部位を抽出する対象部位抽出ステップと、
前記抽出した対象部位の形状を特定する対象部位形状特定ステップと、
前記対象部位に対して、前記対象部位の位置を代表する点である代表点を設定する代表点決定ステップと、
前記代表点の動きに基づいてジェスチャを認識するジェスチャ認識ステップと、
前記認識したジェスチャに対応する命令を生成するコマンド生成ステップと、
を含み、
前記代表点決定ステップでは、前記特定した対象部位の形状を用いて、前記対象部位に対応する代表点の位置を決定する
ことを特徴とする、ジェスチャ認識装置の制御方法。 - 取得した画像からジェスチャを検出し、当該ジェスチャに対応した、対象機器に対する命令を生成するジェスチャ認識装置に、
画像を取得する画像取得ステップと、
前記取得した画像から、ジェスチャを行う対象部位を抽出する対象部位抽出ステップと、
前記抽出した対象部位の形状を特定する対象部位形状特定ステップと、
前記対象部位に対して、前記対象部位の位置を代表する点である代表点を設定する代表点決定ステップと、
前記代表点の動きに基づいてジェスチャを認識するジェスチャ認識ステップと、
前記認識したジェスチャに対応する命令を生成するコマンド生成ステップと、
を実行させ、
前記代表点決定ステップでは、前記特定した対象部位の形状を用いて、前記対象部位に対応する代表点の位置を決定する
ことを特徴とする、ジェスチャ認識プログラム。 - 請求項9に記載のジェスチャ認識プログラムが記録された記録媒体。
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014048911A JP6349800B2 (ja) | 2014-03-12 | 2014-03-12 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
KR1020150011034A KR101631011B1 (ko) | 2014-03-12 | 2015-01-23 | 제스처 인식 장치 및 제스처 인식 장치의 제어 방법 |
EP15152621.7A EP2908218B1 (en) | 2014-02-14 | 2015-01-27 | Gesture recognition apparatus and control method of gesture recognition apparatus |
EP15152625.8A EP2908219A1 (en) | 2014-02-14 | 2015-01-27 | Gesture recognition apparatus and control method of gesture recognition apparatus |
EP15152637.3A EP2919096B8 (en) | 2014-02-14 | 2015-01-27 | Gesture recognition apparatus and control method of gesture recognition apparatus |
CN201510051339.9A CN104914989B (zh) | 2014-03-12 | 2015-01-30 | 姿势辨识装置以及姿势辨识装置的控制方法 |
US14/614,823 US9557821B2 (en) | 2014-03-12 | 2015-02-05 | Gesture recognition apparatus and control method of gesture recognition apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014048911A JP6349800B2 (ja) | 2014-03-12 | 2014-03-12 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015172887A true JP2015172887A (ja) | 2015-10-01 |
JP6349800B2 JP6349800B2 (ja) | 2018-07-04 |
Family
ID=52423599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014048911A Active JP6349800B2 (ja) | 2014-02-14 | 2014-03-12 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9557821B2 (ja) |
JP (1) | JP6349800B2 (ja) |
KR (1) | KR101631011B1 (ja) |
CN (1) | CN104914989B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019168190A1 (ja) * | 2018-03-02 | 2019-09-06 | Necソリューションイノベータ株式会社 | 操作推定装置、操作推定方法、及びコンピュータ読み取り可能な記録媒体 |
EP4250065A1 (en) | 2022-03-22 | 2023-09-27 | Canon Kabushiki Kaisha | Gesture recognition apparatus, head-mounted-type display apparatus, gesture recognition method, program, and computer readable medium |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6287382B2 (ja) * | 2014-03-12 | 2018-03-07 | オムロン株式会社 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
JP6488961B2 (ja) * | 2015-09-28 | 2019-03-27 | 富士通株式会社 | 生成方法、判別方法、プログラム及び情報処理装置 |
JP6841232B2 (ja) * | 2015-12-18 | 2021-03-10 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN107179826B (zh) * | 2016-03-11 | 2021-08-31 | 松下知识产权经营株式会社 | 姿势输入系统和姿势输入方法 |
JP6530357B2 (ja) * | 2016-09-06 | 2019-06-12 | 株式会社日立ビルシステム | 保全作業管理システム及び保全作業管理装置 |
KR20240017702A (ko) * | 2022-08-01 | 2024-02-08 | 삼성전자주식회사 | 센서를 통해 사용자 제스처를 인식하는 디스플레이 장치 및 그 제어 방법 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0944668A (ja) * | 1995-07-26 | 1997-02-14 | Matsushita Electric Ind Co Ltd | 動作開始位置検出方法 |
JP2001306049A (ja) * | 2000-04-21 | 2001-11-02 | Sony Corp | 情報処理装置、動作認識過程表示方法及びプログラム格納媒体 |
JP2005135439A (ja) * | 2004-12-28 | 2005-05-26 | Toshiba Corp | 操作入力装置 |
JP2007164814A (ja) * | 2007-02-09 | 2007-06-28 | Toshiba Corp | インタフェース装置 |
WO2011142317A1 (ja) * | 2010-05-11 | 2011-11-17 | 日本システムウエア株式会社 | ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 |
US20130307768A1 (en) * | 2011-02-08 | 2013-11-21 | Lg Electronics Inc. | Display device and control method thereof |
WO2014009561A2 (en) * | 2012-07-13 | 2014-01-16 | Softkinetic Software | Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009042796A (ja) * | 2005-11-25 | 2009-02-26 | Panasonic Corp | ジェスチャー入力装置および方法 |
JP4267648B2 (ja) * | 2006-08-25 | 2009-05-27 | 株式会社東芝 | インターフェース装置及びその方法 |
WO2011148607A1 (ja) * | 2010-05-28 | 2011-12-01 | パナソニック株式会社 | ジェスチャ認識装置及びジェスチャ認識方法 |
CN102402680B (zh) * | 2010-09-13 | 2014-07-30 | 株式会社理光 | 人机交互系统中手部、指示点定位方法和手势确定方法 |
CN102467657A (zh) * | 2010-11-16 | 2012-05-23 | 三星电子株式会社 | 手势识别系统和方法 |
JP5604279B2 (ja) | 2010-12-08 | 2014-10-08 | 日本システムウエア株式会社 | ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 |
CN102200834B (zh) * | 2011-05-26 | 2012-10-31 | 华南理工大学 | 面向电视控制的指尖鼠标交互方法 |
US9389420B2 (en) | 2012-06-14 | 2016-07-12 | Qualcomm Incorporated | User interface interaction for transparent head-mounted displays |
-
2014
- 2014-03-12 JP JP2014048911A patent/JP6349800B2/ja active Active
-
2015
- 2015-01-23 KR KR1020150011034A patent/KR101631011B1/ko active IP Right Grant
- 2015-01-30 CN CN201510051339.9A patent/CN104914989B/zh active Active
- 2015-02-05 US US14/614,823 patent/US9557821B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0944668A (ja) * | 1995-07-26 | 1997-02-14 | Matsushita Electric Ind Co Ltd | 動作開始位置検出方法 |
JP2001306049A (ja) * | 2000-04-21 | 2001-11-02 | Sony Corp | 情報処理装置、動作認識過程表示方法及びプログラム格納媒体 |
JP2005135439A (ja) * | 2004-12-28 | 2005-05-26 | Toshiba Corp | 操作入力装置 |
JP2007164814A (ja) * | 2007-02-09 | 2007-06-28 | Toshiba Corp | インタフェース装置 |
WO2011142317A1 (ja) * | 2010-05-11 | 2011-11-17 | 日本システムウエア株式会社 | ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 |
US20130307768A1 (en) * | 2011-02-08 | 2013-11-21 | Lg Electronics Inc. | Display device and control method thereof |
WO2014009561A2 (en) * | 2012-07-13 | 2014-01-16 | Softkinetic Software | Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019168190A1 (ja) * | 2018-03-02 | 2019-09-06 | Necソリューションイノベータ株式会社 | 操作推定装置、操作推定方法、及びコンピュータ読み取り可能な記録媒体 |
EP4250065A1 (en) | 2022-03-22 | 2023-09-27 | Canon Kabushiki Kaisha | Gesture recognition apparatus, head-mounted-type display apparatus, gesture recognition method, program, and computer readable medium |
Also Published As
Publication number | Publication date |
---|---|
CN104914989B (zh) | 2018-08-28 |
KR20150106823A (ko) | 2015-09-22 |
US9557821B2 (en) | 2017-01-31 |
CN104914989A (zh) | 2015-09-16 |
US20150261303A1 (en) | 2015-09-17 |
JP6349800B2 (ja) | 2018-07-04 |
KR101631011B1 (ko) | 2016-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6349800B2 (ja) | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 | |
US10761610B2 (en) | Vehicle systems and methods for interaction detection | |
US9134800B2 (en) | Gesture input device and gesture input method | |
WO2014045953A1 (ja) | 情報処理装置および方法、並びにプログラム | |
US20180136806A1 (en) | Display control apparatus, display control method, and program | |
JP6287382B2 (ja) | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 | |
JP2016521894A (ja) | 検出されたジェスチャーに基づいてデバイス動作を実行するためのシステムおよび方法 | |
JP2015095164A (ja) | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 | |
US9965041B2 (en) | Input device, apparatus, input method, and recording medium | |
JP2015176253A (ja) | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 | |
US20130293460A1 (en) | Computer vision based control of an icon on a display | |
JP2012027515A (ja) | 入力方法及び入力装置 | |
JP2012123608A (ja) | ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 | |
US9525906B2 (en) | Display device and method of controlling the display device | |
CN106598422B (zh) | 混合操控方法及操控系统和电子设备 | |
US9092083B2 (en) | Contact detecting device, record display device, non-transitory computer readable medium, and contact detecting method | |
US10162420B2 (en) | Recognition device, method, and storage medium | |
US20190095093A1 (en) | Information processing apparatus, information processing method, and computer readable medium | |
JP2013077180A (ja) | 認識装置およびその制御方法 | |
JP6293761B2 (ja) | ユーザ端末装置、ユーザ端末装置の文字入力方法及びコンピュータ読み取り可能な記録媒体 | |
EP2919096B1 (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
JP2011242889A (ja) | ジェスチャを用いた情報入力装置、方法及びプログラム | |
KR20190069023A (ko) | 손 인식 기반 비접촉식 입력 인터페이스 제공 방법 및 장치 | |
KR102191943B1 (ko) | 사용자 단말 장치, 사용자 단말 장치의 문자 입력 방법 및 컴퓨터 판독 가능한 기록 매체 | |
TW201137671A (en) | Vision based hand posture recognition method and system thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171020 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180508 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180521 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6349800 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |