JP6271444B2 - ジェスチャー認識装置及び方法 - Google Patents
ジェスチャー認識装置及び方法 Download PDFInfo
- Publication number
- JP6271444B2 JP6271444B2 JP2014558932A JP2014558932A JP6271444B2 JP 6271444 B2 JP6271444 B2 JP 6271444B2 JP 2014558932 A JP2014558932 A JP 2014558932A JP 2014558932 A JP2014558932 A JP 2014558932A JP 6271444 B2 JP6271444 B2 JP 6271444B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- hand
- sensor
- input
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 56
- 230000033001 locomotion Effects 0.000 claims description 97
- 230000001133 acceleration Effects 0.000 claims description 63
- 238000012545 processing Methods 0.000 claims description 50
- 238000001514 detection method Methods 0.000 claims description 27
- 230000008859 change Effects 0.000 claims description 21
- 238000006073 displacement reaction Methods 0.000 claims description 17
- 210000004905 finger nail Anatomy 0.000 claims description 15
- 238000005259 measurement Methods 0.000 claims description 6
- 210000001145 finger joint Anatomy 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 claims description 4
- 210000003811 finger Anatomy 0.000 description 101
- 230000006870 function Effects 0.000 description 54
- 238000004364 calculation method Methods 0.000 description 42
- 210000004247 hand Anatomy 0.000 description 25
- 239000003795 chemical substances by application Substances 0.000 description 19
- 230000006399 behavior Effects 0.000 description 12
- 210000000282 nail Anatomy 0.000 description 12
- 230000003993 interaction Effects 0.000 description 11
- 238000003860 storage Methods 0.000 description 11
- 230000009471 action Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 210000001503 joint Anatomy 0.000 description 10
- 101100163122 Arabidopsis thaliana ARPC2A gene Proteins 0.000 description 9
- 101100191082 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) GLC7 gene Proteins 0.000 description 9
- 101100030351 Schizosaccharomyces pombe (strain 972 / ATCC 24843) dis2 gene Proteins 0.000 description 9
- 241001422033 Thestylus Species 0.000 description 8
- 230000015654 memory Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000007704 transition Effects 0.000 description 7
- 230000003542 behavioural effect Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 210000003813 thumb Anatomy 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 230000000670 limiting effect Effects 0.000 description 4
- 230000033764 rhythmic process Effects 0.000 description 4
- 101100109978 Arabidopsis thaliana ARP3 gene Proteins 0.000 description 3
- 101100427547 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) ULS1 gene Proteins 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 101150117607 dis1 gene Proteins 0.000 description 3
- 238000012634 optical imaging Methods 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 210000000811 metacarpophalangeal joint Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 229920001690 polydopamine Polymers 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001272720 Medialuna californiensis Species 0.000 description 1
- 206010044565 Tremor Diseases 0.000 description 1
- 206010052428 Wound Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000011111 cardboard Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 230000007407 health benefit Effects 0.000 description 1
- 230000005802 health problem Effects 0.000 description 1
- 210000004934 left little finger Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000036649 mental concentration Effects 0.000 description 1
- 210000000236 metacarpal bone Anatomy 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 239000000123 paper Substances 0.000 description 1
- 239000011087 paperboard Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 210000003491 skin Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/70—Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
- G06F21/82—Protecting input, output or interconnection devices
- G06F21/83—Protecting input, output or interconnection devices input devices, e.g. keyboards, mice or controllers thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/21—Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/2101—Auditing as a secondary aspect
Description
図1A−1Iは本発明教示の様々な態様を含むジェスチャー認識入力装置100の模範的の実施形態示す。
本発明教示の様々な態様によるジェスチャー認識入力装置は概して、作業空間を観察し、作業空間内に存在するオブジェクト又は入力エージェント(一般にユーザの手、テンプレートなど)の1つ以上のパラメータを示すデータを発生する1つ以上のセンサを含み、一般に入力エージェントと入力装置との物理的接触は必要ない。非限定的な例として、センサは、作業空間内のオブジェクトの位置、速度、加速度度、角変位などを示すデータを発生することができ、このデータは、以下で詳述するように、作業空間内のオブジェクトの部分の距離及び/又は向きを計算するために使用することができる。実際には、センサは様々な構成配置及び方向を有し、様々な検出モダリティの下で動作し得る。
上述したように、センシングモダリティ自体は作業空間への光の投影を必要とする。一例として、図1C−1Fに示す装置100の各々は、例えば赤外光の既知のパターン(例えば水平又は垂直のライン、バー、ドット、形状)を発生させるために赤外光源105、又はカラーバーのパターンを発生させるために可視光源を使用するので、1つ以上のセンサはオブジェクトへの投影時にパターン化された光が成形及び/又は屈曲される状態をキャプチャすることができる。光源105は作業空間を照明するために様々な構成を有し得る。例えば、構造赤外光源105はIRセンサに隣接して配置することができ、またそれから離して配置することもできる。
装置100はパワーオン/オフスイッチ114も含むことができ、このスイッチは装置100の外部に取り付けられたソフトウェアスイッチ又はハードウェアスイッチとすることができる。いくつかの実施形態では、パワースイッチ114を長時間(例えば3秒間)押すと、装置100をパワーオン又はオフすることができ、パワースイッチ114を短時間(例えば1秒以下)押すと、エスケープ又はリセット処理をトリガすることができる。パワースイッチ114は装置をスタンバイ、スリープ、ハイバネート、ウェイクアップなどの1つ以上の動作モードに入れたり出したりするために使用することもできる。
装置100は、装置100の種々の要素を制御し、装置100への入力を処理し、装置100の出力を発生させる制御ユニット116(一般的に「プロセッサ」と称することもできる)も含むことができる。図2は制御ユニット116の一つの模範的な構成を示す。模範的な制御ユニット116が本明細書に示され、記載されるが、これは一般性及び便宜のためであることは理解されよう。他の実施形態では、制御ユニットは構成及び処理がここに示され記載されたものと異なるものとし得る。
様々な実施形態では、装置100は装置100を特定のユーザに初期キャリブレーションを行うキャリブレーションモジュール300を含むことができる。キャリブレーションモジュール300はユーザの指及び手の各部分、関節、爪などの寸法及び特性を計算するとともに、ユーザがキャリブレーションルーチンを実行しているとき動き変数を計算することができる。模範的なキャリブレーション変数は、無制限に、垂直距離、垂直速度、垂直加速度、水平距離、水平速度、水平加速度、角変位、角速度、角加速度などを含む。
様々な態様では、本発明教示によるシステムは特定のユーザに関連する情報(特定のユーザに固有のデータのライブラリ)を取得及び/又は記憶する。一例として、キャリブレーションルーチンが終了すると、ユーザプロファイルモジュール302はキャリブレーションルーチンを終了した特定のユーザに固有のユーザプロファイル情報を記憶することができる。これにより、ユーザはキャリブレーションプロシージャを繰り返すことなく、本質的には各ユーザに対してキャリブレーションプロシージャを1回実行するだけで、装置100を再び後続のセッションに使用することが可能になる。加えて又は代わりに、(例えば、キャリブレーションルーチンが実行されてない場合には)、ユーザプロファイルモジュールはシステムとのユーザの相互作用によりユーザに固有の情報を取得及び/又は記憶することができる。このような記憶情報は、例えばユーザの解剖学的特徴及び/又は良く使われるジェスチャー、アクション又は行動パターンに関連する。ユーザプロファイルモジュールは特定のユーザに固有であるとして論ずるが、様々な実施形態では、特定のユーザプロファイルと関連するデータは、例えば許可された二次ユーザ又は様々なユーザにまたがる分類モジュールの人々に対して共用することができる。
様々な態様では、装置100は向き計算モジュール304も含み、このモジュールはキャリブレーションプロトコル中にキャリブレーションモジュール300により取得された情報及び/又は使用中システムとのユーザの相互作用により得られたユーザ(例えば、非キャリブレーションユーザ)に固有の情報用いてユーザの両手の互いに対する及び装置100に対する位置及び向きの関係を決定する。向き計算モジュール304は、解剖学的パラメータ、特定のユーザ寸法、角度、動き及び他の様々なデータを用いて後の計算で使用する1つ以上の値を導出する。一例として、向き計算モジュールは手の甲の中心を表す「コア」値を計算することができ、このコア値は手の回転を決定するため及び/又は移動する手全体と伸ばした又は縮めた手の指とを区別するために使用することができる。例えば、図5D−5Eにおいて、右手のコア位置CR及び左手のコア位置CLが陰影付き三角で示されている。コア値は、ユーザにより導入される振動(例えば、手の震え)を、ユーザ及び装置100の共通環境(例えば、両方ともでこぼこ道路を走行する車両内にある環境)により導入される振動と区別するのを助けることもできる。いくつかの態様では、コア値は、例えばX,Y及びZデータを微調整することによって、後述する動き計算モジュール324により実行される動き計算にも寄与することができる。コア値は後述する分類モジュール326により実行される分類決定にも寄与することができる。コア値は、ユーザが連続使用中に手の位置を変えることができるように、装置100の動作中に連続的に再計算し調整することができ、それによってユーザの手を長期間同じ状態に維持することを強いられることによって生じ得る疲れや繰り返しストレスなどの健康上の問題が軽減もしくは除去され、ユーザの快適性が向上する。
装置100は解剖学的パラメータモジュール306も含むことができ、このモジュールは人間の手の骨格構造、筋肉及び関節などの物理的制約に基づく1つ以上の規則を記憶する。この情報は、計算の基礎を提供するとともに、例えば物理的に不可能な手の位置を示すセンサ信号をスプリアスとして調整又は廃棄することによって装置の精度を高めるために使用することができる。更に、作業空間全体のセンサビューが、例えばユーザの手の様々な部分により遮られるとき、解剖学的パラメータモジュール306が1つ以上の観察可能なデータポイントに基づくジェスチャーの決定を支援するために情報を提供することができる。
装置100は複数の動作モードの間で装置100を切り替えるモード選択モジュール308も含むことができる。模範的な動作モードは、キーボード入力モード、数字パッド入力モード及びマウス入力モードを含む。モード選択モジュール308は様々なパラメータのうちのいずれか、例えばユーザの手の位置、を評価することによって動作モードを決定することができる。
本装置はジェスチャーライブラリモジュール310も含むことができ、このモジュールによりユーザはここに記載する様々な入力モード(例えば、キーボード入力、数字パッド入力及び/又はマウス入力モード)で使用するカスタムジェスチャーを定義することができる。言い換えれば、ジェスチャーライブラリモジュール310は特定の入力ジェスチャーを特定の出力行動と関連付ける規則を記憶する。例えば、キーボード入力モード中に実行される延長キーストライク時間は大文字が望ましいことを示すカスタムジェスチャーとして解釈することができる。同様に、D1及びD2の同時キーストライク(即ち、2指のタップ)はバックスペース又は取り消し操作が望ましいことを示すカスタムジェスチャーと解釈することができる。長時間の2指タップは複数文字のバックスペース又はデリート操作を示すカスタムジェスチャーと解釈することができる。そして、例えば、テキストの全体部分を削除するには、ユーザはマウス入力モードに移行し、テキストを強調表示し、2指タップを実行することができる。一つの模範的な実施形態では、作業空間内のユーザのつまみ運動における人差し指を親指から離すジェスチャー又は人差し指と親指を合わせるジェスチャーはズームイン又はズームアウトのような特定の操作と関連させることができる。
様々な態様では、出力モジュール312は、ユーザ入力に応答して、現在動作モードに依存して発生される可能な出力の母集団を定義することができる。例えば、キーボード入力モードの可能な出力は、大文字及び小文字A−Z、リターン/エンター、スペースバー、大文字、バックスペース、タブ、ファンクションキーなどを含むことができる。数字パッド入力モードの可能な出力は数字0−9を含むことができる。マウス入力モードの可能な出力は、ポイント、ダブルクリック、選択、ドラッグ解放、右クリックなどを含むことができる。例えば、一実施形態では、右クリックは、人差し指を右へ少し移動させ1回タップすることにより指示することができる。更に可能な出力は、マクロ、シンボル、句読点、特殊文字、及び他の機能を含むことができる。例えば、キーボード入力モードでは、ユーザの利き手でない手はCTRL、ALT、ページアップ及びページダウンなどの特殊キー又は機能キーを入力するためのジェスチャーを実行することができる。
装置100は、装置100又は装置100が結合されるディジタルデータ処理システムの特定のユーザを認証するように構成されたセキュリティモジュール314も含むことができる。記憶されたユーザプロファイル情報を利用すれば、ユーザ固有の手の寸法を単独で又は他のセキュリティ手段(例えば所定のパスワード又はジェスチャー)と合同で、ゲート機能として(例えば、作業空間内への最初の侵入時におけるパスワードの入力時に)及び/又はユーザが認証されたままであることを保証するためにシステムにアクセスし続ける間、予想ユーザが正規のユーザであるかどうかを決定するために使用することができる。
本装置は、装置100をユーザの手以外のオブジェクト、例えば「作業空間内の作業空間」として作用し得る「テンプレート」とともに使用することを容易にするために、テンプレート識別モジュール316も含むことができる。テンプレートは様々な構成を有し得るが、様々な実施形態では、ユーザが物理的に相互作用及び/又は操作し得る選択された入力モードの物理的表示とすることができる。一例として、テンプレートは、キーボード、数字パッド、特殊機能キーパッド、ミュージック入力(例えばピアノキーボード)、描画具/筆記具などの物理的表示とすることができる。いくつかの実施形態では、テンプレートは固定のキー表示(例えば、英数字キー、いくつかの所定の機能と関連するキー、ピアノキー)を備えた表面を有するプレート又はカードとすることができ、固定のキー表示は相対的に固定であるが、センサ又は作業空間に対しては必ずしも固定でない位置を意味する。これは特定の工業環境に対して利用でき、特定の工業環境においてはテンプレート関連する特定のコマンドはより制限的な空間(例えば所領内又は工場内)で実装することが重要である。テンプレートのユーザにより提供される標準化されたキー表示も2本指タイピストなどの異なるタイピングスタイルに対して有益とすることができる。
装置100は、装置100の全体的な精度を向上させるためのエラー処理モジュールも含むことができる。例えば、エラー処理モジュール318は単語推定器を含むことができる。この単語推定器は、複数の可能性のある「キー」のどれが打たれたかに関するクローズコールを1つ以上の前入力を辞書又は他の参照データソースと比較することによって解決するように構成される。
装置100は、(ユーザが付与しようとしている特定の入力の決定を支援するために使用できる)ユーザジェスチャーのアクセスを速くするため、又は装置100を電池寿命の回復のために休止モードにする適期を決定するために、クロックモジュール320を含むこともできる。例えば、ユーザ入力なしで所定の時間が経過すると、装置は自動的に休止モードに入り、セキュリティ102,104のサンプルレートが低減され、光源112がターンオフされる。
装置100による作業空間内のユーザのジェスチャーの検出に起因してディジタルデータ処理システムにより発生される出力の代わりに又は加えて、装置100は可視又は可聴フィードバックをユーザに提供するように構成されたフィールドモジュール322を含むこともできる。一実施形態では、フィードバックモジュール322は、ディスプレイ装置にポップアップキーボード又は他のグラフィックテンプレートを表示するように構成することができる。キーストライク又は他のユーザジェスチャーが検出されると、打たれたキーをポップアップ表示で強調表示することができる。ポップアップの表示は、ユーザが手をレディー位置に所定の期間そのまま動かさずに置くことによってトリガすることができ、ポップアップを完全に表示することができる。この特徴は、ユーザが最初に装置100の操作に慣れるためにキーの位置を示す視覚的ガイドを必要とするとき有用である。参照スクリーン又はテンプレートはジェスチャーライブラリモジュール310により記憶し得る所定のジェスチャーに応答して表示することもできる。参照スクリーンはモード固有にし、キーボード入力モードのときはキーボードが表示され、数字パッド入力モードのときは数字パッドが表示されるようにすることができる。例えばキーストライクの検出時にクリック音又は他の音を発生させることによって、他のタイプのフィードバックをフィードバックモジュール322で提供することもできる。
装置100は作業空間106内のユーザの動きにアクセスするための動き計算モジュール324を含むこともできる。上述したように、時間とともにセンサで発生されるデータは、ユーザの手の1つ以上の構成要素の垂直距離、垂直速度、垂直加速度、水平距離、水平速度、水平加速度、角変位、角速度、角加速度、サイズの変化などを導出するために処理することができる。例えば、図8H及び8Iを参照すると、構造光(例えば、可視光,IR)の模範的な表現が投影されているユーザの手が、第1の位置(図8H)から第2の位置(図8I)へ動くものとして示されている。ユーザの手の動きにつれて構造光センサにより発生される、構造光の各円のパターン、サイズ、及び形に関するデータは、ユーザの手の瞬間的な3次元位置並びに円の位置、サイズ及び形の変化に基づいて経時的動きを決定するためにプロセッサ(例えば動き計算モジュール)で使用することができる。図示の実施形態の構造光は複数の円を例示しているが、構造光の様々なパターン(例えば、水平線、垂直線、着色光バーなど)を使用することができることは理解されよう。構造光は赤外線とし、人間の眼に見えないようすることもできることは理解されよう。
様々な態様において、本教示によるシステム及び方法は、作業空間内のユーザジェスチャーに基づいて発生されたデータをユーザ入力情報と関連付けるように構成された分類モジュールを含むことができる。一例として、動き計算モジュールが解剖学的ランドマーク(例えば指節、指関節、指爪)間の位置、速度、加速度又は角度の経時変化を決定すると、分類モジュールは、これらの測定値を特定のユーザ入力と関連付けることができる。一例として、例えばキーボード入力モードで動作しているときは、分類モジュールは、ユーザの手のいくつかの部分の位置、向き及び/又は速度の観察された変化に基づいて、ユーザのアクションを特定のキーのキーストライクと分類する。このような決定は、例えば観察された動きをライブラリの参照動きと比較することによって行うことができる。
装置100は取得したセンサデータの品質を連続的に又は間欠的に監視する強度評価モジュールも含むことができる。強度評価モジュールが、検出する強度が十分に弱いことを検出するとき(例えば、ユーザの手が、いくつかの指又は部分が他の指又は部分で覆い隠されるように、又はセンサ102,104の範囲を超えるように位置するとき)警報を発し、ユーザに手を置きなおす又は装置100に近づけるように催促することができる。
装置100はアダプタビリティモジュール330も含むことができる。アダプタビリティモジュール330は装置100の機能を基本キーボード入力モード、数字パッド入力モード及びマウス入力モードを超えて拡張することができる。例えば、アダプタビリティモジュール330はカスタマイズした意味を様々なジェスチャー、テンプレート、又はカスタムパッドに指定することをユーザに可能にし、カスタマイズした意味の各々は上述したように強度評価モジュール328により評価し且つ又ジェスチャーライブラリ310により記憶することができる。言い換えれば、アダプタビリティモジュール330は標準入力モードの代わりに又は加えて、カスタムモード(例えば、QWERTY配列でないキーボード、外国語ベースのキーボード)を定義することをユーザに可能にする。これによりユーザはカスタムキーボード、例えば記号、機能、キー、マクロ又は文字を異なる言語で定義することができる。カスタムパッドはカスタムパッド入力モードを入力することにより評価することができ、カスタム入力モードはいくつかの実施形態では数字パッド入力モードと反対のジェスチャーで示すことができる。例えば、利き手の前方及び/又は僅かに外側への移動が数字パッド入力モードへの移行に有効である場合、利き手でない手の前方及び/又は僅かに外側への移動はカスタムパッド入力モードに有効とすることができる。アダプタビリティモジュール330はまた、ユーザがテンプレート上に定義されたキー又はボタンに、又は標準入力モードから逸脱しない範囲で実行可能な固有のジェスチャーにカスタムな意味を指定することを可能にする。従って、ユーザはテンプレートが1つ以上の汎用文字を含むように、又は例えば図8Dに示すように、特定の入力又は機能をカスタムジェスチャー又は入力パッドに指定するようにテンプレートをカスタマイズすることができる。例えば、プログラム可能な固定キーを有するテンプレートは特定の機能(例えば、ピアノキーボードの所定の音符、ページアップ、汎用作業機能など)を指定することができる。テンプレートはテンプレート上のユーザ定義域によりそれらの機能に関する書き込み済み又は印刷済みリファレンスのみでカスタマイズすることもできる。
装置100を動作させる一つの模範的な方法が図11のフローチャートに概略的に示されている。本明細書に開示する様々な方法がフローチャートに関連して示されているが、このようなフローチャート又はその説明により暗示される方法のステップの順序はこれらのステップをその順序で実行する方法を限定するものと解釈されるべきではない。むしろ、本発明明細書に開示する方法の各々の様々なステップは様々な順序で実行することができる。更に、図示のフローチャートは単なる模範的な実施形態であり、追加のステップを含む又は図示のものより少ないステップを含む他の方法も本発明の範囲に含まれる。
[17]ディジタルデータ処理システムのユーザを認証する方法であって、
少なくとも1つのセンサを用いて作業空間内のユーザの1つ以上のパラメータを示すデータを発生させるステップ、
前記データに基づいて前記作業空間内の前記ユーザにより実行されたジェスチャーを示すジェスチャー情報を決定するステップ、及び
前記ユーザが前記ディジタルデータ処理システムの正規のユーザであるかどうかを決定するために前記ジェスチャー情報を所定のジェスチャー情報と比較するステップ、を含む
方法。
[18]前記ジェスチャー情報は、コードの入力中の前記ユーザの手の配置の変化を含む、[17]に記載の方法。
[19]前記ジェスチャー情報は、コード入力中の前記ユーザの手の動きの速度、リズム又はスタイルを含む、[17]に記載の方法。
[20]手が前記作業空間に入る度に、その手が前記ディジタルデータ処理システムの正規のユーザのものであるかを決定するために、前記決定及び比較ステップを繰り返すステップを更に含む、[17]に記載の方法。
[21]前記ユーザが前記ディジタルデータ処理システムで保護されたデータの操作中正規のユーザであるかどうかを決定するために、前記決定及び比較ステップを繰り返すステップを更に含む、[17]に記載の方法。
[22]前記少なくとも1つのセンサからのデータに基づいてユーザのパラメータを決定するステップ、及び前記ユーザが前記ディジタルデータ処理システムの正規のユーザであるかどうかを決定するために前記決定したパラメータを所定の値と比較するステップ、を更に備える、[17]に記載の方法。
[23]前記パラメータは、前記ユーザの一部分の解剖学的形状、前記ユーザの一部分の色、及び前記ユーザの表面テクスチャの少なくとも1つを含む、[22]に記載の方法。
[24]ユーザがディジタルデータ処理システムの正規のユーザであるかどうかを決定するシステムであって、作業空間内でユーザにより実行されたジェスチャーを検出し、検出したジェスチャーを示すジェスチャー情報を発生する少なくとも1つのセンサ、及び前記発生されたジェスチャー情報を記憶媒体に記憶された所定のジェスチャー情報と比較し、前記発生されたジェスチャー情報が前記所定のジェスチャー情報と一致する程度に基づいて前記ユーザを正規のユーザであるかどうかを決定するプロセッサ、を備える、システム。
[25]前記プロセッサはユーザの手のランドマークを検出し、該ユーザの手のランドマークは、指、指部分、指形状、指関節、指爪、皮膚表面輪郭及び手表面のうちの少なくとも1つを含む、[24]に記載のシステム。
[26]前記複数のセンサは、前記ユーザにより実行されるジェスチャーを、前記複数のセンサとの物理的なユーザ接触を必要とすることなく検出するように構成されている、[24]に記載のシステム。
[27]前記プロセッサは、更に、前記ユーザの物理的特徴を検出し、検出した物理的特徴を前記記憶媒体に記憶された所定の特徴情報と比較する、[24]に記載のシステム。
[28]前記プロセッサは、前記ディジタルデータ処理システムで保護されたデータへのアクセスを付与する前に前記ユーザが正規のユーザであるかどうかを決定する、[24]に記載のシステム。
[29]前記プロセッサは、更に、前記ディジタルデータ処理システムで保護されたデータの操作中に前記ユーザが正規のユーザであるかどうかを決定するように構成されている、[24]に記載のシステム。
Claims (16)
- 作業空間を示すデータを発生する少なくとも1つのセンサ、及びプロセッサを備え、前記プロセッサは、
前記少なくとも1つのセンサにより発生されたデータに基づいてユーザの手の複数の解剖学的ランドマークを識別し、前記作業空間内の前記ランドマークの位置を決定するユーザプロファイルモジュール、
前記少なくとも1つのセンサにより時間とともに発生されたデータを比較して前記ランドマークの変化を示す一組の値を発生する動き検出モジュール、
前記ランドマークの変化をユーザ入力情報と関連付ける分類モジュール、及び
前記作業空間内に存在する前記ランドマークの数が所定の閾値よりも少なくなる場合に、動作中の前記ユーザの行動を連続的に又は間欠的に監視して、現在のユーザが依然として正規のユーザであることを確認するセキュリティモジュールを備える、
ディジタルデータ処理システムのための入力装置。 - 前記プロセッサにより発生される前記ユーザ入力情報は、キーボード入力情報、ポインティング装置入力情報、及び数字パッド入力情報のうちの少なくとも1を含む、請求項1記載の入力装置。
- 前記少なくとも1つのセンサは、前記ユーザの手の3次元位置及び向きを示すデータを発生するように構成された単一のセンサを含む、請求項1記載の入力装置。
- 前記センサは、少なくとも1つの撮像センサ、構造光センサ、構造赤外光センサ、飛行時間センサ、又はその組み合わせを含む、請求項3記載の入力装置。
- 前記少なくとも1つのセンサは、第1のパースペクティブから前記作業空間を観察する第1のセンサ及び前記第1のセンサから間隔を置いて配置され、前記第1のパースペクティブと異なる第2のパースペクティブから前記作業空間を観察する第2のセンサを含む、
請求項1記載の入力装置。 - 前記プロセッサで検出されるランドマークは、指、指部分、指形状、指関節、指爪、皮膚表面輪郭、及び手の表面のうちの少なくとも1つを含み、前記ユーザの手の1つ以上のパラメータは、前記ユーザの手のサイズ、前記ユーザの手の色、前記ユーザの手の表面テクスチャ、前記ユーザの手の位置、及び前記ユーザの手の向きを含む、請求項1記載の入力装置。
- 前記作業空間は前記少なくとも1つのセンサの視野内の3次元空間を含み、必要に応じて、前記作業空間は、前記入力装置が位置する表面を含む、請求項1記載の入力装置。
- 前記少なくとも1つのセンサは、前記作業空間の周囲に置かれた複数のセンサを備え、
前記作業空間は前記複数のセンサにより囲まれた領域を含む、請求項1記載の入力装置。 - 各ユーザの手は複数の指を含み、前記入力装置は複数の動作モードで動作することができ、前記プロセッサは現在の動作モードを、前記1つ以上の手の位置、前記1つ以上の手が実行したジェスチャー、及び前記1つ以上の手の配置のうちの少なくとも1つに少なくとも部分的に基づいて設定するように構成されている、請求項1記載の入力装置。
- 前記複数の動作モードは、キーボード入力モード、ポインティング装置入力モード、数字パッド入力モード、テンプレートベース入力モード、及びカスタムパッド入力モードを含む、請求項9記載の入力装置。
- 前記プロセッサは、前記ユーザの手の複数の指の1つのみが伸ばされるとき、現在の動作モードを前記ポインティング装置入力モードに設定し、前記プロセッサは、前記作業空間内に限界数の指を検出するとき、現在の動作モードを前記キーボード入力モードに設定し、及び前記プロセッサは、前記1つ以上の手の1つのホーム位置から横にずれた位置への移動を検出するとき、又は前記1つ以上の手の1つのみが作業空間に存在することを検出するとき、現在の動作モードを前記数字パッド入力モードに設定する、請求項10記載の入力装置。
- 特定のジェスチャーが検出されたとき、前記プロセッサが特定のユーザ入力情報を発生するように、前記特定のユーザ入力情報を前記特定のジェスチャーに割り当てる設定モジュールを更に備える、請求項1記載の入力装置。
- 前記設定モジュールは、前記特定のジェスチャーを確実に検出できる程度に基づいてジェスチャー強度インジケータを表示する、請求項12記載の入力装置。
- 前記動き検出モジュールが、出発位置に対する前記ランドマークの距離の変化、前記ランドマークの速度の変化及び前記ランドマークの加速度の変化、少なくとも2つのランドマークの角度関係の変化、1つの頂点と少なくとも2つのランドマークとで決まる角度の角度変位、1つの頂点と少なくとも2つのランドマークとで決まる角度の角速度及び1つの頂点と少なくとも2つのランドマークとで決まる角度の角加速度のうちの少なくとも1つを測定し、前記分類モジュールがこのような測定値をユーザ入力情報と関連付ける、請求項1記載の入力装置。
- 前記動き検出モジュールが、特定のランドマークの移動距離、速度及び加速度の少なくとも1つを少なくとも1つの他のランドマークの移動距離、速度及び加速度の少なくとも1つと比較し、前記分類モジュールが前記比較に基づいてユーザ入力情報を発生する、請求項1記載の入力装置。
- 前記作業空間内にテンプレートの存在を決定するテンプレート識別モジュールを更に備え、及び前記分類モジュールは前記テンプレートに対するランドマークの変化を前記テンプレートと関連するユーザ入力情報と関連付ける、請求項1記載の入力装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261602704P | 2012-02-24 | 2012-02-24 | |
US61/602,704 | 2012-02-24 | ||
PCT/US2013/027682 WO2013126905A2 (en) | 2012-02-24 | 2013-02-25 | Gesture recognition devices and methods |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015519624A JP2015519624A (ja) | 2015-07-09 |
JP2015519624A5 JP2015519624A5 (ja) | 2016-04-14 |
JP6271444B2 true JP6271444B2 (ja) | 2018-01-31 |
Family
ID=48045016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014558932A Active JP6271444B2 (ja) | 2012-02-24 | 2013-02-25 | ジェスチャー認識装置及び方法 |
Country Status (6)
Country | Link |
---|---|
US (4) | US9880629B2 (ja) |
EP (1) | EP2817693B1 (ja) |
JP (1) | JP6271444B2 (ja) |
KR (2) | KR101953165B1 (ja) |
CA (2) | CA2864719C (ja) |
WO (1) | WO2013126905A2 (ja) |
Families Citing this family (87)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2480955B1 (en) * | 2009-09-22 | 2018-05-16 | Facebook Inc. | Remote control of computer devices |
ES2693060T3 (es) * | 2011-03-17 | 2018-12-07 | Ssi Schäfer Automation Gmbh | Control y supervisión de una instalación de almacén y preparación de pedidos mediante movimiento y voz |
CN102622174B (zh) * | 2012-02-23 | 2013-12-11 | 中兴通讯股份有限公司 | 一种屏幕的解锁系统和方法 |
KR101953165B1 (ko) | 2012-02-24 | 2019-05-22 | 토마스 제이. 모스카릴로 | 제스처 인식 디바이스들 및 방법들 |
JP6153290B2 (ja) * | 2012-04-11 | 2017-06-28 | シャープ株式会社 | 画像表示装置、および、それを用いた展示ボックス |
TWM451589U (zh) * | 2012-12-14 | 2013-04-21 | Sunrex Technology Corp | 光學感測式輸入裝置 |
US9203835B2 (en) * | 2013-03-01 | 2015-12-01 | Paypal, Inc. | Systems and methods for authenticating a user based on a biometric model associated with the user |
US9442570B2 (en) * | 2013-03-13 | 2016-09-13 | Google Technology Holdings LLC | Method and system for gesture recognition |
EP2818985B1 (en) * | 2013-06-28 | 2021-05-12 | Nokia Technologies Oy | A hovering input field |
US9703396B2 (en) * | 2013-07-12 | 2017-07-11 | Wen-Chieh Geoffrey Lee | High resolution and high sensitivity three-dimensional (3D) cursor maneuvering reference plane, and methods of its manufacture |
US9335831B2 (en) * | 2013-10-14 | 2016-05-10 | Adaptable Keys A/S | Computer keyboard including a control unit and a keyboard screen |
KR102206053B1 (ko) * | 2013-11-18 | 2021-01-21 | 삼성전자주식회사 | 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법 |
US9857971B2 (en) * | 2013-12-02 | 2018-01-02 | Industrial Technology Research Institute | System and method for receiving user input and program storage medium thereof |
JP6090140B2 (ja) * | 2013-12-11 | 2017-03-08 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US9965761B2 (en) * | 2014-01-07 | 2018-05-08 | Nod, Inc. | Methods and apparatus for providing secure identification, payment processing and/or signing using a gesture-based input device |
US20150220158A1 (en) * | 2014-01-07 | 2015-08-06 | Nod Inc. | Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User's Range of Motion |
CN103793057B (zh) * | 2014-01-26 | 2017-02-01 | 华为终端有限公司 | 信息处理方法、装置及设备 |
WO2015120236A1 (en) * | 2014-02-06 | 2015-08-13 | Kopin Corporation | Voltage reference and current source mixing method for video dac |
JP5956481B2 (ja) * | 2014-02-10 | 2016-07-27 | レノボ・シンガポール・プライベート・リミテッド | 入力装置、入力方法、及びコンピュータが実行可能なプログラム |
RU2016136366A (ru) | 2014-02-12 | 2018-03-15 | Конинклейке Филипс Н.В. | Устройство обнаружения движения, обнаруживающее движение руки |
JP2015162079A (ja) * | 2014-02-27 | 2015-09-07 | 沖電気工業株式会社 | タッチ位置補正システムおよび自動取引装置 |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US10013083B2 (en) | 2014-04-28 | 2018-07-03 | Qualcomm Incorporated | Utilizing real world objects for user input |
US10852838B2 (en) | 2014-06-14 | 2020-12-01 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9275220B2 (en) | 2014-06-16 | 2016-03-01 | International Business Machines Corporation | Multiple input based passwords |
KR102270096B1 (ko) | 2014-06-27 | 2021-06-25 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 유저 및 제스쳐 인식에 기초한 데이터 보호 |
CN114329374A (zh) | 2014-06-27 | 2022-04-12 | 微软技术许可有限责任公司 | 基于设备上的用户输入模式的数据保护系统 |
WO2015196447A1 (en) | 2014-06-27 | 2015-12-30 | Microsoft Technology Licensing, Llc | Data protection based on user input during device boot-up, user login, and device shut-down states |
US10474849B2 (en) | 2014-06-27 | 2019-11-12 | Microsoft Technology Licensing, Llc | System for data protection in power off mode |
CN106232010B (zh) * | 2014-07-02 | 2020-03-31 | 柯惠有限合伙公司 | 用于检测气管的系统和方法 |
CN106575150B (zh) | 2014-08-16 | 2020-03-03 | 谷歌有限责任公司 | 使用运动数据识别手势的方法和可穿戴计算设备 |
US10660039B1 (en) | 2014-09-02 | 2020-05-19 | Google Llc | Adaptive output of indications of notification data |
EP3032502A1 (en) * | 2014-12-11 | 2016-06-15 | Assa Abloy Ab | Authenticating a user for access to a physical space using an optical sensor |
JP6674683B2 (ja) * | 2014-12-19 | 2020-04-01 | 国立大学法人 鹿児島大学 | 認証処理装置及び認証処理方法 |
US20160189161A1 (en) * | 2014-12-29 | 2016-06-30 | Ebay Inc. | Authentication schemes for activities of accounts |
US9294802B1 (en) * | 2015-01-30 | 2016-03-22 | Rovi Guides, Inc. | Gesture control based on prosthetic nerve signal detection |
US9779225B2 (en) * | 2015-04-08 | 2017-10-03 | Google Inc. | Method and system to provide access to secure features of a device |
WO2016168788A2 (en) | 2015-04-17 | 2016-10-20 | Tulip Interfaces, Inc. | Containerized communications gateway |
US10235507B1 (en) * | 2015-04-20 | 2019-03-19 | Intensity Analytics Corporation | Authentication via typing cadence, gestures, and QR codes |
US9842250B2 (en) * | 2015-05-13 | 2017-12-12 | Capital One Services, Llc | Systems and methods for authenticating a user based on captured image data |
US9804679B2 (en) | 2015-07-03 | 2017-10-31 | Google Inc. | Touchless user interface navigation using gestures |
JP6570376B2 (ja) * | 2015-08-27 | 2019-09-04 | キヤノン株式会社 | 情報処理装置、その制御方法、プログラム、記憶媒体 |
US10282090B2 (en) * | 2015-09-30 | 2019-05-07 | Apple Inc. | Systems and methods for disambiguating intended user input at an onscreen keyboard using dual strike zones |
US10429935B2 (en) | 2016-02-08 | 2019-10-01 | Comcast Cable Communications, Llc | Tremor correction for gesture recognition |
KR101976605B1 (ko) * | 2016-05-20 | 2019-05-09 | 이탁건 | 전자기기 및 그 동작 방법 |
WO2018042923A1 (ja) * | 2016-08-31 | 2018-03-08 | ソニー株式会社 | 情報処理システム、情報処理方法、およびプログラム |
US10725544B1 (en) | 2016-09-09 | 2020-07-28 | Apple Inc. | Pencil haptics |
US10268273B1 (en) * | 2016-09-09 | 2019-04-23 | Apple Inc. | Stylus with multiple inputs |
US10268288B1 (en) | 2016-09-20 | 2019-04-23 | Apple Inc. | Stiffness rendering for a pencil |
KR101883866B1 (ko) * | 2016-12-23 | 2018-08-01 | 단국대학교 산학협력단 | 지면 접촉식 손가락 입력 장치 및 방법 |
US11002855B2 (en) | 2016-12-27 | 2021-05-11 | Microvision, Inc. | Occlusion-based height estimation |
US10061441B2 (en) * | 2016-12-27 | 2018-08-28 | Microvision, Inc. | Touch interactivity with occlusions in returned illumination data |
US10761188B2 (en) | 2016-12-27 | 2020-09-01 | Microvision, Inc. | Transmitter/receiver disparity for occlusion-based height estimation |
US10429938B2 (en) * | 2017-04-18 | 2019-10-01 | International Business Machines Corporation | Interpreting and generating input and output gestures |
KR102256110B1 (ko) * | 2017-05-26 | 2021-05-26 | 라인 가부시키가이샤 | 영상 압축 방법 및 영상 복원 방법 |
WO2019005936A1 (en) * | 2017-06-27 | 2019-01-03 | Intel Corporation | GESTURE RECOGNITION RADAR SYSTEMS AND METHODS |
JP6992367B2 (ja) * | 2017-09-27 | 2022-01-13 | カシオ計算機株式会社 | 爪輪郭検出装置、爪輪郭検出方法及び爪輪郭検出プログラム |
CN107885337B (zh) * | 2017-12-20 | 2024-03-08 | 陈瑞环 | 一种基于指法识别的信息输入方法及其装置 |
WO2019159332A1 (ja) * | 2018-02-16 | 2019-08-22 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理システム、コントローラデバイス、情報処理方法、及びプログラム |
WO2019176009A1 (ja) * | 2018-03-14 | 2019-09-19 | マクセル株式会社 | 携帯情報端末 |
US10719173B2 (en) * | 2018-04-04 | 2020-07-21 | Facebook Technologies, Llc | Transcribing augmented reality keyboard input based on hand poses for improved typing accuracy |
US11307880B2 (en) | 2018-04-20 | 2022-04-19 | Meta Platforms, Inc. | Assisting users with personalized and contextual communication content |
US10782986B2 (en) | 2018-04-20 | 2020-09-22 | Facebook, Inc. | Assisting users with personalized and contextual communication content |
US11715042B1 (en) | 2018-04-20 | 2023-08-01 | Meta Platforms Technologies, Llc | Interpretability of deep reinforcement learning models in assistant systems |
US11886473B2 (en) | 2018-04-20 | 2024-01-30 | Meta Platforms, Inc. | Intent identification for agent matching by assistant systems |
US11676220B2 (en) | 2018-04-20 | 2023-06-13 | Meta Platforms, Inc. | Processing multimodal user input for assistant systems |
US11580002B2 (en) | 2018-08-17 | 2023-02-14 | Intensity Analytics Corporation | User effort detection |
JP7312615B2 (ja) * | 2019-02-22 | 2023-07-21 | シャープ株式会社 | 入力装置及び入力システム |
JP6614545B1 (ja) * | 2019-04-16 | 2019-12-04 | クリスタルメソッド株式会社 | 推定システム、及び推定装置 |
JP7198356B2 (ja) * | 2019-07-01 | 2022-12-28 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理方法、及びプログラム |
US11698457B2 (en) * | 2019-09-04 | 2023-07-11 | Pixart Imaging Inc. | Object detecting system and object detecting method |
WO2021054589A1 (en) | 2019-09-18 | 2021-03-25 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
CN112767300A (zh) * | 2019-10-18 | 2021-05-07 | 宏达国际电子股份有限公司 | 自动生成手部的标注数据的方法和计算骨骼长度的方法 |
KR20210052874A (ko) * | 2019-11-01 | 2021-05-11 | 삼성전자주식회사 | 복수의 센서 신호를 이용하여 사용자의 제스처를 인식하는 전자 장치 |
WO2021157691A1 (ja) * | 2020-02-06 | 2021-08-12 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
US20210263593A1 (en) * | 2020-02-26 | 2021-08-26 | Magic Leap, Inc. | Hand gesture input for wearable system |
CN111443802B (zh) * | 2020-03-25 | 2023-01-17 | 维沃移动通信有限公司 | 测量方法及电子设备 |
US11946996B2 (en) | 2020-06-30 | 2024-04-02 | Apple, Inc. | Ultra-accurate object tracking using radar in multi-object environment |
US11755124B1 (en) * | 2020-09-25 | 2023-09-12 | Apple Inc. | System for improving user input recognition on touch surfaces |
CN112328156B (zh) * | 2020-11-12 | 2022-05-17 | 维沃移动通信有限公司 | 输入设备的控制方法、装置和电子设备 |
JP2022087700A (ja) * | 2020-12-01 | 2022-06-13 | 京セラドキュメントソリューションズ株式会社 | 電子機器および画像形成装置 |
WO2022178287A1 (en) * | 2021-02-19 | 2022-08-25 | Covera Health | Uncertainty-aware deep reinforcement learning for anatomical landmark detection in medical images |
CN113031464B (zh) * | 2021-03-22 | 2022-11-22 | 北京市商汤科技开发有限公司 | 设备控制方法、装置、电子设备及存储介质 |
US20230031200A1 (en) * | 2021-07-30 | 2023-02-02 | Jadelynn Kim Dao | Touchless, Gesture-Based Human Interface Device |
CN113743247A (zh) * | 2021-08-16 | 2021-12-03 | 电子科技大学 | 基于Reders模型的手势识别方法 |
EP4325345A1 (en) * | 2021-09-06 | 2024-02-21 | Samsung Electronics Co., Ltd. | Electronic device for acquiring user input through virtual keyboard and operating method thereof |
US20230107097A1 (en) * | 2021-10-06 | 2023-04-06 | Fotonation Limited | Method for identifying a gesture |
Family Cites Families (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0554492B1 (en) | 1992-02-07 | 1995-08-09 | International Business Machines Corporation | Method and device for optical input of commands or data |
US5732227A (en) * | 1994-07-05 | 1998-03-24 | Hitachi, Ltd. | Interactive information processing system responsive to user manipulation of physical objects and displayed images |
JP2000132305A (ja) * | 1998-10-23 | 2000-05-12 | Olympus Optical Co Ltd | 操作入力装置 |
US6614422B1 (en) | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
US20030174125A1 (en) | 1999-11-04 | 2003-09-18 | Ilhami Torunoglu | Multiple input modes in overlapping physical space |
US20050037844A1 (en) * | 2002-10-30 | 2005-02-17 | Nike, Inc. | Sigils for use with apparel |
US6771294B1 (en) * | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
US7660444B2 (en) * | 2000-02-24 | 2010-02-09 | Nokia Corporation | Method and apparatus for user recognition using CCD cameras |
EP1148411A3 (en) * | 2000-04-21 | 2005-09-14 | Sony Corporation | Information processing apparatus and method for recognising user gesture |
US6744420B2 (en) * | 2000-06-01 | 2004-06-01 | Olympus Optical Co., Ltd. | Operation input apparatus using sensor attachable to operator's hand |
US7042442B1 (en) | 2000-06-27 | 2006-05-09 | International Business Machines Corporation | Virtual invisible keyboard |
DE10100617A1 (de) * | 2001-01-09 | 2002-07-18 | Siemens Ag | Steuerbare Anordnung mit Benutzerauthentisierung |
US7003670B2 (en) * | 2001-06-08 | 2006-02-21 | Musicrypt, Inc. | Biometric rights management system |
JP2003256850A (ja) * | 2001-12-27 | 2003-09-12 | Sanyo Electric Co Ltd | 動き認識装置および画像処理装置並びにプログラム |
US7071924B2 (en) | 2002-01-10 | 2006-07-04 | International Business Machines Corporation | User input method and apparatus for handheld computers |
US20030132913A1 (en) * | 2002-01-11 | 2003-07-17 | Anton Issinski | Touchless computer input device to control display cursor mark position by using stereovision input from two video cameras |
WO2003071410A2 (en) | 2002-02-15 | 2003-08-28 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US7307661B2 (en) | 2002-06-26 | 2007-12-11 | Vbk Inc. | Multifunctional integrated image sensor and application to virtual interface technology |
US8460103B2 (en) * | 2004-06-18 | 2013-06-11 | Igt | Gesture controlled casino gaming system |
US7151530B2 (en) | 2002-08-20 | 2006-12-19 | Canesta, Inc. | System and method for determining an input selected by a user through a virtual interface |
KR100537503B1 (ko) | 2002-12-31 | 2005-12-19 | 삼성전자주식회사 | 공간형정보입력장치 구성 방법, 재구성 방법, 착용인식방법 및그 장치 |
JP4286556B2 (ja) * | 2003-02-24 | 2009-07-01 | 株式会社東芝 | 画像表示装置 |
JP4185421B2 (ja) * | 2003-08-27 | 2008-11-26 | 日本電信電話株式会社 | 処理情報入力装置、処理情報入力方法、この方法のプログラム、およびこのプログラムを記録した記録媒体 |
US7308112B2 (en) * | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US8872899B2 (en) * | 2004-07-30 | 2014-10-28 | Extreme Reality Ltd. | Method circuit and system for human to machine interfacing by hand gestures |
US9760214B2 (en) * | 2005-02-23 | 2017-09-12 | Zienon, Llc | Method and apparatus for data entry input |
EP1859339A2 (en) * | 2005-03-10 | 2007-11-28 | Koninklijke Philips Electronics N.V. | System and method for detecting the location, size and shape of multiple objects that interact with a touch screen display |
US20070130547A1 (en) * | 2005-12-01 | 2007-06-07 | Navisense, Llc | Method and system for touchless user interface control |
JP2007219966A (ja) * | 2006-02-20 | 2007-08-30 | Sharp Corp | 投影入力装置、投影入力装置を備えた情報端末及び充電器 |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US8452978B2 (en) | 2006-09-15 | 2013-05-28 | Identity Metrics, LLC | System and method for user authentication and dynamic usability of touch-screen devices |
US8354997B2 (en) | 2006-10-31 | 2013-01-15 | Navisense | Touchless user interface for a mobile device |
US8904312B2 (en) | 2006-11-09 | 2014-12-02 | Navisense | Method and device for touchless signing and recognition |
US8793621B2 (en) | 2006-11-09 | 2014-07-29 | Navisense | Method and device to control touchless recognition |
US7877707B2 (en) | 2007-01-06 | 2011-01-25 | Apple Inc. | Detecting and interpreting real-world and security gestures on touch and hover sensitive devices |
US10133873B2 (en) * | 2007-09-09 | 2018-11-20 | International Business Machines Corporation | Temporary concealment of a subset of displayed confidential data |
US20090189858A1 (en) * | 2008-01-30 | 2009-07-30 | Jeff Lev | Gesture Identification Using A Structured Light Pattern |
US8555207B2 (en) | 2008-02-27 | 2013-10-08 | Qualcomm Incorporated | Enhanced input using recognized gestures |
US8514251B2 (en) | 2008-06-23 | 2013-08-20 | Qualcomm Incorporated | Enhanced character input using recognized gestures |
JP5304148B2 (ja) * | 2008-09-29 | 2013-10-02 | セイコーエプソン株式会社 | 情報処理装置およびプログラム |
WO2010101697A2 (en) * | 2009-02-06 | 2010-09-10 | Oculis Labs, Inc. | Video-based privacy supporting system |
JP2010268989A (ja) * | 2009-05-22 | 2010-12-02 | Sony Ericsson Mobilecommunications Japan Inc | 個人認証装置および携帯端末 |
WO2010144050A1 (en) | 2009-06-08 | 2010-12-16 | Agency For Science, Technology And Research | Method and system for gesture based manipulation of a 3-dimensional image of object |
US9013423B2 (en) * | 2009-06-16 | 2015-04-21 | Intel Corporation | Adaptive virtual keyboard for handheld device |
US9594431B2 (en) * | 2009-06-19 | 2017-03-14 | Hewlett-Packard Development Company, L.P. | Qualified command |
TWI398818B (zh) * | 2009-06-30 | 2013-06-11 | Univ Nat Taiwan Science Tech | 手勢辨識方法與系統 |
US20110016240A1 (en) * | 2009-07-14 | 2011-01-20 | Andrew Jesse Mills | Measuring and Analyzing Behavioral and Mood Characteristics in Order to Verify the Authenticity of Computer Users Works |
US8600166B2 (en) * | 2009-11-06 | 2013-12-03 | Sony Corporation | Real time hand tracking, pose classification and interface control |
US8843857B2 (en) | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
CN102109902A (zh) | 2009-12-28 | 2011-06-29 | 鸿富锦精密工业(深圳)有限公司 | 基于手势识别的输入装置 |
WO2011080923A1 (ja) * | 2009-12-28 | 2011-07-07 | パナソニック株式会社 | 関節状領域検出装置およびその方法 |
IL204436A (en) * | 2010-03-11 | 2016-03-31 | Deutsche Telekom Ag | A system and method for remote control of online TV by waving hands |
JP2011209786A (ja) * | 2010-03-29 | 2011-10-20 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
JP5601045B2 (ja) * | 2010-06-24 | 2014-10-08 | ソニー株式会社 | ジェスチャ認識装置、ジェスチャ認識方法およびプログラム |
US20130275907A1 (en) * | 2010-10-14 | 2013-10-17 | University of Technology ,Sydney | Virtual keyboard |
US9177125B2 (en) * | 2011-05-27 | 2015-11-03 | Microsoft Technology Licensing, Llc | Protection from unfamiliar login locations |
US8693726B2 (en) * | 2011-06-29 | 2014-04-08 | Amazon Technologies, Inc. | User identification by gesture recognition |
US8754863B2 (en) * | 2011-09-23 | 2014-06-17 | Motorola Solutions, Inc. | Fixed display system interaction with a communication device |
US20130159939A1 (en) * | 2011-10-12 | 2013-06-20 | Qualcomm Incorporated | Authenticated gesture recognition |
US20130182079A1 (en) | 2012-01-17 | 2013-07-18 | Ocuspec | Motion capture using cross-sections of an object |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
JP2015510169A (ja) | 2012-01-17 | 2015-04-02 | リープ モーション, インコーポレーテッドLeap Motion, Inc. | 物体検出のためのコントラストの改善及び光学画像化による特徴評価 |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
KR101953165B1 (ko) | 2012-02-24 | 2019-05-22 | 토마스 제이. 모스카릴로 | 제스처 인식 디바이스들 및 방법들 |
WO2014018836A1 (en) | 2012-07-26 | 2014-01-30 | Leap Motion, Inc. | Object detection and tracking |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US9386298B2 (en) | 2012-11-08 | 2016-07-05 | Leap Motion, Inc. | Three-dimensional image sensors |
US9392196B2 (en) | 2012-11-08 | 2016-07-12 | Leap Motion, Inc. | Object detection and tracking with reduced error due to background illumination |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US10042510B2 (en) | 2013-01-15 | 2018-08-07 | Leap Motion, Inc. | Dynamic user interactions for display control and measuring degree of completeness of user gestures |
US10157309B2 (en) * | 2016-01-14 | 2018-12-18 | Nvidia Corporation | Online detection and classification of dynamic gestures with recurrent convolutional neural networks |
-
2013
- 2013-02-25 KR KR1020147026595A patent/KR101953165B1/ko active IP Right Grant
- 2013-02-25 WO PCT/US2013/027682 patent/WO2013126905A2/en active Application Filing
- 2013-02-25 CA CA2864719A patent/CA2864719C/en active Active
- 2013-02-25 JP JP2014558932A patent/JP6271444B2/ja active Active
- 2013-02-25 US US13/776,439 patent/US9880629B2/en active Active
- 2013-02-25 KR KR1020197005290A patent/KR102133702B1/ko active IP Right Grant
- 2013-02-25 CA CA3051912A patent/CA3051912C/en active Active
- 2013-02-25 EP EP13713589.3A patent/EP2817693B1/en active Active
-
2018
- 2018-01-12 US US15/870,023 patent/US11009961B2/en active Active
-
2021
- 2021-05-17 US US17/322,556 patent/US11755137B2/en active Active
-
2023
- 2023-07-21 US US18/224,887 patent/US20240077969A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
KR101953165B1 (ko) | 2019-05-22 |
EP2817693A2 (en) | 2014-12-31 |
US11755137B2 (en) | 2023-09-12 |
US11009961B2 (en) | 2021-05-18 |
CA2864719A1 (en) | 2013-08-29 |
CA3051912A1 (en) | 2013-08-29 |
KR20190022911A (ko) | 2019-03-06 |
JP2015519624A (ja) | 2015-07-09 |
WO2013126905A3 (en) | 2015-04-02 |
KR102133702B1 (ko) | 2020-07-14 |
US20240077969A1 (en) | 2024-03-07 |
KR20150010702A (ko) | 2015-01-28 |
CA2864719C (en) | 2019-09-24 |
US20210271340A1 (en) | 2021-09-02 |
US20130265218A1 (en) | 2013-10-10 |
US9880629B2 (en) | 2018-01-30 |
CA3051912C (en) | 2023-03-07 |
EP2817693B1 (en) | 2023-04-05 |
WO2013126905A2 (en) | 2013-08-29 |
US20180181208A1 (en) | 2018-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6271444B2 (ja) | ジェスチャー認識装置及び方法 | |
US20220083880A1 (en) | Interactions with virtual objects for machine control | |
US10866632B2 (en) | Interaction engine for creating a realistic experience in virtual reality/augmented reality environments | |
US10739965B2 (en) | Virtual interactions for machine control | |
US9529523B2 (en) | Method using a finger above a touchpad for controlling a computerized system | |
US9477874B2 (en) | Method using a touchpad for controlling a computerized system with epidermal print information | |
US20160364138A1 (en) | Front touchscreen and back touchpad operated user interface employing semi-persistent button groups | |
US20170017393A1 (en) | Method for controlling interactive objects from a touchpad of a computerized device | |
US20200004403A1 (en) | Interaction strength using virtual objects for machine control | |
US20140337786A1 (en) | Method for controlling a virtual keyboard from a touchpad of a computerized device | |
US20150323998A1 (en) | Enhanced user interface for a wearable electronic device | |
US9542032B2 (en) | Method using a predicted finger location above a touchpad for controlling a computerized system | |
US20150363038A1 (en) | Method for orienting a hand on a touchpad of a computerized system | |
US20140253486A1 (en) | Method Using a Finger Above a Touchpad During a Time Window for Controlling a Computerized System | |
US9639195B2 (en) | Method using finger force upon a touchpad for controlling a computerized system | |
WO2015013662A1 (en) | Method for controlling a virtual keyboard from a touchpad of a computerized device | |
KR20140086805A (ko) | 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록매체 | |
Ren | Designing for Effective Freehand Gestural Interaction | |
WO2015016894A1 (en) | Gesture detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160224 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170110 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20170327 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20170607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6271444 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |