JP7497458B2 - ジェスチャ制御電子装置の制御表示ゲインを調整するための方法および装置 - Google Patents
ジェスチャ制御電子装置の制御表示ゲインを調整するための方法および装置 Download PDFInfo
- Publication number
- JP7497458B2 JP7497458B2 JP2022564806A JP2022564806A JP7497458B2 JP 7497458 B2 JP7497458 B2 JP 7497458B2 JP 2022564806 A JP2022564806 A JP 2022564806A JP 2022564806 A JP2022564806 A JP 2022564806A JP 7497458 B2 JP7497458 B2 JP 7497458B2
- Authority
- JP
- Japan
- Prior art keywords
- hand
- gesture
- gain
- control device
- drag
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 186
- 230000006870 function Effects 0.000 claims description 69
- 230000033001 locomotion Effects 0.000 claims description 68
- 230000004044 response Effects 0.000 claims description 23
- 230000015654 memory Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 16
- 230000001419 dependent effect Effects 0.000 claims description 9
- 238000012886 linear function Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims 2
- 238000001514 detection method Methods 0.000 description 78
- 230000008859 change Effects 0.000 description 36
- 230000003068 static effect Effects 0.000 description 35
- 230000008569 process Effects 0.000 description 17
- 230000007704 transition Effects 0.000 description 16
- 210000004247 hand Anatomy 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000007935 neutral effect Effects 0.000 description 3
- 238000005201 scrubbing Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 241000238876 Acari Species 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005293 physical law Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
Description
本出願は、2020年10月30日に出願され、「ジェスチャ制御電子装置の制御表示ゲインを調整するための方法および装置」と題する米国非仮出願第17/085,866号に対する利益を主張し、この米国非仮出願は、2020年4月26日に出願され、「ジェスチャ制御電子装置の制御表示ゲインを調整するための方法およびシステム」と題する米国仮出願第63/015,595号の利益を主張し、これらは両方とも、その全体が再現されているかのように参照により本明細書に組み込まれる。
簡単にするために、本開示は、ディスプレイ(例えば、ビデオ会議システムと通信するスマートテレビ(TV)または表示装置)を有するジェスチャ制御装置の状況における例を説明し、例えばビデオの再生のために装置と対話するために装置を制御するための方法およびシステムを説明する。しかしながら、本開示はそのような実施形態に限定されず、本明細書に記載の方法およびシステムは、様々な用途において様々なジェスチャ制御装置を制御するために使用され得ることを理解されたい。例えば、本明細書に記載の方法およびシステムのいくつかの実施形態は、ユーザにフィードバック情報を提供するために、オーディオスピーカなどの他の出力装置を使用してもよい。いくつかの実施形態は、他の可能性の中でも特に、音楽プレーヤ、ビデオ会議アプリケーション、ビデオゲーム、あるいは、マルチユーザ仮想現実(VR)もしくは拡張現実(AR)環境などの他の種類のコンテンツまたは他のソフトウェアアプリケーションと対話するために、ユーザが空中ジェスチャを使用することを可能にできる。
本開示の理解を助けるために、ジェスチャの説明が最初に提供される。本開示では、ハンドジェスチャは、一般に、ジェスチャ制御装置100によって特定のコマンド入力として分類され得る1つまたは複数の別個の手形状および/または手の動きによって定義される。ハンドジェスチャは、異なる手形状および手の動きを有することができる。例えば、手形状は、ジェスチャ制御装置100によって、図3Aから図3Hに示す手形状クラスのうちの1つに属するものとして分類されてもよい。
図5は、ジェスチャ制御装置100のジェスチャ検知システム500の一例を示すブロック図である。この例では、ジェスチャ検知システム500は、手検出および追跡サブシステム516と、ジェスチャ分類サブシステム520とを含む。以下の例では、ジェスチャ検知システム500は、いくつかのサブシステムを含むか、またはいくつかのサブシステムの機能を提供するものとして説明される。しかしながら、他の例では、ジェスチャ検知システム500は、説明したサブシステムのサブセットのみを含む(またはその機能を提供する)ことができる。
図9を参照すると、ジェスチャ制御装置100の制御表示ゲインを調整するための速度ベースの方法300が示されている。ジェスチャ制御装置100の制御表示ゲインを調整することにより、方法300は、ジェスチャ制御電子装置100のディスプレイ画面104上にレンダリングされたコンテンツまたはUI要素とのユーザ対話を容易にすることができる。方法300は、プロセッサ202によって実行されるソフトウェア(すなわち、メモリ208に記憶された命令)で実施することができる。いくつかの実施形態では、後述するように、方法300は、ジェスチャ検知システム500によって実行される。方法300は、図示および説明したものよりも追加のまたは少ない動作を含むことができ、異なる順序で実行することができる。方法300を実施するソフトウェアのコンピュータ可読コードまたは命令は、ジェスチャ制御装置100のプロセッサ202によって実行されると、メモリ208またはプロセッサ可読媒体に記憶され得る。本明細書では、ハンドジェスチャの様々な特性(例えば、ジェスチャの位置、速度、スピード、または向き)を参照することができ、これらの参照は、ハンドジェスチャを実行する手の特性への参照と同じ意味を有することが理解されよう。
いくつかの実施形態では、ジェスチャ制御装置100のCDゲインは、空中ジェスチャを実行する手の位置の関数として調整することができる。したがって、これらの例示的な実施形態では、CDゲインを調整するために使用されるドラッグハンドジェスチャを実行する手の特性は、ジェスチャ制御装置100のデジタルカメラ102によって取り込まれた空中ハンドジェスチャを実行するユーザのビデオのフレーム内の空中ハンドジェスチャの位置である。
いくつかの実施形態では、ジェスチャ制御装置100のCDゲインは、空中ジェスチャを実行する手の向きの関数として調整することができる。したがって、これらの例示的な実施形態では、CDゲインを調整するために使用されるドラッグハンドジェスチャを実行する手の特性は、基準の向きに対する空中ハンドジェスチャを実行する手の向きである。
速度ベースの方法300は、空中ジェスチャを実行する手の速度の関数としてジェスチャ制御装置100のCDゲインを調整するための方法として上述されているが、CDゲイン調整の他の速度ベースの方法を、上述した様々な方法と組み合わせて、またはその代わりに使用することができる。次に、空中ジェスチャを実行する手の動きの一時停止を検出し、そのような一時停止を検出するとCDゲインを調整する、CDゲインを調整するための例示的な一時停止ベースの方法について説明する。したがって、これらの例示的な実施形態では、CDゲインを調整するために使用されるドラッグハンドジェスチャを実行する手の特性は、ドラッグハンドジェスチャを実行する手の速度であり、手の速度が、少なくとも時間閾値の間、スピード閾値を下回ったままであることを、特に検出する。
本開示は、特定の順序のステップで方法およびプロセスを説明しているが、方法およびプロセスの1つ以上のステップは、必要に応じて省略または変更することができる。必要に応じて、説明されている順序以外の順序で、1つまたは複数のステップを実行してもよい。
20 視野(FOV)
30 オープンハンド形状、オープンハンドジェスチャ
32 握り拳(またはクローズハンド)形状、握り拳のジェスチャ
34 ピンチオープン形状、ピンチオープンジェスチャ
36 ピンチクローズ形状、ピンチクローズジェスチャ
38 「ミュート」(または「無音」)の形状、ピンチクローズハンド形状
40 「気に入る」(または「承認」)の形状
42 「その他」(または「次」)の形状
44 「タッチ」(または「選択」)の形状
46 位置
48 位置
100 ジェスチャ制御装置
102 カメラ
104 ディスプレイ
202 プロセッサ
204 入力/出力(I/O)インターフェース
206 ネットワークインターフェース
208 メモリ
300 方法
500 ジェスチャ検知システム
504 ジェスチャデータ
516 手検出および追跡サブシステム
520 ジェスチャ分類サブシステム
522 手形状分類サブシステム、ジェスチャ認識サブシステム
560 表示サブシステム
562 ユーザフィードバックサブシステム
570 制御表示ゲインサブシステム
600 手検出および追跡方法
700 ジェスチャ分類方法
802 中立状態
804 スワイプ準備状態
806 スワイプ状態
808 ピンチ準備状態
810 ピンチ作動状態
812 垂直ドラッグ状態
814 水平ドラッグ状態
1000 第1のグラフ
1010 第1の制御表示(CD)ゲインレベル
1012 第2のCDゲインレベル
1014 第3のCDゲインレベル
1020 CDゲイン
1022 ドラッグハンドジェスチャのスピード
1030 第2のグラフ
1032 第1のCDゲイン関数
1034 第2のCDゲイン関数
1036 第3のCDゲイン関数
1060 第3のグラフ
1062 第1のCDゲイン関数
1064 第2のCDゲイン関数
1066 第3のCDゲイン関数
1068 第4のCDゲイン関数
1100 方法
1202 第1の向き
1204 中間位置
1206 第2の向き
1212 円弧
1214 上方位置
1216 水平位置
1218 下方位置
1300 方法
1400 方法
Claims (29)
- ジェスチャ制御装置の制御表示ゲインを調整するための方法であって、前記制御表示ゲインはドラッグハンドジェスチャの移動量と前記ジェスチャ制御装置の表示画面上のポインタまたはカーソルの移動量との間の比率であり、
フレームを処理して前記フレーム内の手の位置および形状を検出するステップと、
前記手の位置および形状に基づいて、前記フレームのジェスチャデータを生成するステップと、
前記フレームのジェスチャデータ、および1つまたは複数の以前のフレームのジェスチャデータに基づいて、前記手が前記ドラッグハンドジェスチャを実行していると判定するステップと、
前記ドラッグハンドジェスチャを実行する前記手の特性を識別するステップと、
前記ジェスチャ制御装置の制御表示ゲインを、前記識別された特性に基づいて判定された制御表示ゲインに調整するステップと、
前記調整された制御表示ゲインを前記手の動きに適用して前記表示画面上のポインタまたはカーソルの動きおよび前記ジェスチャ制御装置の制御に変換するステップと、
を含む、方法。 - 前記特性は、前記手の位置である、請求項1に記載の方法。
- 前記方法は、
前記ジェスチャ制御装置がドラッグ状態にある間に、前記手の1つまたは複数の位置を含むキューに、前記手の位置を記憶するステップと、
前記キューに記憶された前記手の1つまたは複数の位置に基づいて、第1の軸に対する前記手の動きを判定するステップと、
前記制御表示ゲインを前記動きに適用してドラッグ制御出力値を生成するステップと、をさらに含み、
前記制御表示ゲインは、前記第1の軸と直交する第2の軸に対する前記手の位置に基づいて判定される、
請求項2に記載の方法。 - 前記手の位置を識別するステップは、前記手が前記フレームの第1の領域内に位置していると判定するステップを含み、
前記制御表示ゲインは、前記第1の領域に対応する第1の制御表示ゲインである、
請求項2または3に記載の方法。 - 前記特性は、基準の向きに対する前記手の向きである、請求項1に記載の方法。
- 前記手の向きは、前記基準の向きに対する前記手の角度を含む、請求項5に記載の方法。
- 前記手の角度は、垂直面に対して測定される、請求項6に記載の方法。
- 前記手の向きを識別するステップは、前記手の角度が第1の角度と第2の角度との間に定義された第1の角度範囲内にあると判定するステップを含み、
前記制御表示ゲインを調整するステップは、前記制御表示ゲインを前記第1の角度範囲に対応する第1の制御表示ゲインに調整するステップを含む、
請求項6または7に記載の方法。 - 前記特性は、前記手の速度である、請求項1に記載の方法。
- 前記手の速度を識別するステップは、
前記手の位置を判定するステップと、
前記ジェスチャ制御装置がドラッグ状態にある間に、前記手の1つまたは複数の位置を含むキューに、前記手の位置を記憶するステップと、
前記キューに記憶された前記手の1つまたは複数の位置に基づいて、前記手の速度を判定するステップと、を含み、
前記制御表示ゲインを調整するステップは、
前記速度が、少なくとも滞留時間閾値の間、速度閾値を下回り、かつ、前記ジェスチャ制御装置が複数の制御表示ゲイン状態のうちの第1の制御表示ゲイン状態にある、との判定に応答して、
前記ジェスチャ制御装置を、前記複数の制御表示ゲイン状態のうちの第2の制御表示ゲイン状態にするステップと、
前記制御表示ゲインを、前記第2の制御表示ゲイン状態に対応する制御表示ゲインに調整するステップと、を含む、
請求項9に記載の方法。 - 前記手の速度を識別するステップは、
前記手の位置を判定するステップと、
前記ジェスチャ制御装置がドラッグ状態にある間に、前記手の1つまたは複数の位置を含むキューに、前記手の位置を記憶するステップと、
前記キューに記憶された前記手の1つまたは複数の位置に基づいて、前記手の速度を判定するステップと、を含み、
前記制御表示ゲインは、前記手の速度に依存する関数に従って判定される、
請求項9に記載の方法。 - 前記速度に依存する関数は、線形関数である、請求項10または11に記載の方法。
- 前記速度に依存する関数は、一般化ロジスティック関数である、請求項10または11に記載の方法。
- ジェスチャ制御装置であって、
プロセッサ装置と、
表示画面と、
前記プロセッサ装置に、
フレームを処理して前記フレーム内の手の位置および形状を検出するステップと、
前記手の位置および形状に基づいて、前記フレームのジェスチャデータを生成するステップと、
前記フレームのジェスチャデータ、および1つまたは複数の以前のフレームのジェスチャデータに基づいて、前記手がドラッグハンドジェスチャを実行していると判定するステップと、
前記ドラッグハンドジェスチャを実行する前記ジェスチャ制御装置のユーザの手の特性を識別するステップと、
前記ジェスチャ制御装置の制御表示ゲインであって、前記ドラッグハンドジェスチャの移動量と前記表示画面上のポインタまたはカーソルの移動量との間の比率である制御表示ゲインを、前記識別された特性に基づいて判定された制御表示ゲインに調整するステップと、
前記調整された制御表示ゲインを前記手の動きに適用して前記表示画面上のポインタまたはカーソルの動きおよび前記ジェスチャ制御装置の制御に変換するステップと、
を実行させる機械実行可能命令を記憶するメモリと、
を備える、ジェスチャ制御装置。 - 前記特性は、前記手の位置である、請求項14に記載のジェスチャ制御装置。
- 前記機械実行可能命令は、前記プロセッサ装置に、
前記ジェスチャ制御装置がドラッグ状態にある間に、前記手の1つまたは複数の位置を含むキューに、前記手の位置を記憶するステップと、
前記キューに記憶された前記手の1つまたは複数の位置に基づいて、第1の軸に対する前記手の動きを判定するステップと、
前記制御表示ゲインを前記動きに適用してドラッグ制御出力値を生成するステップと、をさらに実行させ、
前記制御表示ゲインは、前記第1の軸と直交する第2の軸に対する前記手の位置に基づいて判定される、
請求項15に記載のジェスチャ制御装置。 - 前記手の位置を識別するステップは、前記手が前記フレームの第1の領域内に位置していると判定するステップを含み、
前記制御表示ゲインは、前記第1の領域に対応する第1の制御表示ゲインである、
請求項15または16に記載のジェスチャ制御装置。 - 前記特性は、基準の向きに対する前記手の向きである、請求項14に記載のジェスチャ制御装置。
- 前記手の向きは、前記基準の向きに対する前記手の角度を含む、請求項18に記載のジェスチャ制御装置。
- 前記手の角度は、垂直面に対して測定される、請求項19に記載のジェスチャ制御装置。
- 前記手の向きを識別するステップは、前記手の角度が、第1の角度と第2の角度との間に定義された第1の角度範囲内にあると判定するステップを含み、
前記制御表示ゲインを調整するステップは、前記制御表示ゲインを前記第1の角度範囲に対応する第1の制御表示ゲインに調整するステップを含む、
請求項19または20に記載のジェスチャ制御装置。 - 前記特性が前記手の速度である、請求項14に記載のジェスチャ制御装置。
- 前記手の速度を識別するステップは、
前記手の位置を判定するステップと、
前記ジェスチャ制御装置がドラッグ状態にある間に、前記手の1つまたは複数の位置を含むキューに、前記手の位置を記憶するステップと、
前記キューに記憶された前記手の1つまたは複数の位置に基づいて、前記手の速度を判定するステップと、を含み、
前記制御表示ゲインを調整するステップは、
前記速度が、少なくとも滞留時間閾値の間、速度閾値を下回り、かつ、前記ジェスチャ制御装置が複数の制御表示ゲイン状態のうちの第1の制御表示ゲイン状態にあるとの判定に応答して、
前記ジェスチャ制御装置を、前記複数の制御表示ゲイン状態のうちの第2の制御表示ゲイン状態にするステップと、
前記制御表示ゲインを、前記第2の制御表示ゲイン状態に対応する制御表示ゲインに調整するステップと、を含む、
請求項22に記載のジェスチャ制御装置。 - 前記手の速度を識別するステップは、
前記手の位置を判定するステップと、
前記ジェスチャ制御装置がドラッグ状態にある間に、前記手の1つまたは複数の位置を含むキューに、前記手の位置を記憶するステップと、
前記キューに記憶された前記手の1つまたは複数の位置に基づいて、前記手の速度を判定するステップと、を含み、
前記制御表示ゲインは、前記手の速度に依存する関数に従って判定される、
請求項22に記載のジェスチャ制御装置。 - 前記速度に依存する関数は、線形関数である、請求項23または24に記載の装置。
- 前記速度に依存する関数は、一般化ロジスティック関数である、請求項23または24に記載の装置。
- ジェスチャ制御装置のプロセッサ装置によって実行されるとき、前記プロセッサ装置に、
フレームを処理して前記フレーム内の空中ジェスチャを実行する手の位置および形状を検出させ、
前記手の位置および形状に基づいて、前記フレームのジェスチャデータを生成させ、
前記フレームのジェスチャデータ、および1つまたは複数の以前のフレームのジェスチャデータに基づいて、前記手がドラッグハンドジェスチャを実行していると判定させ、
前記ドラッグハンドジェスチャを実行する前記ジェスチャ制御装置のユーザの手の特性を識別させ、
前記ジェスチャ制御装置の制御表示ゲインであって、前記ドラッグハンドジェスチャの移動量と前記ジェスチャ制御装置の表示画面上のポインタまたはカーソルの移動量との間の比率である制御表示ゲインを、前記識別された特性に基づいて判定された制御表示ゲインに調整させ、
前記調整された制御表示ゲインを前記手の動きに適用して前記表示画面上のポインタまたはカーソルの動きおよび前記ジェスチャ制御装置の制御に変換させる、
機械実行可能命令が記憶された、プロセッサ可読媒体。 - ジェスチャ制御装置のプロセッサ装置によって実行されるとき、前記プロセッサ装置に、請求項2から13のいずれか一項に記載の方法のステップを行わせる機械実行可能命令が記憶された、プロセッサ可読媒体。
- コンピュータプログラムであって、前記コンピュータプログラムがコンピュータによって実行されるとき、請求項1から13のいずれか一項に記載の方法を前記コンピュータに行わせる命令を含む、コンピュータプログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063015595P | 2020-04-26 | 2020-04-26 | |
US63/015,595 | 2020-04-26 | ||
US17/085,866 US11474614B2 (en) | 2020-04-26 | 2020-10-30 | Method and device for adjusting the control-display gain of a gesture controlled electronic device |
US17/085,866 | 2020-10-30 | ||
PCT/CN2021/082032 WO2021218486A1 (en) | 2020-04-26 | 2021-03-22 | Method and device for adjusting the control-display gain of a gesture controlled electronic device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023522777A JP2023522777A (ja) | 2023-05-31 |
JP7497458B2 true JP7497458B2 (ja) | 2024-06-10 |
Family
ID=78222219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022564806A Active JP7497458B2 (ja) | 2020-04-26 | 2021-03-22 | ジェスチャ制御電子装置の制御表示ゲインを調整するための方法および装置 |
Country Status (7)
Country | Link |
---|---|
US (2) | US11474614B2 (ja) |
EP (1) | EP4127879A4 (ja) |
JP (1) | JP7497458B2 (ja) |
KR (1) | KR20230002874A (ja) |
CN (1) | CN115427920A (ja) |
BR (1) | BR112022021679A2 (ja) |
WO (1) | WO2021218486A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11474614B2 (en) * | 2020-04-26 | 2022-10-18 | Huawei Technologies Co., Ltd. | Method and device for adjusting the control-display gain of a gesture controlled electronic device |
CN112527107B (zh) * | 2020-11-30 | 2023-04-07 | 京东方科技集团股份有限公司 | 手势识别方法、装置、电子设备及存储介质 |
US11677899B2 (en) * | 2021-03-29 | 2023-06-13 | Lenovo (Singapore) Pte. Ltd. | Intelligent video source selection |
US11693482B2 (en) * | 2021-05-28 | 2023-07-04 | Huawei Technologies Co., Ltd. | Systems and methods for controlling virtual widgets in a gesture-controlled device |
US12105884B2 (en) * | 2021-07-30 | 2024-10-01 | Jadelynn Kim Dao | Touchless, gesture-based human interface device |
US11550406B1 (en) | 2021-10-14 | 2023-01-10 | Autodesk, Inc. | Integration of a two-dimensional input device into a three-dimensional computing environment |
US12067159B2 (en) * | 2021-11-04 | 2024-08-20 | Microsoft Technology Licensing, Llc. | Multi-factor intention determination for augmented reality (AR) environment control |
US20230315209A1 (en) * | 2022-03-31 | 2023-10-05 | Sony Group Corporation | Gesture recognition on resource-constrained devices |
CN118170258B (zh) * | 2024-05-13 | 2024-08-06 | 湖北星纪魅族集团有限公司 | 点击操作方法及装置、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004246814A (ja) | 2003-02-17 | 2004-09-02 | Takenaka Komuten Co Ltd | 指示動作認識装置 |
JP2013522797A (ja) | 2010-03-24 | 2013-06-13 | マイクロソフト コーポレーション | 複数軸ナビゲーション |
JP2013529802A5 (ja) | 2011-05-30 | 2014-06-19 | ||
US20140201666A1 (en) | 2013-01-15 | 2014-07-17 | Raffi Bedikian | Dynamic, free-space user interactions for machine control |
CN105912126A (zh) | 2016-04-26 | 2016-08-31 | 华南理工大学 | 一种手势运动映射到界面的增益自适应调整方法 |
JP2016534421A (ja) | 2013-10-14 | 2016-11-04 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | ジェスチャ制御デバイス、方法、システム及び格納媒体 |
WO2018012206A1 (ja) | 2016-07-12 | 2018-01-18 | 富士フイルム株式会社 | 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム |
JP2018073290A (ja) | 2016-11-02 | 2018-05-10 | パナソニックIpマネジメント株式会社 | 機器制御装置、機器制御方法、およびプログラム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6323846B1 (en) * | 1998-01-26 | 2001-11-27 | University Of Delaware | Method and apparatus for integrating manual input |
US8479122B2 (en) * | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US6424338B1 (en) * | 1999-09-30 | 2002-07-23 | Gateway, Inc. | Speed zone touchpad |
US7312785B2 (en) * | 2001-10-22 | 2007-12-25 | Apple Inc. | Method and apparatus for accelerated scrolling |
US7046230B2 (en) * | 2001-10-22 | 2006-05-16 | Apple Computer, Inc. | Touch pad handheld device |
US7728821B2 (en) | 2004-08-06 | 2010-06-01 | Touchtable, Inc. | Touch detecting interactive display |
KR100783552B1 (ko) * | 2006-10-11 | 2007-12-07 | 삼성전자주식회사 | 휴대 단말기의 입력 제어 방법 및 장치 |
TW201042507A (en) * | 2009-05-19 | 2010-12-01 | Pixart Imaging Inc | Interactive image system and operating method thereof |
US9009594B2 (en) | 2010-06-10 | 2015-04-14 | Microsoft Technology Licensing, Llc | Content gestures |
US10088924B1 (en) * | 2011-08-04 | 2018-10-02 | Amazon Technologies, Inc. | Overcoming motion effects in gesture recognition |
US20130229345A1 (en) | 2012-03-01 | 2013-09-05 | Laura E. Day | Manual Manipulation of Onscreen Objects |
US8938124B2 (en) * | 2012-05-10 | 2015-01-20 | Pointgrab Ltd. | Computer vision based tracking of a hand |
US8904313B2 (en) * | 2012-05-24 | 2014-12-02 | International Business Machines Corporation | Gestural control for quantitative inputs |
US20140020166A1 (en) | 2012-07-17 | 2014-01-23 | Darrell Metcalf | Valve-Controllable Urinal Drain Line and Plumbing Component Rinse Management System for Very Low Water and/or Non-Water Use Urinals |
US11474614B2 (en) * | 2020-04-26 | 2022-10-18 | Huawei Technologies Co., Ltd. | Method and device for adjusting the control-display gain of a gesture controlled electronic device |
US11550406B1 (en) * | 2021-10-14 | 2023-01-10 | Autodesk, Inc. | Integration of a two-dimensional input device into a three-dimensional computing environment |
-
2020
- 2020-10-30 US US17/085,866 patent/US11474614B2/en active Active
-
2021
- 2021-03-22 JP JP2022564806A patent/JP7497458B2/ja active Active
- 2021-03-22 EP EP21795343.9A patent/EP4127879A4/en active Pending
- 2021-03-22 CN CN202180029396.0A patent/CN115427920A/zh active Pending
- 2021-03-22 BR BR112022021679A patent/BR112022021679A2/pt unknown
- 2021-03-22 KR KR1020227040413A patent/KR20230002874A/ko not_active Application Discontinuation
- 2021-03-22 WO PCT/CN2021/082032 patent/WO2021218486A1/en unknown
-
2022
- 2022-09-13 US US17/943,841 patent/US11809637B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004246814A (ja) | 2003-02-17 | 2004-09-02 | Takenaka Komuten Co Ltd | 指示動作認識装置 |
JP2013522797A (ja) | 2010-03-24 | 2013-06-13 | マイクロソフト コーポレーション | 複数軸ナビゲーション |
JP2013529802A5 (ja) | 2011-05-30 | 2014-06-19 | ||
US20140201666A1 (en) | 2013-01-15 | 2014-07-17 | Raffi Bedikian | Dynamic, free-space user interactions for machine control |
JP2016534421A (ja) | 2013-10-14 | 2016-11-04 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | ジェスチャ制御デバイス、方法、システム及び格納媒体 |
CN105912126A (zh) | 2016-04-26 | 2016-08-31 | 华南理工大学 | 一种手势运动映射到界面的增益自适应调整方法 |
WO2018012206A1 (ja) | 2016-07-12 | 2018-01-18 | 富士フイルム株式会社 | 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム |
JP2018073290A (ja) | 2016-11-02 | 2018-05-10 | パナソニックIpマネジメント株式会社 | 機器制御装置、機器制御方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP4127879A4 (en) | 2023-08-23 |
US20230013169A1 (en) | 2023-01-19 |
US20210333884A1 (en) | 2021-10-28 |
CN115427920A (zh) | 2022-12-02 |
BR112022021679A2 (pt) | 2023-01-17 |
US11474614B2 (en) | 2022-10-18 |
US11809637B2 (en) | 2023-11-07 |
JP2023522777A (ja) | 2023-05-31 |
KR20230002874A (ko) | 2023-01-05 |
EP4127879A1 (en) | 2023-02-08 |
WO2021218486A1 (en) | 2021-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7497458B2 (ja) | ジェスチャ制御電子装置の制御表示ゲインを調整するための方法および装置 | |
US11269481B2 (en) | Dynamic user interactions for display control and measuring degree of completeness of user gestures | |
JP2023517383A (ja) | マルチユーザ環境でハンドジェスチャを用いて装置を制御する方法及びシステム | |
JP7447302B2 (ja) | デバイスのハンドジェスチャベースの制御のための方法及びシステム | |
US11693482B2 (en) | Systems and methods for controlling virtual widgets in a gesture-controlled device | |
WO2014113507A1 (en) | Dynamic user interactions for display control and customized gesture interpretation | |
WO2022127478A1 (en) | Methods and systems for multi-precision discrete control of user interface control element of gesture-controlled device | |
KR20180074124A (ko) | 얼굴 인식을 통해 전자 장치를 제어하는 방법 및 이를 수행하는 전자 장치 | |
US11693483B2 (en) | Methods and systems of display edge interactions in a gesture-controlled device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221227 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221227 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240419 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240513 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240529 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7497458 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |