JP2023518284A - デバイスのハンドジェスチャベースの制御のための方法及びシステム - Google Patents
デバイスのハンドジェスチャベースの制御のための方法及びシステム Download PDFInfo
- Publication number
- JP2023518284A JP2023518284A JP2022556503A JP2022556503A JP2023518284A JP 2023518284 A JP2023518284 A JP 2023518284A JP 2022556503 A JP2022556503 A JP 2022556503A JP 2022556503 A JP2022556503 A JP 2022556503A JP 2023518284 A JP2023518284 A JP 2023518284A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- hand
- input
- virtual
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 139
- 238000012545 processing Methods 0.000 claims description 58
- 238000013528 artificial neural network Methods 0.000 claims description 22
- 230000007704 transition Effects 0.000 claims description 17
- 230000015654 memory Effects 0.000 claims description 14
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 abstract description 16
- 238000001514 detection method Methods 0.000 description 137
- 230000003044 adaptive effect Effects 0.000 description 63
- 230000008859 change Effects 0.000 description 28
- 230000003068 static effect Effects 0.000 description 20
- 210000000887 face Anatomy 0.000 description 19
- 238000004458 analytical method Methods 0.000 description 16
- 238000012549 training Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 11
- 238000013459 approach Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 7
- 230000011218 segmentation Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000001976 improved effect Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000002349 favourable effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000007670 refining Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Telephone Function (AREA)
Abstract
Description
(外1)
は、所定のスケールパラメータである。パラメータ(Δx,Δy)及び
(外2)
は、それに従う結果として仮想ジェスチャ空間704の所望のサイズ及び仮想ジェスチャ空間704内のバウンディングボックス702の所望のポジショニングをもたらすように、(例えばユーザ10によって又はジェスチャ制御デバイス100の製造者によって)予め定義され得る。いくつかの例において、仮想ジェスチャ空間704は、顔12のバウンディングボックス702が部分的又は全体的に仮想ジェスチャ空間704の外部にあるように生成されてもよいことに留意されたい。すなわち、仮想ジェスチャ空間704を生成するための基礎として顔12が使用され得るが、必ずしも仮想ジェスチャ空間704が顔12を含む必要はない。
(外3)
は、検出された手に関する所定のスケールパラメータである。パラメータ(Δxh、Δyh)及び
(外4)
は、それに従う結果として、再定義された仮想ジェスチャ空間704bの所望のサイズ及び再定義された仮想ジェスチャ空間704b内のバウンディングボックス706の所望のポジショニングをもたらすように、(例えばユーザ10によって又はジェスチャ制御デバイス100の製造者によって)予め定義され得る。注目すべきことに、図10Bの例に示されるように、顔12は、再定義された仮想ジェスチャ空間704bから部分的又は全体的に除外され得る。
前述したように、いくつかの例では、手検出及び追跡サブシステム316は、ジェスチャ認識のためにジェスチャ認識サブシステム322によって使用されるべきバウンディングボックスを出力し得る。いくつかの実施形態では、ジェスチャ認識サブシステム322は、機械学習アルゴリズムを使用して構築されるモデルを実装し得る。いくつかの実施形態では、ジェスチャ認識サブシステム322は、ジェスチャ分類を実行するために構成される、トレーニングされたニューラルネットワーク(以下、トレーニングされたジェスチャ分類ネットワークと称する)を含み得る。トレーニングされたジェスチャ分類ネットワークは、ニューラルネットワークのパラメータ(例えば重み)を学習するために既知の機械学習アルゴリズムを用いてトレーニングされている。トレーニングされたジェスチャ分類は、検出されたハンドジェスチャのためのバウンディングボックスを受け取り、バウンディングボックスに対応するジェスチャクラスの所定のセットから特定のジェスチャクラスを予測する。
(外5)
は、m回目のバウンディングボックス及び最終的な精緻化バウンディングボックスの対応する重み(例えばIoU(intersection over union))である。
及び
(外7)
は、それぞれ、低光及び好ましい照明条件下でキャプチャされた顔画像について、所定の(例えば較正を介して経験的に決定された又は事前コード化された)平均値及びピクセル強度の標準偏差を示すものとする。
Claims (20)
- ジェスチャ入力を処理するための方法であって、
受信した入力フレーム内で定義される仮想ジェスチャ空間を決定するステップであって、前記仮想ジェスチャ空間は、1人以上のユーザのランク付けされたユーザリストからのプライマリユーザに関連付けられている、ステップと、
手を検出して追跡するために、前記受信した入力フレームを前記仮想ジェスチャ空間内のみにおいて処理するステップと、
前記手を検出して追跡することによって生成される手のバウンディングボックスを使用して、ジェスチャ分類を実行して前記手に関連付けられるジェスチャ入力を決定するステップと、
前記決定されたジェスチャ入力に関連付けられるコマンド入力の処理を引き起こすように、前記決定されたジェスチャ入力を出力するステップと、
を含む、方法。 - 前記仮想ジェスチャ空間を決定するステップは、
前記入力フレームを処理して、前記1人以上のユーザを検出するステップと、
前記検出された1人以上のユーザに基づいて、前記ランク付けされたユーザリストを生成するステップであって、前記プライマリユーザは、前記ランク付けされたユーザリストにおいて最も高くランク付けされたユーザとして識別される、ステップと、
前記プライマリユーザの検出された解剖学的特徴に基づいて、前記仮想ジェスチャ空間を生成するステップと、
を含む、請求項1に記載の方法。 - 前記入力フレームを処理することは、
前記入力フレームを処理するための関心領域(ROI)を選択するステップを含み、前記ROIは、前記入力フレームの全領域よりも小さい領域を定義し、
前記ROIは、定義されたROIシーケンスから選択され、前記ROIシーケンスは、それぞれの複数の逐次的に受信した入力フレームを処理するための複数のROIを定義する、
請求項2に記載の方法。 - 前記仮想ジェスチャ空間を決定するステップは、
前記プライマリユーザに関連付けられる前記仮想ジェスチャ空間内で検出された前記手に関連付けられる無効なジェスチャ入力を決定するステップと、
前記ランク付けされたユーザリスト内の次に高くランク付けされたユーザを新たなプライマリユーザとして選択するステップと、
前記新たなプライマリユーザを使用して当該方法を繰り返すステップと、
を含む、請求項1乃至3のいずれか一項に記載の方法。 - 前記入力フレームを前記仮想ジェスチャ空間内のみにおいて処理するステップは、
前記受信した入力フレームに関連付けられる低光条件を決定するステップと、
前記低光条件に応答して、前記受信した入力フレームのピクセル値を自動的に調整するために画像調整を自動的に実行するステップと、
を含む、請求項1乃至4のいずれか一項に記載の方法。 - 前記入力フレームは、トレーニングされた共同ニューラルネットワークを使用して前記手を検出して追跡するために処理され、前記トレーニングされた共同ニューラルネットワークは、トレーニングされたバウンディングボックス精緻化畳み込みニューラルネットワークへの側枝接続を有する、トレーニングされたジェスチャ分類畳み込みニューラルネットワークを含む、
を含む、請求項1乃至5のいずれか一項に記載の方法。 - 前記ジェスチャ分類を実行することは、
前記受信した入力フレーム内で検出された前記手に関連付けられるジェスチャクラスを識別するステップと、
前の入力フレームに関連付けられる前のジェスチャ状態から現在のジェスチャ状態への状態遷移を決定するステップであって、前記状態遷移は前記識別されたジェスチャクラスに基づいて決定される、ステップと、
前記現在のジェスチャ状態に関連付けられる前記ジェスチャ入力を決定するステップと、
を含む、請求項1乃至6のいずれか一項に記載の方法。 - 前記受信した入力フレームは、前記受信した入力フレームをキャプチャするために使用される画像キャプチャデバイスのフレームキャプチャ頻度より低い頻度で受信されて処理される、
請求項1乃至7のいずれか一項に記載の方法。 - 装置であって、
機械実行可能な命令を記憶するメモリに結合される処理デバイスを含み、前記命令は、前記処理デバイスによって実行されると、当該装置に、
受信した入力フレーム内で定義される仮想ジェスチャ空間を決定させ、前記仮想ジェスチャ空間は、1人以上のユーザのランク付けされたユーザリストからのプライマリユーザに関連付けられており、
手を検出して追跡するために、前記受信した入力フレームを前記仮想ジェスチャ空間内のみにおいて処理させ、
前記手を検出して追跡することによって生成される手のバウンディングボックスを使用して、ジェスチャ分類を実行させて前記手に関連付けられるジェスチャ入力を決定させ、
前記決定されたジェスチャ入力は、前記決定されたジェスチャ入力に関連付けられるコマンド入力の処理を引き起こす、
装置。 - 前記命令は、当該装置に更に、
前記入力フレームを処理して、前記1人以上のユーザを検出することと、
前記検出された1人以上のユーザに基づいて、前記ランク付けされたユーザリストを生成することであって、前記プライマリユーザは、前記ランク付けされたユーザリストにおいて最も高くランク付けされたユーザとして識別されることと、
前記プライマリユーザの検出された解剖学的特徴に基づいて、前記仮想ジェスチャ空間を生成することと、
によって、前記仮想ジェスチャ空間を決定させる、
請求項9に記載の装置。 - 前記命令は、当該装置に更に、
前記入力フレームを処理するための関心領域(ROI)を選択すること、
によって、前記入力フレームを処理させ、前記ROIは、前記入力フレームの全領域よりも小さい領域を定義し、
前記ROIは、定義されたROIシーケンスから選択され、前記ROIシーケンスは、それぞれの複数の逐次的に受信した入力フレームを処理するための複数のROIを定義する、
請求項10に記載の装置。 - 前記命令は、当該装置に更に、
前記プライマリユーザに関連付けられる前記仮想ジェスチャ空間内で検出された前記手に関連付けられる無効なジェスチャ入力を決定することと、
前記ランク付けされたユーザリスト内の次に高くランク付けされたユーザを新たなプライマリユーザとして選択することと、
前記新たなプライマリユーザを使用して方法を繰り返すことと、
によって、前記仮想ジェスチャ空間を決定させる、
請求項9乃至11のいずれか一項に記載の装置。 - 前記命令は、当該装置に更に、
前記受信した入力フレームに関連付けられる低光条件を決定することと、
前記低光条件に応答して、前記受信した入力フレームのピクセル値を自動的に調整するために画像調整を自動的に実行することと、
によって、前記入力フレームを前記仮想ジェスチャ空間内のみにおいて処理させる、
請求項9乃至12のいずれか一項に記載の装置。 - 前記入力フレームは、トレーニングされた共同ニューラルネットワークを使用して前記手を検出して追跡するために処理され、前記トレーニングされた共同ニューラルネットワークは、トレーニングされたバウンディングボックス精緻化畳み込みニューラルネットワークへの側枝接続を有する、トレーニングされたジェスチャ分類畳み込みニューラルネットワークを含む、
請求項9乃至13のいずれか一項に記載の装置。 - 前記命令は、当該装置に更に、
前記受信した入力フレーム内で検出された前記手に関連付けられるジェスチャクラスを識別することと、
前の入力フレームに関連付けられる前のジェスチャ状態から現在のジェスチャ状態への状態遷移を決定することであって、前記状態遷移は前記識別されたジェスチャクラスに基づいて決定されることと、
前記現在のジェスチャ状態に関連付けられる前記ジェスチャ入力を決定することと、
によって、前記ジェスチャ分類を実行させる、
請求項9乃至14のいずれか一項に記載の装置。 - 前記受信した入力フレームは、前記受信した入力フレームをキャプチャするために使用される画像キャプチャデバイスのフレームキャプチャ頻度より低い頻度で受信されて処理される、
請求項9乃至15のいずれか一項に記載の装置。 - 当該装置は、ジェスチャ制御デバイスである、
請求項9乃至16のいずれか一項に記載の装置。 - 前記入力フレームをキャプチャするためのカメラを更に含む、
請求項17に記載の装置。 - 前記ジェスチャ制御デバイスは、
テレビ、
スマートフォン、
タブレット、
車両結合デバイス
モノのインターネットデバイス、
人工現実デバイス、又は
仮想現実デバイス、
のうちの1つである、請求項17又は18に記載の装置。 - その上に記憶される機械実行可能な命令を有するコンピュータ読取可能媒体であって、前記命令は、装置の処理デバイスによって実行されると、前記装置に請求項1乃至8のいずれか一項に記載の方法を実行させる、コンピュータ読取可能媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2020/080416 WO2021184356A1 (en) | 2020-03-20 | 2020-03-20 | Methods and systems for hand gesture-based control of a device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023518284A true JP2023518284A (ja) | 2023-04-28 |
Family
ID=77767970
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022556503A Pending JP2023518284A (ja) | 2020-03-20 | 2020-03-20 | デバイスのハンドジェスチャベースの制御のための方法及びシステム |
Country Status (7)
Country | Link |
---|---|
US (1) | US12001613B2 (ja) |
EP (1) | EP4115273A4 (ja) |
JP (1) | JP2023518284A (ja) |
KR (1) | KR20220144889A (ja) |
CN (1) | CN114600072A (ja) |
BR (1) | BR112022018723A2 (ja) |
WO (1) | WO2021184356A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240098359A1 (en) * | 2022-09-19 | 2024-03-21 | Lenovo (United States) Inc. | Gesture control during video capture |
CN116627260A (zh) * | 2023-07-24 | 2023-08-22 | 成都赛力斯科技有限公司 | 一种隔空操作方法、装置、计算机设备和存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011078009A (ja) * | 2009-10-01 | 2011-04-14 | Olympus Corp | 撮像装置および撮像装置用プログラム |
JP2011086052A (ja) * | 2009-10-14 | 2011-04-28 | Fujitsu Ltd | 手認識装置 |
US20120268372A1 (en) * | 2011-04-19 | 2012-10-25 | Jong Soon Park | Method and electronic device for gesture recognition |
US20130201104A1 (en) * | 2012-02-02 | 2013-08-08 | Raymond William Ptucha | Multi-user interactive display system |
JP2014048937A (ja) * | 2012-08-31 | 2014-03-17 | Omron Corp | ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム |
JP2014215634A (ja) * | 2013-04-22 | 2014-11-17 | シャープ株式会社 | 入力装置、および、画像表示装置 |
JP2018085087A (ja) * | 2016-11-14 | 2018-05-31 | アイシン精機株式会社 | 動作判定装置 |
WO2018235198A1 (ja) * | 2017-06-21 | 2018-12-27 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000163196A (ja) * | 1998-09-25 | 2000-06-16 | Sanyo Electric Co Ltd | ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置 |
JP5706340B2 (ja) | 2009-01-21 | 2015-04-22 | トムソン ライセンシングThomson Licensing | 顔検出及びホットスポットの動きによりメディアを制御する方法 |
JP4701424B2 (ja) | 2009-08-12 | 2011-06-15 | 島根県 | 画像認識装置および操作判定方法並びにプログラム |
WO2011066343A2 (en) * | 2009-11-24 | 2011-06-03 | Next Holdings Limited | Methods and apparatus for gesture recognition mode control |
US20110304541A1 (en) * | 2010-06-11 | 2011-12-15 | Navneet Dalal | Method and system for detecting gestures |
JP5601045B2 (ja) * | 2010-06-24 | 2014-10-08 | ソニー株式会社 | ジェスチャ認識装置、ジェスチャ認識方法およびプログラム |
TW201237773A (en) * | 2011-03-15 | 2012-09-16 | Wistron Corp | An electronic system, image adjusting method and computer program product thereof |
US8781221B2 (en) | 2011-04-11 | 2014-07-15 | Intel Corporation | Hand gesture recognition system |
CN103477352A (zh) | 2011-04-11 | 2013-12-25 | 英特尔公司 | 使用深度图像的姿势识别 |
JP6106921B2 (ja) * | 2011-04-26 | 2017-04-05 | 株式会社リコー | 撮像装置、撮像方法および撮像プログラム |
JP5845002B2 (ja) | 2011-06-07 | 2016-01-20 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
US20130120243A1 (en) * | 2011-11-16 | 2013-05-16 | Samsung Electronics Co., Ltd. | Display apparatus and control method thereof |
KR101885295B1 (ko) * | 2011-12-26 | 2018-09-11 | 엘지전자 주식회사 | 전자기기 및 그 제어방법 |
WO2013149357A1 (en) | 2012-04-01 | 2013-10-10 | Intel Corporation | Analyzing human gestural commands |
JP5935529B2 (ja) | 2012-06-13 | 2016-06-15 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US9443136B2 (en) | 2013-04-12 | 2016-09-13 | Samsung Electronics Co., Ltd. | Apparatus and method for detecting body parts from user image |
KR20140138424A (ko) * | 2013-05-23 | 2014-12-04 | 삼성전자주식회사 | 제스쳐를 이용한 사용자 인터페이스 방법 및 장치 |
WO2014194148A2 (en) | 2013-05-29 | 2014-12-04 | Weijie Zhang | Systems and methods involving gesture based user interaction, user interface and/or other features |
JP2015056141A (ja) * | 2013-09-13 | 2015-03-23 | ソニー株式会社 | 情報処理装置、および情報処理方法 |
US9785247B1 (en) | 2014-05-14 | 2017-10-10 | Leap Motion, Inc. | Systems and methods of tracking moving hands and recognizing gestural interactions |
JP2016009453A (ja) | 2014-06-26 | 2016-01-18 | オムロン株式会社 | 顔認証装置および顔認証方法 |
US9465444B1 (en) * | 2014-06-30 | 2016-10-11 | Amazon Technologies, Inc. | Object recognition for gesture tracking |
US20160078289A1 (en) | 2014-09-16 | 2016-03-17 | Foundation for Research and Technology - Hellas (FORTH) (acting through its Institute of Computer | Gesture Recognition Apparatuses, Methods and Systems for Human-Machine Interaction |
EP3475785A4 (en) * | 2016-04-22 | 2020-05-13 | SZ DJI Technology Co., Ltd. | SYSTEMS AND METHODS FOR PROCESSING IMAGE DATA BASED ON A USER'S INTEREST |
US10528122B2 (en) * | 2016-09-30 | 2020-01-07 | Intel Corporation | Gesture experiences in multi-user environments |
CN106383452B (zh) | 2016-11-24 | 2020-06-19 | 北京地平线机器人技术研发有限公司 | 智能控制模块和包括其的厨电设备 |
JP2018147054A (ja) | 2017-03-01 | 2018-09-20 | 学校法人東邦大学 | 非接触遠隔ポインター制御装置 |
EP3651055A4 (en) * | 2017-08-01 | 2020-10-21 | Huawei Technologies Co., Ltd. | METHOD, APPARATUS AND DEVICE FOR GESTURE RECOGNITION |
CN107491755B (zh) | 2017-08-16 | 2021-04-27 | 京东方科技集团股份有限公司 | 用于手势识别的方法及装置 |
CN108108024B (zh) | 2018-01-02 | 2021-01-22 | 京东方科技集团股份有限公司 | 动态手势获取方法及装置、显示装置 |
CN108460329B (zh) | 2018-01-15 | 2022-02-11 | 任俊芬 | 一种基于深度学习检测的人脸手势配合验证方法 |
KR20210017515A (ko) | 2019-08-08 | 2021-02-17 | 현대자동차주식회사 | 차량의 모션 인식 장치 및 방법 |
US11847808B2 (en) * | 2019-10-14 | 2023-12-19 | Qualcomm Incorporated | Systems and methods region-of-interest automatic gain or exposure control |
CN113448427B (zh) | 2020-03-24 | 2023-09-12 | 华为技术有限公司 | 设备控制方法、装置及系统 |
-
2020
- 2020-03-20 WO PCT/CN2020/080416 patent/WO2021184356A1/en unknown
- 2020-03-20 JP JP2022556503A patent/JP2023518284A/ja active Pending
- 2020-03-20 CN CN202080074426.5A patent/CN114600072A/zh active Pending
- 2020-03-20 KR KR1020227035829A patent/KR20220144889A/ko unknown
- 2020-03-20 BR BR112022018723A patent/BR112022018723A2/pt unknown
- 2020-03-20 EP EP20925680.9A patent/EP4115273A4/en active Pending
-
2022
- 2022-05-30 US US17/827,939 patent/US12001613B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011078009A (ja) * | 2009-10-01 | 2011-04-14 | Olympus Corp | 撮像装置および撮像装置用プログラム |
JP2011086052A (ja) * | 2009-10-14 | 2011-04-28 | Fujitsu Ltd | 手認識装置 |
US20120268372A1 (en) * | 2011-04-19 | 2012-10-25 | Jong Soon Park | Method and electronic device for gesture recognition |
US20130201104A1 (en) * | 2012-02-02 | 2013-08-08 | Raymond William Ptucha | Multi-user interactive display system |
JP2014048937A (ja) * | 2012-08-31 | 2014-03-17 | Omron Corp | ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム |
JP2014215634A (ja) * | 2013-04-22 | 2014-11-17 | シャープ株式会社 | 入力装置、および、画像表示装置 |
JP2018085087A (ja) * | 2016-11-14 | 2018-05-31 | アイシン精機株式会社 | 動作判定装置 |
WO2018235198A1 (ja) * | 2017-06-21 | 2018-12-27 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
Non-Patent Citations (1)
Title |
---|
ZHAOHUA HU ET AL.: ""Deep Ensemble Object Tracking Based on Temporal and Spatial Networks"", IEEE ACCESS, vol. 8, JPN6023037760, 6 January 2020 (2020-01-06), US, pages 7490 - 7505, XP011765488, ISSN: 0005150938, DOI: 10.1109/ACCESS.2020.2964100 * |
Also Published As
Publication number | Publication date |
---|---|
WO2021184356A1 (en) | 2021-09-23 |
KR20220144889A (ko) | 2022-10-27 |
US20220291755A1 (en) | 2022-09-15 |
BR112022018723A2 (pt) | 2022-12-27 |
EP4115273A1 (en) | 2023-01-11 |
EP4115273A4 (en) | 2023-04-12 |
CN114600072A (zh) | 2022-06-07 |
US12001613B2 (en) | 2024-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7447302B2 (ja) | デバイスのハンドジェスチャベースの制御のための方法及びシステム | |
US11249557B2 (en) | Methods and systems for controlling a device using hand gestures in multi-user environment | |
US20210365707A1 (en) | Maintaining fixed sizes for target objects in frames | |
US9256324B2 (en) | Interactive operation method of electronic apparatus | |
US8553931B2 (en) | System and method for adaptively defining a region of interest for motion analysis in digital video | |
US11106903B1 (en) | Object detection in image data | |
US11809637B2 (en) | Method and device for adjusting the control-display gain of a gesture controlled electronic device | |
CN110959160A (zh) | 一种手势识别方法、装置及设备 | |
CN113286194A (zh) | 视频处理方法、装置、电子设备及可读存储介质 | |
US12001613B2 (en) | Methods and systems for hand gesture-based control of a device | |
EP2601615A1 (en) | Gesture recognition system for tv control | |
US11385526B2 (en) | Method of processing image based on artificial intelligence and image processing device performing the same | |
KR20180074124A (ko) | 얼굴 인식을 통해 전자 장치를 제어하는 방법 및 이를 수행하는 전자 장치 | |
Spinsante et al. | Home automation systems control by head tracking in AAL applications | |
US20240203104A1 (en) | System and Method for Learning Long-Distance Recognition and Personalization of Gestures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221121 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230912 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231211 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240425 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240508 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20240524 |