JP7447302B2 - デバイスのハンドジェスチャベースの制御のための方法及びシステム - Google Patents
デバイスのハンドジェスチャベースの制御のための方法及びシステム Download PDFInfo
- Publication number
- JP7447302B2 JP7447302B2 JP2022557658A JP2022557658A JP7447302B2 JP 7447302 B2 JP7447302 B2 JP 7447302B2 JP 2022557658 A JP2022557658 A JP 2022557658A JP 2022557658 A JP2022557658 A JP 2022557658A JP 7447302 B2 JP7447302 B2 JP 7447302B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- hand
- virtual
- space
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV programme
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Social Psychology (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Psychiatry (AREA)
- Computer Networks & Wireless Communication (AREA)
- Medical Informatics (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
(外1)
は、所定のスケールパラメータである。パラメータ(Δx,Δy)及び
(外2)
は、それに従う結果として仮想ジェスチャ空間704の所望のサイズ及び仮想ジェスチャ空間704内のバウンディングボックス702の所望のポジショニングをもたらすように、(例えばユーザ10によって又はジェスチャ制御デバイス100の製造者によって)予め定義され得る。いくつかの例において、仮想ジェスチャ空間704は、顔12のバウンディングボックス702が部分的又は全体的に仮想ジェスチャ空間704の外部にあるように生成されてもよいことに留意されたい。すなわち、仮想ジェスチャ空間704を生成するための基礎として顔12が使用され得るが、必ずしも仮想ジェスチャ空間704が顔12を含む必要はない。
(外3)
は、検出された手に関する所定のスケールパラメータである。パラメータ(Δxh、Δyh)及び
(外4)
は、それに従う結果として、再定義された仮想ジェスチャ空間704bの所望のサイズ及び再定義された仮想ジェスチャ空間704b内のバウンディングボックス706の所望のポジショニングをもたらすように、(例えばユーザ10によって又はジェスチャ制御デバイス100の製造者によって)予め定義され得る。注目すべきことに、図10Bの例に示されるように、顔12は、再定義された仮想ジェスチャ空間704bから部分的又は全体的に除外され得る。
前述したように、いくつかの例では、手検出及び追跡サブシステム316は、ジェスチャ認識のためにジェスチャ認識サブシステム322によって使用されるべきバウンディングボックスを出力し得る。いくつかの実施形態では、ジェスチャ認識サブシステム322は、機械学習アルゴリズムを使用して構築されるモデルを実装し得る。いくつかの実施形態では、ジェスチャ認識サブシステム322は、ジェスチャ分類を実行するために構成される、トレーニングされたニューラルネットワーク(以下、トレーニングされたジェスチャ分類ネットワークと称する)を含み得る。トレーニングされたジェスチャ分類ネットワークは、ニューラルネットワークのパラメータ(例えば重み)を学習するために既知の機械学習アルゴリズムを用いてトレーニングされている。トレーニングされたジェスチャ分類は、検出されたハンドジェスチャのためのバウンディングボックスを受け取り、バウンディングボックスに対応するジェスチャクラスの所定のセットから特定のジェスチャクラスを予測する。
(外5)
は、m回目のバウンディングボックス及び最終的な精緻化バウンディングボックスの対応する重み(例えばIoU(intersection over union))である。
及び
(外7)
は、それぞれ、低光及び好ましい照明条件下でキャプチャされた顔画像について、所定の(例えば較正を介して経験的に決定された又は事前コード化された)平均値及びピクセル強度の標準偏差を示すものとする。
Claims (20)
- デバイスのカメラによってキャプチャされたフレームのシーケンスの入力フレームを処理して、前記入力フレーム内の区別的な解剖学的特徴の少なくとも1つの検出されたインスタンスの位置を決定するステップと、
前記区別的な解剖学的特徴の前記少なくとも1つの検出されたインスタンスのうちの少なくとも選択された1つについて、前記区別的な解剖学的特徴の前記選択された1つのインスタンスの位置に基づいて仮想ジェスチャ空間を定義するステップであって、前記仮想ジェスチャ空間は、ジェスチャ入力を検出するために定義された空間である、ステップと、
前記フレームのシーケンス内の各フレームを前記仮想ジェスチャ空間内のみにおいて処理して、少なくとも1つの手を検出及び追跡し、前記少なくとも1つの手を検出及び追跡することから生成される情報を使用して、前記少なくとも1つの手の検出された位置に基づいて、前記仮想ジェスチャ空間を再定義し、前記少なくとも1つの手を検出及び追跡することから生成される情報を使用して、前記少なくとも1つの手に関連付けられるジェスチャクラスを予測するステップと、
前記少なくとも1つの手に関連付けられる前記予測されたジェスチャクラスを出力するステップと、
を含む、方法。 - 前記区別的な解剖学的特徴は人間の顔である、
請求項1に記載の方法。 - 前記区別的な解剖学的特徴の複数の検出されたインスタンスが存在し、それぞれの検出されたインスタンスの各々について1つの仮想ジェスチャ空間が定義され、各仮想ジェスチャ空間は、手検出及び追跡を実行するために処理される、
請求項1又は2に記載の方法。 - 前記仮想ジェスチャ空間が定義された後に、該定義された仮想ジェスチャ空間内で手検出及び追跡を実行することによって、少なくとも1つの後続の入力フレームを、該後続の入力フレーム内で前記区別的な解剖学的特徴の検出を更に実行することなく、処理するステップ、
を更に含む、請求項1乃至3のいずれか一項に記載の方法。 - 前記少なくとも1つの手の前記検出された位置に基づいて、前記仮想ジェスチャ空間を再定義した後に、該再定義された仮想ジェスチャ空間内で手検出及び追跡を実行することによって、少なくとも1つの後続の入力フレームを、該後続の入力フレーム内で前記区別的な解剖学的特徴の検出を更に実行することなく、処理するステップ、
を更に含む、請求項1に記載の方法。 - 前記少なくとも1つの手を検出及び追跡することから生成される前記情報は、前記入力フレーム内の前記少なくとも1つの手を定義しているバウンディングボックスを含み、ジェスチャ分類は前記バウンディングボックスを使用して実行される、
請求項1乃至5のいずれか一項に記載の方法。 - 前記仮想ジェスチャ空間内の1つ以上の部分空間を定義するステップ、
を更に含み、
前記少なくとも1つの手を検出及び追跡することから生成される情報は、前記少なくとも1つの手が前記1つ以上の部分空間のうちの1つにおいて検出されたことを示す情報を含み、
各部分空間はそれぞれのマウス入力に関連付けられる、
請求項1乃至6のいずれか一項に記載の方法。 - 前記フレームのシーケンス内の各入力フレームを前記仮想ジェスチャ空間内のみにおいて処理して、前記少なくとも1つの手を検出及び追跡するステップと、
前記少なくとも1つの手を検出及び追跡することから生成される情報を使用して、前記少なくとも1つの手に関連付けられるジェスチャクラスを出力するステップと、
を更に含む、請求項1乃至7のいずれか一項に記載の方法。 - 装置であって、
機械実行可能な命令を記憶するメモリに結合された処理デバイスを含み、前記命令は、前記処理デバイスによって実行されると、当該装置に、
入力フレームを処理させて、該入力フレーム内の区別的な解剖学的特徴の少なくとも1つの検出されたインスタンスの位置を決定させ、
前記区別的な解剖学的特徴の前記少なくとも1つの検出されたインスタンスのうちの少なくとも選択された1つについて、前記区別的な解剖学的特徴の前記選択された1つのインスタンスの位置に基づいて仮想ジェスチャ空間を定義させ、前記仮想ジェスチャ空間は、ジェスチャ入力を検出するために定義された空間であり、
前記入力フレームを前記仮想ジェスチャ空間内のみにおいて処理させて、少なくとも1つの手を検出及び追跡させ、
前記少なくとも1つの手を検出及び追跡することから生成される情報を使用して、前記少なくとも1つの手の検出された位置に基づいて、前記仮想ジェスチャ空間を再定義させ、
前記少なくとも1つの手を検出及び追跡することから生成される情報を使用して、前記少なくとも1つの手に関連付けられるジェスチャクラスを決定させる、
装置。 - 前記区別的な解剖学的特徴は人間の顔である、
請求項9に記載の装置。 - 前記区別的な解剖学的特徴の複数の検出されたインスタンスが存在し、それぞれの検出されたインスタンスの各々について1つの仮想ジェスチャ空間が定義され、各仮想ジェスチャ空間は、手検出及び追跡を実行するために処理される、
請求項9又は10に記載の装置。 - 前記命令は、当該装置に更に、
前記仮想ジェスチャ空間が定義された後に、該定義された仮想ジェスチャ空間内で手検出及び追跡を実行することによって、少なくとも1つの後続の入力フレームを、該後続の入力フレーム内で前記区別的な解剖学的特徴の検出を更に実行することなく、処理させる、
請求項9乃至11のいずれか一項に記載の装置。 - 前記命令は、当該装置に更に、
前記少なくとも1つの手の前記検出された位置に基づいて、前記仮想ジェスチャ空間を再定義した後に、該再定義された仮想ジェスチャ空間内で手検出及び追跡を実行することによって、少なくとも1つの後続の入力フレームを、該後続の入力フレーム内で前記区別的な解剖学的特徴の検出を更に実行することなく、処理させる、
請求項9に記載の装置。 - 前記少なくとも1つの手を検出及び追跡することから生成される前記情報は、前記入力フレーム内の前記少なくとも1つの手を定義しているバウンディングボックスを含み、ジェスチャ分類は前記バウンディングボックスを使用して実行される、
請求項9乃至13のいずれか一項に記載の装置。 - 前記命令は、当該装置に更に、
前記仮想ジェスチャ空間内の1つ以上の部分空間を定義させ、
前記少なくとも1つの手を検出及び追跡することから生成される情報は、前記少なくとも1つの手が前記1つ以上の部分空間のうちの1つにおいて検出されたことを示す情報を含み、
各部分空間はそれぞれのマウス入力に関連付けられる、
請求項9乃至14のいずれか一項に記載の装置。 - 当該装置は、ジェスチャ制御デバイスであり、前記決定されたジェスチャクラスは、前記ジェスチャ制御デバイスへのコマンド入力を決定するために使用される、
請求項9乃至15のいずれか一項に記載の装置。 - 前記入力フレームを含むフレームのシーケンスをキャプチャするためのカメラを更に含む、
請求項16に記載の装置。 - 前記ジェスチャ制御デバイスは、
テレビ、
スマートフォン、
タブレット、
車両結合デバイス
モノのインターネットデバイス、
人工現実デバイス、又は
仮想現実デバイス、
のうちの1つである、請求項16又は17に記載の装置。 - その上に記憶される機械実行可能な命令を有するコンピュータ読取可能媒体であって、前記命令は、装置の処理デバイスによって実行されると、前記装置に請求項1乃至8のいずれか一項に記載の方法を実行させる、コンピュータ読取可能媒体。
- その上に記憶される機械実行可能な命令を有するコンピュータプログラムであって、前記命令は、装置の処理デバイスによって実行されると、前記装置に請求項1乃至8のいずれか一項に記載の方法を実行させる、コンピュータプログラム。
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/CN2020/080562 WO2021189173A1 (en) | 2020-03-23 | 2020-03-23 | Methods and systems for hand gesture-based control of a device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023518562A JP2023518562A (ja) | 2023-05-02 |
| JP7447302B2 true JP7447302B2 (ja) | 2024-03-11 |
Family
ID=77890797
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022557658A Active JP7447302B2 (ja) | 2020-03-23 | 2020-03-23 | デバイスのハンドジェスチャベースの制御のための方法及びシステム |
Country Status (7)
| Country | Link |
|---|---|
| US (1) | US12093465B2 (ja) |
| EP (1) | EP4115264A4 (ja) |
| JP (1) | JP7447302B2 (ja) |
| KR (1) | KR20220156601A (ja) |
| CN (1) | CN115298638A (ja) |
| BR (1) | BR112022019021A2 (ja) |
| WO (1) | WO2021189173A1 (ja) |
Families Citing this family (21)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11275453B1 (en) | 2019-09-30 | 2022-03-15 | Snap Inc. | Smart ring for manipulating virtual objects displayed by a wearable device |
| US11277597B1 (en) | 2020-03-31 | 2022-03-15 | Snap Inc. | Marker-based guided AR experience |
| US11798429B1 (en) | 2020-05-04 | 2023-10-24 | Snap Inc. | Virtual tutorials for musical instruments with finger tracking in augmented reality |
| US11520399B2 (en) | 2020-05-26 | 2022-12-06 | Snap Inc. | Interactive augmented reality experiences using positional tracking |
| US11925863B2 (en) * | 2020-09-18 | 2024-03-12 | Snap Inc. | Tracking hand gestures for interactive game control in augmented reality |
| US12086324B2 (en) | 2020-12-29 | 2024-09-10 | Snap Inc. | Micro hand gestures for controlling virtual and graphical elements |
| EP4272051B8 (en) | 2020-12-30 | 2026-03-04 | Snap Inc. | Augmented reality precision tracking and display |
| US11740313B2 (en) | 2020-12-30 | 2023-08-29 | Snap Inc. | Augmented reality precision tracking and display |
| US20220225050A1 (en) * | 2021-01-13 | 2022-07-14 | Dolby Laboratories Licensing Corporation | Head tracked spatial audio and/or video rendering |
| US11531402B1 (en) | 2021-02-25 | 2022-12-20 | Snap Inc. | Bimanual gestures for controlling virtual and graphical elements |
| KR20230164185A (ko) | 2021-04-08 | 2023-12-01 | 스냅 인코포레이티드 | 가상 및 그래픽 요소들을 제어하기 위한 매핑된 손 영역들 사이의 양손 상호 작용들 |
| CN117178247A (zh) | 2021-04-19 | 2023-12-05 | 斯纳普公司 | 用于动画化及控制虚拟和图形元素的手势 |
| US11983327B2 (en) * | 2021-10-06 | 2024-05-14 | Fotonation Limited | Method for identifying a gesture |
| KR20230073869A (ko) * | 2021-11-19 | 2023-05-26 | 삼성전자주식회사 | 인터랙션을 지원하는 사용자 인터페이스를 제공하는 방법 및 이를 수행하는 전자 장치 |
| US11726578B1 (en) | 2022-02-11 | 2023-08-15 | Meta Platforms Technologies, Llc | Scrolling and navigation in virtual reality |
| CN118550399A (zh) * | 2023-02-27 | 2024-08-27 | 北京字跳网络技术有限公司 | 手势识别方法、装置、设备、介质及产品 |
| WO2024220094A1 (en) * | 2023-04-17 | 2024-10-24 | Canon U.S.A., Inc. | Apparatus and methods for gesture recognition |
| CN119088205A (zh) * | 2023-06-06 | 2024-12-06 | 北京视延科技有限公司 | 光场显示方法及系统、存储介质 |
| US20250063257A1 (en) * | 2023-08-18 | 2025-02-20 | Canon U.S.A., Inc. | Apparatus and methods for adjusting zoom of a ptz camera |
| CN117911480B (zh) * | 2024-01-10 | 2025-01-24 | 重庆邮电大学 | 一种注意力引导的多视深度估计方法 |
| US20250321630A1 (en) * | 2024-04-10 | 2025-10-16 | Meta Platforms Technologies, Llc | Single-Handed Mode for an Artificial Reality System |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011039844A (ja) | 2009-08-12 | 2011-02-24 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
| JP2012515968A (ja) | 2009-01-21 | 2012-07-12 | トムソン ライセンシング | 顔検出及びホットスポットの動きによりメディアを制御する方法 |
| JP2012146236A (ja) | 2011-01-14 | 2012-08-02 | Olympus Corp | ジェスチャ入力装置 |
| US20120236180A1 (en) | 2011-03-15 | 2012-09-20 | Zhao-Yuan Lin | Image adjustment method and electronics system using the same |
| JP2013257762A (ja) | 2012-06-13 | 2013-12-26 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム |
| US20190057246A1 (en) | 2017-08-16 | 2019-02-21 | Boe Technology Group Co., Ltd. | Method and device for gesture recognition |
Family Cites Families (41)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000163196A (ja) | 1998-09-25 | 2000-06-16 | Sanyo Electric Co Ltd | ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置 |
| JP2011078009A (ja) | 2009-10-01 | 2011-04-14 | Olympus Corp | 撮像装置および撮像装置用プログラム |
| JP5482080B2 (ja) | 2009-10-14 | 2014-04-23 | 富士通株式会社 | 手認識装置 |
| CN102713794A (zh) | 2009-11-24 | 2012-10-03 | 奈克斯特控股公司 | 用于手势识别模式控制的方法和装置 |
| US20110304541A1 (en) | 2010-06-11 | 2011-12-15 | Navneet Dalal | Method and system for detecting gestures |
| JP5601045B2 (ja) | 2010-06-24 | 2014-10-08 | ソニー株式会社 | ジェスチャ認識装置、ジェスチャ認識方法およびプログラム |
| CN103477352A (zh) * | 2011-04-11 | 2013-12-25 | 英特尔公司 | 使用深度图像的姿势识别 |
| US8781221B2 (en) * | 2011-04-11 | 2014-07-15 | Intel Corporation | Hand gesture recognition system |
| WO2012144667A1 (en) | 2011-04-19 | 2012-10-26 | Lg Electronics Inc. | Method and electronic device for gesture recognition |
| JP6106921B2 (ja) | 2011-04-26 | 2017-04-05 | 株式会社リコー | 撮像装置、撮像方法および撮像プログラム |
| JP5845002B2 (ja) * | 2011-06-07 | 2016-01-20 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
| US20130120243A1 (en) | 2011-11-16 | 2013-05-16 | Samsung Electronics Co., Ltd. | Display apparatus and control method thereof |
| KR101885295B1 (ko) | 2011-12-26 | 2018-09-11 | 엘지전자 주식회사 | 전자기기 및 그 제어방법 |
| US8723796B2 (en) * | 2012-02-02 | 2014-05-13 | Kodak Alaris Inc. | Multi-user interactive display system |
| WO2013149357A1 (en) * | 2012-04-01 | 2013-10-10 | Intel Corporation | Analyzing human gestural commands |
| TWI451344B (zh) * | 2012-08-27 | 2014-09-01 | Pixart Imaging Inc | 手勢辨識系統及手勢辨識方法 |
| JP6011165B2 (ja) | 2012-08-31 | 2016-10-19 | オムロン株式会社 | ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム |
| US9443136B2 (en) * | 2013-04-12 | 2016-09-13 | Samsung Electronics Co., Ltd. | Apparatus and method for detecting body parts from user image |
| JP6189622B2 (ja) | 2013-04-22 | 2017-08-30 | シャープ株式会社 | 入力装置、および、画像表示装置 |
| KR20140138424A (ko) | 2013-05-23 | 2014-12-04 | 삼성전자주식회사 | 제스쳐를 이용한 사용자 인터페이스 방법 및 장치 |
| US10528145B1 (en) * | 2013-05-29 | 2020-01-07 | Archer Software Corporation | Systems and methods involving gesture based user interaction, user interface and/or other features |
| JP2015056141A (ja) | 2013-09-13 | 2015-03-23 | ソニー株式会社 | 情報処理装置、および情報処理方法 |
| KR101534742B1 (ko) | 2013-12-10 | 2015-07-07 | 현대자동차 주식회사 | 차량용 제스처 인식 시스템 및 그 방법 |
| US9785247B1 (en) * | 2014-05-14 | 2017-10-10 | Leap Motion, Inc. | Systems and methods of tracking moving hands and recognizing gestural interactions |
| JP2016009453A (ja) * | 2014-06-26 | 2016-01-18 | オムロン株式会社 | 顔認証装置および顔認証方法 |
| US9465444B1 (en) | 2014-06-30 | 2016-10-11 | Amazon Technologies, Inc. | Object recognition for gesture tracking |
| WO2016042039A1 (en) * | 2014-09-16 | 2016-03-24 | Foundation For Research And Technology - Hellas (Forth) | Gesture recognition apparatuses, methods and systems for human-machine interaction |
| CN108139799B (zh) | 2016-04-22 | 2022-01-14 | 深圳市大疆创新科技有限公司 | 基于用户的兴趣区(roi)处理图像数据的系统和方法 |
| JP2017211739A (ja) | 2016-05-24 | 2017-11-30 | 株式会社エクスビジョン | ユーザインターフェース装置およびユーザインターフェースプログラム |
| US10528122B2 (en) * | 2016-09-30 | 2020-01-07 | Intel Corporation | Gesture experiences in multi-user environments |
| JP6953818B2 (ja) | 2016-11-14 | 2021-10-27 | 株式会社アイシン | 動作判定装置 |
| CN106383452B (zh) | 2016-11-24 | 2020-06-19 | 北京地平线机器人技术研发有限公司 | 智能控制模块和包括其的厨电设备 |
| JP2018147054A (ja) | 2017-03-01 | 2018-09-20 | 学校法人東邦大学 | 非接触遠隔ポインター制御装置 |
| WO2018235198A1 (ja) | 2017-06-21 | 2018-12-27 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
| EP3651055B1 (en) | 2017-08-01 | 2026-02-25 | Huawei Technologies Co., Ltd. | Gesture recognition method, apparatus, and device |
| CN108108024B (zh) * | 2018-01-02 | 2021-01-22 | 京东方科技集团股份有限公司 | 动态手势获取方法及装置、显示装置 |
| CN108460329B (zh) * | 2018-01-15 | 2022-02-11 | 任俊芬 | 一种基于深度学习检测的人脸手势配合验证方法 |
| KR102582863B1 (ko) * | 2018-09-07 | 2023-09-27 | 삼성전자주식회사 | 사용자 의도 기반 제스처 인식 방법 및 장치 |
| KR102869074B1 (ko) * | 2019-08-08 | 2025-10-13 | 현대자동차주식회사 | 차량의 모션 인식 장치 및 방법 |
| US11847808B2 (en) | 2019-10-14 | 2023-12-19 | Qualcomm Incorporated | Systems and methods region-of-interest automatic gain or exposure control |
| CN113448427B (zh) * | 2020-03-24 | 2023-09-12 | 华为技术有限公司 | 设备控制方法、装置及系统 |
-
2020
- 2020-03-23 EP EP20927727.6A patent/EP4115264A4/en active Pending
- 2020-03-23 WO PCT/CN2020/080562 patent/WO2021189173A1/en not_active Ceased
- 2020-03-23 JP JP2022557658A patent/JP7447302B2/ja active Active
- 2020-03-23 CN CN202080098779.9A patent/CN115298638A/zh active Pending
- 2020-03-23 BR BR112022019021A patent/BR112022019021A2/pt unknown
- 2020-03-23 KR KR1020227036600A patent/KR20220156601A/ko not_active Ceased
-
2022
- 2022-09-22 US US17/950,246 patent/US12093465B2/en active Active
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012515968A (ja) | 2009-01-21 | 2012-07-12 | トムソン ライセンシング | 顔検出及びホットスポットの動きによりメディアを制御する方法 |
| JP2011039844A (ja) | 2009-08-12 | 2011-02-24 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
| JP2012146236A (ja) | 2011-01-14 | 2012-08-02 | Olympus Corp | ジェスチャ入力装置 |
| US20120236180A1 (en) | 2011-03-15 | 2012-09-20 | Zhao-Yuan Lin | Image adjustment method and electronics system using the same |
| JP2013257762A (ja) | 2012-06-13 | 2013-12-26 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム |
| US20190057246A1 (en) | 2017-08-16 | 2019-02-21 | Boe Technology Group Co., Ltd. | Method and device for gesture recognition |
Non-Patent Citations (2)
| Title |
|---|
| Sarang Suresh Kakkoth,Visual descriptors based Real Time Hand Gesture Recognition,2018 International Conference On Advances in Communication and Computing Technology (ICACCT),ID,IEEE,2018年02月08日,P.361-367,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8529663 |
| 今村 勇也,操作者周辺に固定したコマンド空間を用いた家電操作手法の構築,電気学会研究会資料,日本,一般社団法人電気学会,2013年04月26日,PI-13-12,P.23-26 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN115298638A (zh) | 2022-11-04 |
| JP2023518562A (ja) | 2023-05-02 |
| US12093465B2 (en) | 2024-09-17 |
| KR20220156601A (ko) | 2022-11-25 |
| WO2021189173A1 (en) | 2021-09-30 |
| US20230082789A1 (en) | 2023-03-16 |
| EP4115264A4 (en) | 2023-04-12 |
| EP4115264A1 (en) | 2023-01-11 |
| BR112022019021A2 (pt) | 2022-11-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7447302B2 (ja) | デバイスのハンドジェスチャベースの制御のための方法及びシステム | |
| US11249557B2 (en) | Methods and systems for controlling a device using hand gestures in multi-user environment | |
| JP7626523B2 (ja) | デバイスのハンドジェスチャベースの制御のための方法及びシステム | |
| US11809637B2 (en) | Method and device for adjusting the control-display gain of a gesture controlled electronic device | |
| US9256324B2 (en) | Interactive operation method of electronic apparatus | |
| US8553931B2 (en) | System and method for adaptively defining a region of interest for motion analysis in digital video | |
| US9213890B2 (en) | Gesture recognition system for TV control | |
| KR101279561B1 (ko) | 깊이정보 기반 고속 고정밀 얼굴 검출 및 추적 방법 | |
| CN102598058A (zh) | 用于检测脸部变化的系统以及使用脸部变化检测的智能系统 | |
| KR20180074124A (ko) | 얼굴 인식을 통해 전자 장치를 제어하는 방법 및 이를 수행하는 전자 장치 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221121 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221121 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230915 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231226 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240130 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240228 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7447302 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |














