JP7351130B2 - 深度カメラ及び深層ニューラルネットワークを使用する、プロジェクタ-カメラ対話型ディスプレイ用のロバストなジェスチャ認識装置及びシステム - Google Patents
深度カメラ及び深層ニューラルネットワークを使用する、プロジェクタ-カメラ対話型ディスプレイ用のロバストなジェスチャ認識装置及びシステム Download PDFInfo
- Publication number
- JP7351130B2 JP7351130B2 JP2019138269A JP2019138269A JP7351130B2 JP 7351130 B2 JP7351130 B2 JP 7351130B2 JP 2019138269 A JP2019138269 A JP 2019138269A JP 2019138269 A JP2019138269 A JP 2019138269A JP 7351130 B2 JP7351130 B2 JP 7351130B2
- Authority
- JP
- Japan
- Prior art keywords
- interaction
- learning algorithm
- deep learning
- user interface
- determined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/48—Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
- G03B17/54—Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/14—Details
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/14—Details
- G03B21/26—Projecting separately subsidiary matter simultaneously with main image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/086—Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Signal Processing (AREA)
- Biodiversity & Conservation Biology (AREA)
- Physiology (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
例示的な実装形態は、色チャネル及び深度チャネルから計算されたオプティカルフローを有する畳み込みニューラルネットワーク(convolutional neural network:CNN)を利用する。例示的な実装形態は、ディスプレイ表面の近くの活動がないフレームを除外する処理パイプラインを含み、それにより、計算サイクル及びエネルギーが節約される。本明細書に記載された例示的な実装形態のラベル付きデータセットを利用したテストでは、高い精度(たとえば、約95%の精度)が達成された。
Claims (15)
- ユーザインターフェース(UI)を表面に投影するように構成されたプロジェクタシステムと、
前記投影されたユーザインターフェース上の対話を深度情報と共に記録するように構成されたカメラシステムと、
前記カメラシステムによって記録された対話を検出すると、前記カメラシステムによって記録された前記対話からジェスチャ動作を認識するように訓練された深層学習アルゴリズムの適用に基づいて、動作コマンドの実行を決定するように構成されたプロセッサと、
を備え、
前記プロセッサが、
前記投影されたユーザインターフェースのUIウィジェットの近傍の領域におけるピクセルの深度情報を表すz値が、前記表面より上にあり、かつ、前記表面の深度情報を表すz値に対して所定の閾値内にあるか否かを判定することにより、前記投影されたユーザインターフェースのUIウィジェットの近傍で対話が発生したかどうかを判定し、
前記投影されたユーザインターフェースの前記UIウィジェットの近傍で対話が発生したと判定した場合、対話が検出されたと判定し、前記深層学習アルゴリズムの前記適用に基づいて動作コマンドの実行を決定し、前記深層学習アルゴリズムにより決定された、認識されたジェスチャ動作に対応する動作コマンドを実行し、
前記投影されたユーザインターフェースの前記UIウィジェットの近傍で対話が発生していないと判定した場合、対話が検出されず、前記深層学習アルゴリズムの適用を行わないと決定する
ように構成される、システム。 - 前記プロセッサが、
前記投影されたUI内の領域について、前記カメラシステムの色チャネル及び深度チャネルのオプティカルフローを計算し、
前記オプティカルフローに前記深層学習アルゴリズムを適用してジェスチャ動作を認識すること
により、前記カメラシステムによって記録された前記対話からジェスチャ動作を認識するように訓練された前記深層学習アルゴリズムの適用に基づいて、動作コマンドの実行を決定するように構成される、
請求項1に記載のシステム。 - 前記プロセッサが、前記深層学習アルゴリズムの適用を実行するように構成された、グラフィックプロセッサユニット(GPU)又はフィールドプログラマブルゲートアレイ(FPGA)である、請求項1に記載のシステム。
- 前記プロジェクタシステムが、卓上又は壁面に前記UIを投影するように構成される、請求項1に記載のシステム。
- 前記深層学習アルゴリズムが、オプティカルフローに関連付けられたラベル付きジェスチャ動作を含むデータベースに対して訓練される、請求項1に記載のシステム。
- ユーザインターフェース(UI)を表面に投影するように構成されたプロジェクタシステムと、
前記投影されたユーザインターフェース上の対話を深度情報と共に記録するように構成されたカメラシステムと、
プロセッサであって、
前記カメラシステムによって記録された対話を検出すると、
前記投影されたUI内の領域について、前記カメラシステムの色チャネル及び深度チャネルのオプティカルフローを計算し、
前記オプティカルフローに深層学習アルゴリズムを適用してUIウィジェットでジェスチャ動作を認識し、前記深層学習アルゴリズムが前記オプティカルフローからジェスチャ動作を認識するように訓練されており、
認識されたジェスチャ動作に対して、前記認識されたジェスチャ動作及び前記UIウィジェットに対応するコマンドを実行する
ように構成されたプロセッサと、
を備え、
前記プロセッサが、
前記投影されたユーザインターフェースのUIウィジェットの近傍の領域におけるピクセルの深度情報を表すz値が、前記表面より上にあり、かつ、前記表面の深度情報を表すz値に対して所定の閾値内にあるか否かを判定することにより、前記投影されたユーザインターフェースの前記UIウィジェットの近傍で対話が発生したかどうかを判定し、
前記投影されたユーザインターフェースの前記UIウィジェットの近傍で対話が発生したと判定した場合、対話が検出されたと判定し、前記深層学習アルゴリズムの前記適用に基づいて動作コマンドの実行を決定し、前記深層学習アルゴリズムから決定された認識されたジェスチャ動作に対応する動作コマンドを実行し、
前記投影されたユーザインターフェースの前記UIウィジェットの近傍で対話が発生していないと判定した場合、対話が検出されず、前記深層学習アルゴリズムの適用を行わないと決定する
ように構成される、システム。 - 前記プロセッサが、前記深層学習アルゴリズムの適用を実行するように構成された、グラフィックプロセッサユニット(GPU)又はフィールドプログラマブルゲートアレイ(FPGA)である、請求項6に記載のシステム。
- 前記プロジェクタシステムが、前記UIを卓上又は壁面に投影するように構成される、請求項6に記載のシステム。
- 前記深層学習アルゴリズムが、ビデオフレームに関連付けられたラベル付きジェスチャ動作を含むデータベースに対して訓練される、請求項6に記載のシステム。
- 前記カメラシステムが、色チャネル及び深度チャネルを記録するように構成される、請求項6に記載のシステム。
- ユーザインターフェース(UI)を表面に投影するように構成されたプロジェクタシステムと、
前記投影されたユーザインターフェース上の対話を深度情報と共に記録するように構成されたカメラシステムと、
前記カメラシステムによって記録された対話を検出すると、前記カメラシステムによって記録された対話からジェスチャ動作を認識するように訓練された深層学習アルゴリズムを適用するように構成された専用ハードウェアプロセッサと、
を備え、前記専用ハードウェアプロセッサが、
前記投影されたユーザインターフェースのUIウィジェットの近傍の領域におけるピクセルの深度情報を表すz値が、前記表面より上にあり、かつ、前記表面の深度情報を表すz値に対して所定の閾値内にあるか否かを判定することにより、前記投影されたユーザインターフェースのUIウィジェットの近傍で対話が発生したかどうかを判定し、
前記投影されたユーザインターフェースの前記UIウィジェットの近傍で対話が発生したと判定した場合、対話が検出されたと判定し、前記深層学習アルゴリズムの前記適用に基づいて動作コマンドの実行を決定し、前記深層学習アルゴリズムから決定された認識されたジェスチャ動作に対応する動作コマンドを実行し、
前記投影されたユーザインターフェースの前記UIウィジェットの近傍で対話が発生していないと判定した場合、対話が検出されず、前記深層学習アルゴリズムの適用を行わないと決定する
ように構成される、装置。 - 前記専用ハードウェアプロセッサが、
前記投影されたUI内の領域について、前記カメラシステムの色チャネル及び深度チャネルのオプティカルフローを計算し、
前記オプティカルフローに前記深層学習アルゴリズムを適用してジェスチャ動作を認識すること
により、前記カメラシステムによって記録された前記対話からジェスチャ動作を認識するように訓練された前記深層学習アルゴリズムの適用に基づいて、動作コマンドの実行を決定するように構成される、
請求項11に記載の装置。 - 前記専用ハードウェアプロセッサが、前記深層学習アルゴリズムの適用を実行するように構成された、グラフィックプロセッサユニット(GPU)又はフィールドプログラマブルゲートアレイ(FPGA)である、請求項11に記載の装置。
- 前記プロジェクタシステムが、前記UIを卓上又は壁面に投影するように構成される、請求項11に記載の装置。
- 前記深層学習アルゴリズムが、オプティカルフローに関連付けられたラベル付きジェスチャ動作を含むデータベースに対して訓練される、請求項11に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/059,659 US20200050353A1 (en) | 2018-08-09 | 2018-08-09 | Robust gesture recognizer for projector-camera interactive displays using deep neural networks with a depth camera |
US16/059659 | 2018-08-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020027647A JP2020027647A (ja) | 2020-02-20 |
JP7351130B2 true JP7351130B2 (ja) | 2023-09-27 |
Family
ID=69407188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019138269A Active JP7351130B2 (ja) | 2018-08-09 | 2019-07-26 | 深度カメラ及び深層ニューラルネットワークを使用する、プロジェクタ-カメラ対話型ディスプレイ用のロバストなジェスチャ認識装置及びシステム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20200050353A1 (ja) |
JP (1) | JP7351130B2 (ja) |
CN (1) | CN110825218A (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10802287B2 (en) * | 2019-01-14 | 2020-10-13 | Valve Corporation | Dynamic render time targeting based on eye tracking |
US10911775B1 (en) * | 2020-03-11 | 2021-02-02 | Fuji Xerox Co., Ltd. | System and method for vision-based joint action and pose motion forecasting |
EP4386522A1 (en) * | 2021-08-13 | 2024-06-19 | Anhui Easpeed Technology Co., Ltd. | Positioning sensing method, positioning sensing apparatus, and input terminal device |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018107642A (ja) | 2016-12-27 | 2018-07-05 | キヤノン株式会社 | 画像処理装置、画像処理装置の制御方法、及びプログラム |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5802220A (en) * | 1995-12-15 | 1998-09-01 | Xerox Corporation | Apparatus and method for tracking facial motion through a sequence of images |
US8491135B2 (en) * | 2010-01-04 | 2013-07-23 | Microvision, Inc. | Interactive projection with gesture recognition |
US8503539B2 (en) * | 2010-02-26 | 2013-08-06 | Bao Tran | High definition personal computer (PC) cam |
US20110304541A1 (en) * | 2010-06-11 | 2011-12-15 | Navneet Dalal | Method and system for detecting gestures |
US8395659B2 (en) * | 2010-08-26 | 2013-03-12 | Honda Motor Co., Ltd. | Moving obstacle detection using images |
US9104239B2 (en) * | 2011-03-09 | 2015-08-11 | Lg Electronics Inc. | Display device and method for controlling gesture functions using different depth ranges |
WO2012139241A1 (en) * | 2011-04-11 | 2012-10-18 | Intel Corporation | Hand gesture recognition system |
CN102841733B (zh) * | 2011-06-24 | 2015-02-18 | 株式会社理光 | 虚拟触摸屏系统以及自动切换交互模式的方法 |
WO2013018099A2 (en) * | 2011-08-04 | 2013-02-07 | Eyesight Mobile Technologies Ltd. | System and method for interfacing with a device via a 3d display |
US20160140766A1 (en) * | 2012-12-12 | 2016-05-19 | Sulon Technologies Inc. | Surface projection system and method for augmented reality |
WO2014209328A1 (en) * | 2013-06-27 | 2014-12-31 | Intel Corporation | Device for adaptive projection |
EP2843621A1 (en) * | 2013-08-26 | 2015-03-04 | Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. | Human pose calculation from optical flow data |
US9860517B1 (en) * | 2013-09-24 | 2018-01-02 | Amazon Technologies, Inc. | Power saving approaches to object detection |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9870058B2 (en) * | 2014-04-23 | 2018-01-16 | Sony Corporation | Control of a real world object user interface |
US9880267B2 (en) * | 2015-09-04 | 2018-01-30 | Microvision, Inc. | Hybrid data acquisition in scanned beam display |
US10157309B2 (en) * | 2016-01-14 | 2018-12-18 | Nvidia Corporation | Online detection and classification of dynamic gestures with recurrent convolutional neural networks |
CN106227341A (zh) * | 2016-07-20 | 2016-12-14 | 南京邮电大学 | 基于深度学习的无人机手势交互方法及系统 |
US20180052520A1 (en) * | 2016-08-19 | 2018-02-22 | Otis Elevator Company | System and method for distant gesture-based control using a network of sensors across the building |
US11347054B2 (en) * | 2017-02-16 | 2022-05-31 | Magic Leap, Inc. | Systems and methods for augmented reality |
US11049018B2 (en) * | 2017-06-23 | 2021-06-29 | Nvidia Corporation | Transforming convolutional neural networks for visual sequence learning |
-
2018
- 2018-08-09 US US16/059,659 patent/US20200050353A1/en not_active Abandoned
-
2019
- 2019-06-20 CN CN201910535071.4A patent/CN110825218A/zh active Pending
- 2019-07-26 JP JP2019138269A patent/JP7351130B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018107642A (ja) | 2016-12-27 | 2018-07-05 | キヤノン株式会社 | 画像処理装置、画像処理装置の制御方法、及びプログラム |
Non-Patent Citations (1)
Title |
---|
Pradyumna NARAYANA et al.,"Gesture Recognition: Focus on the Hands",2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition,2018年06月,DOI: 10.1109/CVPR.2018.00549 |
Also Published As
Publication number | Publication date |
---|---|
CN110825218A (zh) | 2020-02-21 |
US20200050353A1 (en) | 2020-02-13 |
JP2020027647A (ja) | 2020-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10488939B2 (en) | Gesture recognition | |
JP7351130B2 (ja) | 深度カメラ及び深層ニューラルネットワークを使用する、プロジェクタ-カメラ対話型ディスプレイ用のロバストなジェスチャ認識装置及びシステム | |
US6594616B2 (en) | System and method for providing a mobile input device | |
US9619042B2 (en) | Systems and methods for remapping three-dimensional gestures onto a finite-size two-dimensional surface | |
JP2015531526A (ja) | タッチレス入力 | |
US9317171B2 (en) | Systems and methods for implementing and using gesture based user interface widgets with camera input | |
CN103440033B (zh) | 一种基于徒手和单目摄像头实现人机交互的方法和装置 | |
JP2004246578A (ja) | 自己画像表示を用いたインタフェース方法、装置、およびプログラム | |
Yin et al. | Toward natural interaction in the real world: Real-time gesture recognition | |
Osunkoya et al. | Gesture-based human-computer-interaction using Kinect for windows mouse control and powerpoint presentation | |
JP2016525235A (ja) | 文字入力のための方法及びデバイス | |
CN106547339B (zh) | 计算机设备的控制方法和装置 | |
KR101360322B1 (ko) | 다양한 손모양 검출 및 추적을 기반으로 한 원격 전자칠판 제어 장치 및 그 방법 | |
JP6699406B2 (ja) | 情報処理装置、プログラム、位置情報作成方法、情報処理システム | |
Suriya et al. | An Efficient Artificial Intelligence based Human-Machine Interaction System | |
KR20140046197A (ko) | 동작인식 장치 및 방법, 그리고 프로그램을 저장한 컴퓨터로 판독 가능한 기록매체 | |
Khandagale et al. | Jarvis-AI Based Virtual Mouse | |
Tran et al. | A hand gesture recognition library for a 3D viewer supported by kinect's depth sensor | |
Baraldi et al. | Natural interaction on tabletops | |
TWI554910B (zh) | Medical image imaging interactive control method and system | |
Bharath et al. | Precision Pointing: AI Virtual Mouse for Accurate Control | |
WO2021075103A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US12014008B2 (en) | Information processing apparatus, information processing method, and program | |
Mukhopadhyay et al. | Hand Gesture Based Recognition System | |
Kolagani | Gesture Based Human-Computer Interaction with Natural User Interface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230615 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230828 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7351130 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |