JP2022519411A - ジェスチャー認識方法および装置、電子デバイス、並びに記録媒体 - Google Patents

ジェスチャー認識方法および装置、電子デバイス、並びに記録媒体 Download PDF

Info

Publication number
JP2022519411A
JP2022519411A JP2021518866A JP2021518866A JP2022519411A JP 2022519411 A JP2022519411 A JP 2022519411A JP 2021518866 A JP2021518866 A JP 2021518866A JP 2021518866 A JP2021518866 A JP 2021518866A JP 2022519411 A JP2022519411 A JP 2022519411A
Authority
JP
Japan
Prior art keywords
hand
image
posture
detection frame
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2021518866A
Other languages
English (en)
Inventor
海宇 ▲趙▼
▲凱▼歌 ▲陳▼
▲達▼明 牛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sensetime International Pte Ltd
Original Assignee
Sensetime International Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sensetime International Pte Ltd filed Critical Sensetime International Pte Ltd
Publication of JP2022519411A publication Critical patent/JP2022519411A/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/32Coin-freed apparatus for hiring articles; Coin-freed facilities or services for games, toys, sports, or amusements
    • G07F17/3225Data transfer within a gaming system, e.g. data sent between gaming machines and users
    • G07F17/3232Data transfer within a gaming system, e.g. data sent between gaming machines and users wherein the operator is informed
    • G07F17/3237Data transfer within a gaming system, e.g. data sent between gaming machines and users wherein the operator is informed about the players, e.g. profiling, responsible gaming, strategy/behavior of players, location of players
    • G07F17/3239Tracking of individual players

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Social Psychology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Psychiatry (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本発明は、ジェスチャー認識方法および装置、電子デバイス、並びに記録媒体を開示する。前記方法は、処理待ち画像に対して検出を実行して手検出結果を得ることと、手検出結果に手検出フレームが含まれていることに応答して、前記手検出フレーム内の手姿勢が目標ジェスチャー中の手姿勢を満たすと確定することと、前記手が前記処理待ち画像における予め定義された領域内にいることを確定することと、前記手が目標ジェスチャーを取っていることを確定することと、を含む。【選択図】図1

Description

本発明は、コンピュータ視覚技術に関し、具体的には、ジェスチャー認識方法および装置、電子デバイス、並びに記録媒体に関する。
<関連出願の相互引用>
本願は、出願番号が10201912990Qであり、出願日が2019年12月23日であり、出願名称が「データ処理方法、装置、及びエッジデバイス」であるシンガポール特許出願に基づいて提出されたものであり、当該特許出願の優先権を主張し、当該特許出願の全ての内容が参照のために本願に援用される。
近年、人工知能技術の継続的な発展により、人工知能技術は、コンピュータ視覚、音声認識などにおいて比較的良好な効果を達成している。人工知能技術を使用して、いくつかの相対的に特殊なシーン、たとえばデスクトップゲームシーンで、ジェスチャー認識を実行する。
本発明は、ジェスチャー認識の解決策を提供する。
本発明の第1態様によると、ジェスチャー認識方法を提供する。前記方法は、処理待ち画像に対して検出を実行して手検出結果を得ることと、手検出結果に手検出フレームが含まれていることに応答して、前記手検出フレーム内の手姿勢が目標ジェスチャー中の手姿勢を満たすと確定することと、前記手が前記処理待ち画像における予め定義された領域内にいることを確定することと、前記手が目標ジェスチャーを取っていることを確定することと、を含む。
本発明によって提供される任意の実施形態と結合して、前記手検出フレーム内の前記手姿勢が前記目標ジェスチャー中の前記手姿勢を満たすと確定することは手検出結果に前記手検出フレームが含まれていることに応答して、前記手検出フレーム内の前記手姿勢が前記目標ジェスチャー中の手姿勢を満たすと確定することは、手検出結果に前記手検出フレームが含まれていることに応答して、前記処理待ち画像における手検出フレーム内に位置する画像をカッティングすることと、前記カッティングされた画像に基づいて、前記カッティングされた画像における手姿勢が目標ジェスチャー中の手姿勢手姿勢を満たすと確定することと、を含む。
本発明によって提供される任意の実施形態と結合して、前記目標ジェスチャー中の手姿勢は、両手がいずれも正面であり、前記手検出フレーム内の前記手姿勢が前記目標ジェスチャー中の前記手姿勢を満たすと確定することは、前記手検出フレーム内の画像を手分類ニューラルネットワークに入力して、手が正面であることまたは手が他の姿勢であることを含む手分類結果を得ることと、2つの手検出フレームの手分類結果がいずれも正面である場合、前記手検出フレーム内の前記手姿勢が前記目標ジェスチャー中の手姿勢を満たすと確定することと、を含む。
本発明によって提供される任意の実施形態と結合して、前記手分類ニューラルネットワークは、手画像サンプルを使用して訓練して得られたものであり、前記手画像サンプルは、手が正面である画像サンプルを含み、ラベル情報前記手が正面である画像サンプルのラベル情報は、手のひらである。
本発明によって提供される任意の実施形態と結合して、前記手が前記処理待ち画像における前記予め定義された領域内にいることを確定することは、前記手検出フレームの中心点が前記予め定義された領域内にいることを確定することを含む。
本発明によって提供される任意の実施形態と結合して、前記処理待ち画像は、目標領域に対して収集を実行して得られた画像であり、前記予め定義された領域は、前記処理待ち画像における、前記目標領域における2つのサブ領域にそれぞれ対応する2つの所定のサブ領域を含み、それぞれ前記2つの所定のサブ領域内前記手検出フレームの前記中心点が前記予め定義された領域内にいることを確定することは、2つの手検出フレームの中心点がそれぞれ前記2つの所定のサブ領域内にあることを確定することを含む。
本発明によって提供される任意の実施形態と結合して、前記処理待ち画像は、上面からの視角で収集した前記目標領域の画像である。
本発明の第2態様によると、ジェスチャー認識装置を提供する。前記装置は、処理待ち画像に対して検出を実行して手検出結果を得るための取得ユニットと、手検出結果に手検出フレームが含まれていることに応答して、前記手検出フレーム内の手姿勢が目標ジェスチャー中の手姿勢を満たすと確定するための第1確定ユニットと、前記手が前記処理待ち画像における予め定義された領域内にいることを確定するための第2確定ユニットと、前記手が目標ジェスチャーを取っていることを確定するための第3確定ユニットと、を備える。
本発明によって提供される任意の実施形態と結合して、前記第1確定ユニットは、具体的に、手検出結果に前記手検出フレームが含まれていることに応答して、前記処理待ち画像における手検出フレーム内に位置する画像をカッティングし、前記カッティングされた画像に基づいて、前記カッティングされた画像における手姿勢が目標ジェスチャー中の手姿勢手姿勢を満たすと確定する。
本発明によって提供される任意の実施形態と結合して、前記目標ジェスチャー中の手姿勢は、両手がいずれも正面であり、前記第1確定ユニットは、さらに、前記手検出フレーム内の画像を手分類ニューラルネットワークに入力して、手が正面であることまたは手が他の姿勢であることを含む手分類結果を得、2つの手検出フレームの手分類結果がいずれも正面である場合、前記手検出フレーム内の前記手姿勢が前記目標ジェスチャー中の手姿勢を満たすと確定する。
本発明によって提供される任意の実施形態と結合して、前記手分類ニューラルネットワークは、手画像サンプルを使用して訓練して得られたものであり、前記手画像サンプルは、手が正面である画像サンプルを含み、ラベル情報前記手が正面である画像サンプルのラベル情報は、手のひらである。
本発明によって提供される任意の実施形態と結合して、前記第2確定ユニットは、さらに、前記手検出フレームの中心点が前記予め定義された領域内にいることを確定する。
本発明によって提供される任意の実施形態と結合して、前記処理待ち画像は、目標領域に対して収集を実行して得られた画像であり、前記予め定義された領域は、前記処理待ち画像における、前記目標領域における2つのサブ領域にそれぞれ対応する2つの所定のサブ領域を含み、前記第2確定ユニットは、さらに、2つの手検出フレームの中心点がそれぞれ前記2つの所定のサブ領域内にあることを確定する。
本発明によって提供される任意の実施形態と結合して、前記処理待ち画像は、上面からの視角で収集した前記目標領域の画像である。
本発明の第3態様によると、電子デバイスを提供し、前記デバイスは、プロセッサと、プロセッサ上で実行できるコンピュータ命令を記憶するためのメモリと、を備え、前記プロセッサは、前記コンピュータ命令を実行するときに、本発明の任意の実施形態に記載のジェスチャー認識方法が実現される。
本発明の第4態様によると、コンピュータプログラムが記憶されているコンピュータ可読記録媒体を提供し、前記プログラムがプロセッサによって実行されるときに、本発明の任意の実施形態に記載のジェスチャー認識方法が実現される。
本発明の1つまたは複数の実施例のジェスチャー認識方法および装置、電子デバイス、並びに記録媒体によると、手検出結果における手検出フレーム内の手姿勢に対して検出を実行し、手姿勢が目標ジェスチャー中の手姿勢を満たすと確定した上で、さらに、検出位置情報の制約を利用して、目標ジェスチャー認識を実行することによって、1フレームの画像を利用して高速で高精度の目標ジェスチャーの認識を実現することができる。
以下、本明細書の1つまたは複数の実施例または従来技術での技術的解決策をより明確に説明するために、実施例または従来技術に対する叙述で使用する必要がある図面を簡単に紹介する。明らかに、以下で叙述する図面は、本明細書の1つまたは複数の実施例に記載されるいくつかの実施例に過ぎず、当業者にとって創造的な作業なしにこれら図面に基づいて他の図面を得ることができる。
本発明の少なくとも1つの実施例によって提供されるジェスチャー認識方法のフローチャートである。 本発明の少なくとも1つの実施例によって提供されるジェスチャー認識方法の適用シーンの模式図である。 本発明の少なくとも1つの実施例によって提供される手分類結果の模式図である。 本発明の少なくとも1つの実施例によって提供されるジェスチャー認識方法の適用シーンの模式図である。 本発明の少なくとも1つの実施例によって提供されるジェスチャー認識装置の構成の模式図である。 本発明の少なくとも1つの実施例によって提供される電子デバイスの構成の模式図である。
以下、当業者が本明細書の1つまたは複数の実施例での技術的解決策をより良く理解するようにするために、本明細書の1つまたは複数の実施例での図面を参照して、本明細書の1つまたは複数の実施例での技術的解決策を明確かつ完全に叙述する。明らかに、叙述する実施例は、全部の実施例ではなく、本明細書の一部の実施例に過ぎない。本明細書の1つまたは複数の実施例に基づいて、創造的な作業なしに当業者によって得られるすべての他の実施例は、いずれも本発明の保護範囲に属すべきである。
本発明の少なくとも1つの実施例は、ジェスチャー認識方法を提供し、前記ジェスチャー認識方法は、端末デバイスまたはサーバなどの電子デバイスによって実行されることができ、端末デバイスは、ユーザデバイス(User Equipment、UE)、モバイルデバイス、ユーザ端末、端末、セルラー電話、コードレス電話、パーソナルデジタルアシスタント(Personal Digital Assistant、PDA)、ハンドヘルドデバイス、計算デバイス、車載デバイス、ウェアラブルデバイスなどであり得、前記方法は、プロセッサによりメモリに記憶されているコンピュータ可読命令を呼び出す方式によって実現することができる。
図1は、当該ジェスチャー認識方法の流れを示し、図1に示すように、101~104を含み得る。
101において、処理待ち画像に対して検出を実行して手検出結果を得る。
本発明の実施例において、前記処理待ち画像は、画像収集デバイス(たとえばビデオカメラ)によって収集されたデスクトップ領域の画像であり得る。前記画像は、完全なデスクトップ画像を含んでもよいし、デスクトップの一部の画像を含んでもよい。
ビデオカメラによって収集された処理待ち画像は、ビデオストリーム中の1フレームのであってもよいし、リアルタイムで得た画像であってもよく、本発明はこれに対して限定しない。
本発明の実施例において、たとえばfaster RCNNなどの、深層学習ネットワークを利用して、処理待ち画像に対して検出を実行して手検出結果を得ることができる。手が検出された場合、手検出結果は、手検出フレーム、手検出フレームの位置などを含み得る。当業者は、faster RCNNネットワークは1例に過ぎず、その他のネットワークを使用して手検出を実行してもよく、本発明はこれに対して限定しないことを理解すべきである。
102において、手検出結果に手検出フレームが含まれていることに応答して、前記手検出フレーム内の手姿勢が目標ジェスチャー中の手姿勢を満たすと確定する。
いくつかの実施例において、上面からの視角で処理待ち画像を収集することができ、すなわち、バードビューカメラ(Birdview camera)を使用して前記処理待ち画像を収集することができる。デスクトップのような適用シーンの場合、上面からの視角は、好ましい撮影視角であり、当該視角は、一般的に、他の物体によって検出目標が遮られることを回避することができる。しかしながら、当業者は、その他の視角のビデオカメラによって収集された画像も本発明の実施例によって提案されるジェスチャー認識方法に適用されることを理解すべきである。
本発明の実施例において、手検出フレーム内の画像に対して検出を実行して、検出された特徴と目標ジェスチャー中の手姿勢の特徴とを比較することによって、手検出フレーム内の手姿勢が目標ジェスチャーの手姿勢を満たすか否かを確定してもよい。前記手検出フレーム内の手姿勢に対して分類を実行して、分類結果に基づいて目標ジェスチャーの手姿勢を満たすか否かを判断してもよい。具体的な判断方法は、後述する。
103において、前記手が前記処理待ち画像における予め定義された領域内にいることを確定する。
本発明の実施例において、手検出結果に手検出フレームが含まれている場合、手検出結果に手検出フレームの位置情報も含まれており、すなわち、手の前記処理待ち画像における位置情報を確定した。
特定領域に出現する場合にのみ成立される目標ジェスチャーの場合、処理待ち画像において予め定義された領域を利用して手検出フレーム内の手に対して位置制約を提供することによって、検出された手が目標ジェスチャーに対する要求を満たすか否かをさらに確定することができる。ここで、処理待ち画像において予め定義された領域は、処理待ち画像を撮影するビデオカメラの位置、内部パラメータ、および、実際の空間における目標ジェスチャーに対応する特定領域に基づいて確定することができる。
104において、前記手が目標ジェスチャーを取っていることを確定する。
手検出フレーム内の手姿勢が目標ジェスチャー中の手姿勢と満たし、かつ、手が前記処理待ち画像における予め定義された領域内にいる場合、検出フレーム内の手が目標ジェスチャーを取っていると確定する。
本発明の実施例において、手検出結果における手検出フレーム内の手姿勢に対して検出を実行し、手姿勢が目標ジェスチャー中の手姿勢を満たすと確定した上で、さらに、検出位置情報の制約を利用して、目標ジェスチャー認識を実行する。したがって、1フレームの画像を利用して高速で高精度の目標ジェスチャーの認識を実現することができる。
いくつかの実施例において、手が検出された場合、すなわち手検出結果に手検出フレームが含まれている場合、前記処理待ち画像における手検出フレーム内に位置する画像をカッティングし、前記カッティングされた画像に基づいて、前記カッティングされた画像における手姿勢が目標ジェスチャー中の手姿勢手姿勢を満たすと確定することができる。
手検出フレーム内の画像をカッティングし、前記カッティングされた画像に基づいて手姿勢の検出を実行することによって、手姿勢検出の効率と正確度を向上させることができる。
いくつかの実施例において、手検出フレームの中心点を手の位置として確定することができる。当業者は、さらに、手検出フレームの他の位置点を手の位置として確定することができ、たとえば、認識待ち目標ジェスチャーとその中の1つの指との関係がもっと密接である場合、当該指の手検出フレームにおける位置を手の位置として確定することができることを理解すべきである。手の位置の具体的に確定方式は、認識待ち目標ジェスチャーと手検出フレームとの関係に基づいて確定することができる。
いくつかの実施例において、以下の方法によって手検出フレーム内の手姿勢が目標ジェスチャー中の手姿勢手姿勢を満たすと確定することができる。手検出フレーム内の画像を予め訓練された手分類ニューラルネットワークに入力して、手分類結果を得、前記分類結果に基づいて手検出フレーム内の手姿勢が目標ジェスチャー中の手姿勢を満たすか否かを判断する。
採用する手分類ニューラルネットワークは、畳み込み分類モデルであり得、たとえばRsenet 18をバックボーンネットワークの畳み込み分類モデルとして使用することができる。当業者は、採用する手分類ニューラルネットワークは、得る必要がある分類タイプに従って確定することができ、得る必要がある分類タイプは、認識待ちの目標ジェスチャーに応じて確定することができ、本発明は、これに対して限定しないことを理解すべきである。
1例において、認識待ちの目標ジェスチャーが手の正面にのみ関わる場合、得る必要がある分類タイプは、手が正面であるかまたはその他の姿勢であることを含み得、ここで、その他の姿勢は、手が正面以外の手姿勢である状況、および、手が遮られた状況を含む。手が正面であるかおよび/または手がその他の姿勢である画像サンプルを利用して前記手分類ニューラルネットワークを訓練することができ、ラベル情報前記手が正面である画像サンプルのラベル情報は、手のひらである。
1例において、認識待ちの目標ジェスチャーが手の正面と反面に関する場合、得る必要がある分類タイプは、手が正面であること、手が反面であること、および、手がその他の姿勢であることを含み得、ここで、その他の姿勢は、手が正面または反面以外の手姿勢である状況、および、手が遮られた状況を含む。手が正面である画像サンプル、手が反面である画像サンプルおよび、手がその他の姿勢である画像サンプルを利用して前記手分類ニューラルネットワークを訓練することができ、ここで、ラベル情報前記手が正面である画像サンプルのラベル情報は、手のひらであり、前記手が反面である画像サンプルのラベル情報は、反面を表すラベルであり得る。
1例において、認識待ちの目標ジェスチャーが特定の姿勢に関する場合、分類タイプには当該特定姿勢が含まれている必要があり、そうすれば、当該特定姿勢及びその他の姿勢を含むサンプル手画像を利用して前記手分類ニューラルネットワークを訓練することによって、訓練された前記手分類ニューラルネットワークが手検出フレーム内の画像から当該特定姿勢を認識することができるようにする。
当業者は、さらに、その他の方法によって手検出フレーム内の手姿勢が目標ジェスチャー中の手姿勢手姿勢を満たすと確定し、前記手検出フレーム内の手姿勢を利用してジェスチャー検出を実行することができ、本発明の実施例は、これに対して限定しないことを理解すべきである。
以下、認識待ち目標ジェスチャー中で両手がいずれも正面であり、かつ、両手がそれぞれデスクトップの2つの特定サブ領域の上方に位置している例に対して、本発明の実施例によって提案されるジェスチャー認識方法を具体的に説明する。当業者は、当該ジェスチャー認識方法は、上述した目標ジェスチャーを認識することに限定されず、その他の目標ジェスチャーを認識することができることを理解すべきである。
図2は、本発明の少なくとも1つの実施例によって提供されるジェスチャー認識方法の適用シーンの模式図である。図2に示すように、認識待ちの目標ジェスチャーは、デスクトップ20の2つの領域221および222の上方で取った両手の手のひらを上に向けたジェスチャーである。2つの領域221および222は、人21の付近にある。
まず、上面からの視角で撮影したデスクトップ20の一部または全部の領域を含む処理待ち画像に対して検出を実行して、手検出結果を得る。
人21の手が検出された場合、すなわち、手検出結果に手検出フレームが含まれている場合、前記手検出フレーム内の画像を手分類ニューラルネットワークに入力して、手分類結果を得る。前記手分類ニューラルネットワークは、入力画像が手の正面であるかまたはその他の姿勢であるかに対して分類を実行し、得られた手分類結果は、手が正面であることまたは手が他の姿勢であることを含む。2つの手検出フレームの分類結果がいずれも手が正面であることであると、前記手検出フレーム内の手姿勢がいずれも手が正面であるとして確定し、この場合目標ジェスチャー中の手姿勢を満たす。
両手がいずれも正面であると確定した場合、2つの手検出フレームの位置が処理待ち画像の2つの所定のサブ領域内にいるか否かを確定する。ここで、処理待ち画像の2つの所定のサブ領域は、前記処理待ち画像を撮影するビデオカメラの位置、内部パラメータ、および、デスクトップ20上2つの領域221と222の位置に基づいて、確定される。2つの手検出フレームの中心点がそれぞれ前記2つの所定のサブ領域内にいることに応答して、前記手が目標ジェスチャーを取ったと確定する。ここで、2つの所定のサブ領域は、処理待ち画像における、目標領域における2つのサブ領域にそれぞれ対応する領域である。目標領域がゲームテーブルであると、目標領域における2つのサブ領域は、ゲームテーブル上の2つのサブ領域であり得、2つの所定のサブ領域は、処理待ち画像における、ゲームテーブル上の2つのサブ領域にそれぞれ対応する領域であり得る。
1例において、前記手検出フレームに従ってカッティングし得た画像を、前記手分類ニューラルネットワークに入力して、手分類結果を得ることができる。前記処理待ち画像中に複数の手検出フレームが含まれていると、複数のカッティングし得た画像をそれぞれ前記手分類ニューラルネットワークに入力する。
上記の入力画像に対して手が正面であるかまたは手がその他の姿勢であるかの分類を実行するための手分類ニューラルネットワークは、以下の方法によって訓練することができる。
手が正面である画像サンプルおよび手がその他の姿勢である画像サンプルを得、手が正面である画像サンプルに対して、画像サンプルにおける手のひらに対してラベリングを実行する。
図3Aと3Bは、例示的な手が正面である画像サンプルである。正面から手のひらが見える手画像を手が正面である画像サンプルとして使用でき、ラベル情報前記手が正面である画像サンプルのラベル情報は、手のひらである。ここで、図3Aと図3Bで、手のひらにいる白い点は、手が正面である画像サンプルのラベルである。手が正面である画像サンプルは、手のひらでの、点、円、および正方形などの任意の形状であり得、これに対して限定しない。図3C~3Fは、例示的なその他の姿勢の手画像であり、手の反面の手画像または手のひらが遮られた手画像であり、その他の姿勢としてラベリングすることができる。
図3A~図3Fに示した画像サンプルを利用して前記手分類ニューラルネットワークを訓練することができ、訓練が完成されたニューラルネットワークは、手検出フレーム内の画像に対して分類を実行して、手が正面であることまたは手がその他の姿勢であることを含む分類結果を得ることができる。
いくつかの実施例において、さらに、3分類の手分類ニューラルネットワークを利用して手検出フレーム内の画像に対して分類を実行して、手が正面であること、手が反面であること、または、手がその他の姿勢であることを含む分類結果を得ることができる。当該手分類ニューラルネットワークは、手が正面である画像サンプル、手が反面であり画像サンプル、手がその他の姿勢である画像サンプルを利用して訓練を実行することができる。依然として、図3A~3Fを例とすると、ここで、図3Aと3Bは、例示的な手が正面である画像サンプルであり、ラベル情報前記手が正面である画像サンプルのラベル情報は、手のひらである。図3Cと図3Dは、例示的な手が反面である画像サンプルである。手の甲全体と5本の指が見える手画像を手の反面画像として使用し、これに対して反面としてラベリングすることができ、図3Eと図3Fは、例示的な手がその他の姿勢である画像サンプルである。手のひらが見えないし、かつ、手の甲と5本の指が完全に見えない手画像を、手がその他の姿勢である画像サンプルとして使用し、これをその他の姿勢としてラベリングすることができる。図3Eと図3Fは、全体的な姿勢は上向きであるが、手のひらが見えないため、他の姿勢に属する。上記の画像サンプルを利用して前記手分類ニューラルネットワークを訓練することができ、訓練が完成されたニューラルネットワークは、手検出フレーム内の画像に対して分類を実行して、手が正面であること、手が反面であること、または、手がその他の姿勢であることを含む分類結果を得ることができる。
本発明の実施例において、手分類ニューラルネットワークを利用して手検出フレーム内の画像に対して分類を実行することによって、手が正面の姿勢であるか否かを認識し、すなわち手のひらが上向きである姿勢を認識する。このときに採用する手分類ニューラルネットワークは、ビデオ分類ニューラルネットワークと比較すると、訓練サンプルの取得およびとラベリングが容易になり、また、ニューラルネットワークの認識速度が速く、手姿勢に対するリアルタイムな認識を実現することができる。
手分類結果が目標ジェスチャー中の手姿勢を満たす場合、処理待ち画像における予め定義された領域を利用して位置制約を実行することによって、検出された手が目標ジェスチャーを取っていることをさらに確定することができる。
以下、目標ジェスチャーがクルーピアのハンドクリーンジェスチャーである例を挙げて、本発明の実施例によって提案されるジェスチャー認識方法を説明する。
図4は、本発明の少なくとも1つの実施例によって提供されるジェスチャー認識方法の適用シーンの模式図である。図4に示すように、ゲームシーンにおいて、ゲームテーブル40を通じてゲームすることができ、プレーヤー421、422、423は、クルーピア43に対してゲームテーブルの反対の側に位置している。ゲームテーブルの領域は、主に、クルーピアの被交換物品領域47(クルーピアの前方の領域)、プレーヤーの被交換物品領域441、442(プレーヤーの前方の領域)、ゲーム実行領域46、および、予め定義された領域41(ホットゾーンとも呼ばれる)を含む。
クルーピアのハンドクリーンジェスチャーとは、クルーピアが特定の操作を完了した後、または、特徴の操作を実行する前に、両手の手のひらを上に向けて、クルーピアの被交換物品領域(たとえば図4中の被交換物品領域47)の両側に平らに置くことによって、手にいかなる物品も持っていないことを他人に展示し、次のゲームステージに入ることができたことを表すためのジェスチャーを指す。
本発明の実施例において、ゲームテーブル上のクルーピアの前方の被交換物品領域47の両側の2つのサブ領域(たとえば図4中のサブ領域411とサブ領域412)を実際の空間の特定領域(すなわち目標領域の2つのサブ領域)として使用することができる。前記処理待ち画像を撮影するビデオカメラ45の位置、内部パラメータ、および、特定領域(たとえば、サブ領域411とサブ領域412)の位置に基づいて、処理待ち画像における対応する2つの所定のサブ領域を確定して、前記手分類結果に対して位置制約を実行することができる。
ゲームテーブル40の一部または全部の領域を含む処理待ち画像に対して検出を実行して得られた手検出結果に手検出フレームが含まれている場合、前記手検出フレーム内の画像を予め訓練された手分類ニューラルネットワークに入力し、前記手分類ニューラルネットワークは、入力画像に対して手が正面であることまたは手がその他の姿勢であることとの分類を実行することができる。2つの手検出フレームの画像の分類結果がいずれも手が正面であることに応答して、2つの手検出の位置が前記処理待ち画像の2つの所定のサブ領域内にいるか否かをさらに確定することができる。2つの手がそれぞれ前記2つの所定のサブ領域内にいることは、2つの手がそれぞれゲームテーブル40上のホットゾーンに入ったことを表し、そうすれば、検出された手がハンドクリーンジェスチャーを取ったことを確定することができる。
クルーピアのハンドクリーンジェスチャーが確定された後、トリガー信号を発生することによって次の処理の流れに直接入ることができ、たとえば、ユーザによって別途にボタン(ハードウェアトリガー)を利用して監視制御を起動させる必要なしに、ゲーム過程の監視制御を起動することによって、ユーザのエクスペリエンスを改善することができる。また、クルーピアのハンドクリーンジェスチャーを認識することによって、さらに、クルーピアの手にいかなる禁止された物品を持たれているか否かを監視制御することができる。
図5は、本発明の少なくとも1つの実施例によって提供されるジェスチャー認識装置の構成の模式図である。図5に示すように、前記装置は、処理待ち画像に対して検出を実行して手検出結果を得るための取得ユニット501と、手検出結果に手検出フレームが含まれていることに応答して、前記手検出フレーム内の手姿勢が目標ジェスチャー中の手姿勢を満たすと確定するための第1確定ユニット502と、前記手が前記処理待ち画像における予め定義された領域内にいることを確定するための第2確定ユニット503と、前記手が目標ジェスチャーを取っていることを確定するための第3確定ユニット504と、を備える。
いくつかの実施例において、第1確定ユニット502は、具体的に、手検出結果に前記手検出フレームが含まれていることに応答して、前記処理待ち画像における手検出フレーム内に位置する画像をカッティングし、前記カッティングされた画像に基づいて、前記カッティングされた画像における手姿勢が目標ジェスチャー中の手姿勢手姿勢を満たすと確定する。
いくつかの実施例において、前記目標ジェスチャー中の手姿勢は、両手がいずれも正面であり、前記第1確定ユニットは、さらに、前記手検出フレーム内の画像を手分類ニューラルネットワークに入力して、手が正面であることまたは手が他の姿勢であることを含む手分類結果を得、2つの手検出フレームの手分類結果がいずれも正面である場合、前記手検出フレーム内の前記手姿勢が前記目標ジェスチャー中の手姿勢を満たすと確定する。
いくつかの実施例において、前記手分類ニューラルネットワークは、手画像サンプルを使用して訓練して得られたものであり、前記手画像サンプルは、手が正面である画像サンプルを含み、ラベル情報前記手が正面である画像サンプルのラベル情報は、手のひらである。
いくつかの実施例において、第2確定ユニットは、さらに、前記手検出フレームの中心点が前記予め定義された領域内にいることを確定する。
いくつかの実施例において、前記処理待ち画像は、目標領域に対して収集を実行して得られた画像であり、前記予め定義された領域は、前記処理待ち画像における、前記目標領域における2つのサブ領域にそれぞれ対応する2つの所定のサブ領域を含み、第2確定ユニット504は、具体的に、2つの手検出フレームの中心点がそれぞれ前記2つの所定のサブ領域内にあることを確定する。
いくつかの実施例において、前記処理待ち画像は、上面からの視角で収集した前記ゲームテーブル上の画像である。
図6は、本発明の少なくとも1つの実施例によって提供される電子デバイスの構成の模式図である。前記デバイスは、プロセッサ601と、プロセッサによって実行できる命令を記憶するためのメモリ602と、を備え、ここで、前記プロセッサ601は、前記メモリ602に記憶されている命令を呼び出して、少なくとも1つの実施例に記載のジェスチャー認識方法を実行する。前記電子デバイスは、ビデオカメラなどの他のデバイスと通信するためのネットワークインターフェース603と、バス604と、をさらに備え得、プロセッサ601、メモリ602、および、ネットワークインターフェース603は、バス604を介して互いに通信する。
本発明は、コンピュータプログラムが記憶されている、不揮発性のコンピュータ可読記録媒体をさらに提供し、前記コンピュータプログラムがプロセッサによって実行されるときに、プロセッサが少なくとも1つの実施例に記載のジェスチャー認識方法を実現するようにする。
当業者は、本発明の1つまたは複数の実施例は、方法、システム、または、コンピュータプログラム製品として提供することができることを了解すべきである。したがって、本発明の1つまたは複数の実施例は、完全なハードウェアの実施例、完全なソフトウェアの実施例、または、ソフトウェアとハードウェアを組み合わせる実施例の形態を使用することができる。また、本発明の1つまたは複数の実施例は、コンピュータ利用可能なプログラムコードを含む1つまたは複数のコンピュータ利用可能な記録媒体(ディスクメモリ、CD-ROM、光学メモリなどを含むが、これらに限定されない)上で実施されるコンピュータプログラム製品の形態を使用することができる。
本明細書中の「および/または」は、両者の中の1つを少なくとも有することを意味し、たとえば、「Aおよび/またはB」は、A、B、および、「AとB」のような3種類のケースを含む。
本発明の各実施例は、いずれも、漸進的な方式を使用して叙述され、各実施例同士の間の同一または類似な部分は互いに参照することができ、各々の実施例では他の実施例との異なるところに焦点を合わせて説明した。特に、ジェスチャー認識デバイスの実施例の場合、基本的に方法の実施例と類似であるため、相対的に簡単に叙述したが、関連するところは方法の実施例の部分の説明を参照すればよい。
上記で本発明の特定の実施例を叙述した。他の実施例は、添付する「特許請求の範囲」の範囲内にいる。いくつかの場合、特許請求の範囲に記載の行為またはステップは、実施例と異なる順序に従って実行されることができ、このときにも依然として期待する結果が実現されることができる。また、図面で描かれた過程は、期待する結果するために、必ずとしても、示された特定の順序または連続的な順序を必要としない。いくつかの実施形態において、マルチタスク処理および並列処理も可能であるか、または、有利であり得る。
本発明の主題および機能操作の実施例は、デジタル電子回路、有形コンピュータソフトウェアまたはファームウェア、本発明に開示される構成およびその構造的同等物を含むコンピュータハードウェア、または、それらの1つまたは複数の組み合わせで、実現されることができる。本発明の主題の実施例は、1つまたは複数のコンピュータプログラムとして実現されることができ、すなわち、有形の非一時的プログラムキャリア上に符号化されて、データ処理装置によって実行されるか、または、データ処理装置の操作を制御するための、コンピュータプログラム命令中の1つまたは複数のモジュールとして実現されることができる。代替的または追加的に、プログラム命令は、手動で生成される伝播信号上に符号化されることができ、例えば、機械によって生成される電気的、光学的、または電磁的信号に符号化されることができる。当該信号は、情報を符号化して適切な受信機装置に伝送して、データ処理装置によって実行されるようにするために、生成される。コンピュータ記録媒体は、機械可読記憶デバイス、機械可読記憶基板、ランダムにまたはシリアルアクセスメモリデバイス、または、それらの1つまたは複数の組み合わせであり得る。
本発明の処理と論理フローは、1つまたは複数のコンピュータプログラムを実行する1つまたは複数のプログラム可能なコンピュータによって実行されることができ、入力データに基づいて操作を実行して出力を生成することによって該当する機能を実行する。前記処理と論理フローは、さらに、例えば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(専用集積回路)などの専用論理回路によって実行されることができ、また、装置も専用論理回路として実現されることができる。
コンピュータプログラムの実行に適したコンピュータは、例えば、汎用、および/または、専用マイクロプロセッサ、または、いかなる他の種類の中央処理ユニットを含む。一般的に、中央処理ユニットは、読み取り専用メモリ、および/または、ランダムアクセスメモリから、命令とデータを受信することになる。コンピュータの基本コンポーネントは、命令を実施または実行するための中央処理ユニット、および、命令とデータを記憶するための1つまたは複数のメモリデバイスを含む。一般的に、コンピュータは、磁気ディスク、磁気光学ディスク、または、光ディスクなどの、データを記憶するための1つまたは複数の大容量記憶デバイスをさらに含むか、または、操作可能に当該大容量記憶デバイスと結合されてデータを受信するかまたはデータを伝送するか、または、その両方を兼有する。しかしながら、コンピュータは、必ずとして、このようなデバイスを有するわけではない。なお、コンピュータは、もう1デバイスに埋め込まれることができ、例えば、携帯電話、パーソナルデジタルアシスタント(PDA)、モバイルオーディオまたはビデオおプレーヤー、ゲームコンソール、グローバルポジショニングシステム(GPS)レジーバー、または、汎用シリアルバス(USB)フラッシュドライブなどのポータブル記憶デバイスに埋め込まれることができ、これらデバイスはいくつかの例に過ぎない。
コンピュータプログラム命令とデータの記憶に適したコンピュータ可読媒体は、すべての形態の不揮発性メモリ、媒介、および、メモリデバイスを含み、例えば、半導体メモリデバイス(例えば、EPROM、EEPROM、および、フラッシュデバイス)、磁気ディスク(例えば、内部ハードディスクまたは移動可能ディスク)、磁気光学ディスク、および、CD ROM、および、DVD-ROMディスクを含む。プロセッサとメモリは、専用論理回路によって補完されるかまたは専用論理回路に組み込まれることができる。
本発明は、多くの具体的な実施の細部を含むが、これらを本発明の範囲または保護しようとする範囲を限定するものとして解釈すべきではなく、主に本発明のいくつかの実施例の特徴を叙述するために使用される。本発明の複数の実施例中の特定の特徴は、単一の実施例に組み合わせて実施されることもできる。他方、単一の実施例中の各種の特徴は、複数の実施例で別々に実施されるかまたはいかなる適切なサブ組み合わせで実施されることもできる。なお、特徴が上記のように特定の組み合わせで役割を果たし、また最初からこのように保護すると主張したが、保護すると主張した組み合わせからの1つまたは複数の特徴は、場合によって当該組み合わせから除外されることができ、また保護すると主張した組み合わせはサブ組み合わせまたはサブ組み合わせの変形に向けることができる。
類似的に、図面で特定の順序に従って操作を描いたが、これはこれら操作を示した特定の順序にしたがって実行するように要求するかまたは順次に実行するように要求するか、または、例示したすべての操作が実行されることによって期待する結果が実現されると要求することであると理解すべきではない。場合によっては、マルチタスクおよび並列処理が有利である可能性がある。なお、上記の実施例中の各種のシステムモジュールとコンポーネントの分離は、すべての実施例でいずれもこのように分離されなければならないと理解すべきではないし、また、叙述したプログラムコンポーネントとシステムは、一般的に、一緒に単一のソフトウェア製品に統合されるか、または、複数のソフトウェア製品にパッケージされることができることを理解すべきである。
上記は、本明細書の1つまたは複数の実施例のより好ましい実施例に過ぎず、本明細書の1つまたは複数の実施例を限定するために使用されるものではない。本明細書の1つまたは複数の実施例の精神と原則の範囲内で行われたいかなる修正、同等の置換、改良などは、いずれも、本明細書の1つまたは複数の実施例が保護する範囲に含まれるべきである。

Claims (16)

  1. ジェスチャー認識方法であって、
    処理待ち画像に対して検出を実行して手検出結果を得ることと、
    手検出結果に手検出フレームが含まれていることに応答して、前記手検出フレーム内の手姿勢が目標ジェスチャー中の手姿勢を満たすと確定することと、
    前記手が前記処理待ち画像における予め定義された領域内にいることを確定することと、
    前記手が目標ジェスチャーを取っていることを確定することと、を含む
    ことを特徴とするジェスチャー認識方法。
  2. 前記手検出フレーム内の前記手姿勢が前記目標ジェスチャー中の前記手姿勢を満たすと確定することは手検出結果に前記手検出フレームが含まれていることに応答して、前記手検出フレーム内の前記手姿勢が前記目標ジェスチャー中の手姿勢を満たすと確定することは、
    手検出結果に前記手検出フレームが含まれていることに応答して、前記処理待ち画像における手検出フレーム内に位置する画像をカッティングすることと、
    前記カッティングされた画像に基づいて、前記カッティングされた画像における手姿勢が目標ジェスチャー中の手姿勢手姿勢を満たすと確定することと、を含む
    ことを特徴とする請求項1に記載のジェスチャー認識方法。
  3. 前記目標ジェスチャー中の手姿勢は、両手がいずれも正面であり、
    前記手検出フレーム内の前記手姿勢が前記目標ジェスチャー中の前記手姿勢を満たすと確定することは、
    前記手検出フレーム内の画像を手分類ニューラルネットワークに入力して、手が正面であることまたは手が他の姿勢であることを含む手分類結果を得ることと、
    2つの手検出フレームの手分類結果がいずれも正面である場合、前記手検出フレーム内の前記手姿勢が前記目標ジェスチャー中の手姿勢を満たすと確定することと、を含む
    ことを特徴とする請求項1または2に記載のジェスチャー認識方法。
  4. 前記手分類ニューラルネットワークは、手画像サンプルを使用して訓練して得られたものであり、前記手画像サンプルは、手が正面である画像サンプルを含み、ラベル情報前記手が正面である画像サンプルのラベル情報は、手のひらである
    ことを特徴とする請求項3に記載のジェスチャー認識方法。
  5. 前記手が前記処理待ち画像における前記予め定義された領域内にいることを確定することは、
    前記手検出フレームの中心点が前記予め定義された領域内にいることを確定することを含む
    ことを特徴とする請求項1乃至4の中のいずれか1項に記載のジェスチャー認識方法。
  6. 前記処理待ち画像は、目標領域に対して収集を実行して得られた画像であり、前記予め定義された領域は、前記処理待ち画像における、前記目標領域における2つのサブ領域にそれぞれ対応する2つの所定のサブ領域を含み、
    それぞれ前記2つの所定のサブ領域内前記手検出フレームの前記中心点が前記予め定義された領域内にいることを確定することは、2つの手検出フレームの中心点がそれぞれ前記2つの所定のサブ領域内にあることを確定することを含む
    ことを特徴とする請求項5に記載のジェスチャー認識方法。
  7. 前記処理待ち画像は、上面からの視角で収集した前記目標領域の画像である
    ことを特徴とする請求項6に記載のジェスチャー認識方法。
  8. ジェスチャー認識装置であって、
    処理待ち画像に対して検出を実行して手検出結果を得るための取得ユニットと、
    手検出結果に手検出フレームが含まれていることに応答して、前記手検出フレーム内の手姿勢が目標ジェスチャー中の手姿勢を満たすと確定するための第1確定ユニットと、
    前記手が前記処理待ち画像における予め定義された領域内にいることを確定するための第2確定ユニットと、
    前記手が目標ジェスチャーを取っていることを確定するための第3確定ユニットと、を備える
    ことを特徴とするジェスチャー認識装置。
  9. 前記第1確定ユニットは、具体的に、手検出結果に前記手検出フレームが含まれていることに応答して、前記処理待ち画像における手検出フレーム内に位置する画像をカッティングし、
    前記カッティングされた画像に基づいて、前記カッティングされた画像における手姿勢が目標ジェスチャー中の手姿勢手姿勢を満たすと確定する
    ことを特徴とする請求項8に記載のジェスチャー認識装置。
  10. 前記目標ジェスチャー中の手姿勢は、両手がいずれも正面であり、
    前記第1確定ユニットは、さらに、
    前記手検出フレーム内の画像を手分類ニューラルネットワークに入力して、手が正面であることまたは手が他の姿勢であることを含む手分類結果を得、
    2つの手検出フレームの手分類結果がいずれも正面である場合、前記手検出フレーム内の前記手姿勢が前記目標ジェスチャー中の手姿勢を満たすと確定する
    ことを特徴とする請求項8または9に記載のジェスチャー認識装置。
  11. 前記手分類ニューラルネットワークは、手画像サンプルを使用して訓練して得られたものであり、前記手画像サンプルは、手が正面である画像サンプルを含み、ラベル情報前記手が正面である画像サンプルのラベル情報は、手のひらである
    ことを特徴とする請求項10に記載のジェスチャー認識装置。
  12. 前記第2確定ユニットは、さらに、
    前記手検出フレームの中心点が前記予め定義された領域内にいることを確定する
    ことを特徴とする請求項8乃至11の中のいずれか1項に記載のジェスチャー認識装置。
  13. 前記処理待ち画像は、目標領域に対して収集を実行して得られた画像であり、前記予め定義された領域は、前記処理待ち画像における、前記目標領域における2つのサブ領域にそれぞれ対応する2つの所定のサブ領域を含み、
    前記第2確定ユニットは、さらに、
    2つの手検出フレームの中心点がそれぞれ前記2つの所定のサブ領域内にあることを確定する
    ことを特徴とする請求項12に記載のジェスチャー認識装置。
  14. 前記処理待ち画像は、上面からの視角で収集した前記目標領域の画像である
    ことを特徴とする請求項13に記載のジェスチャー認識装置。
  15. 電子デバイスであって、
    前記デバイスは、プロセッサと、プロセッサ上で実行できるコンピュータ命令を記憶するためのメモリと、を備え、前記プロセッサは、前記コンピュータ命令を実行するときに、請求項1乃至7の中のいずれか1項に記載の方法を実行する
    ことを特徴とする電子デバイス。
  16. コンピュータプログラムが記憶されている不揮発性コンピュータ可読記録媒体であって、
    前記プログラムがプロセッサによって実行されるときに、前期プロセッサが請求項1乃至7の中のいずれか1項に記載の方法を実行するようにする
    ことを特徴とする不揮発性コンピュータ可読記録媒体。
JP2021518866A 2019-12-23 2020-03-13 ジェスチャー認識方法および装置、電子デバイス、並びに記録媒体 Ceased JP2022519411A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SG10201912990QA SG10201912990QA (en) 2019-12-23 2019-12-23 Gesture Recognition Method And Apparatus, Electronic Device, And Storage Medium
SG10201912990Q 2019-12-23
PCT/IB2020/052291 WO2021130548A1 (en) 2019-12-23 2020-03-13 Gesture recognition method and apparatus, electronic device, and storage medium

Publications (1)

Publication Number Publication Date
JP2022519411A true JP2022519411A (ja) 2022-03-24

Family

ID=73698217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021518866A Ceased JP2022519411A (ja) 2019-12-23 2020-03-13 ジェスチャー認識方法および装置、電子デバイス、並びに記録媒体

Country Status (6)

Country Link
US (1) US11307668B2 (ja)
JP (1) JP2022519411A (ja)
KR (1) KR20210084444A (ja)
AU (1) AU2020294217B2 (ja)
SG (1) SG10201912990QA (ja)
WO (1) WO2021130548A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10474988B2 (en) 2017-08-07 2019-11-12 Standard Cognition, Corp. Predicting inventory events using foreground/background processing
CA3177772A1 (en) * 2020-05-08 2021-11-11 Standard Cognition, Corp. Systems and methods for detecting proximity events
CN113486761B (zh) * 2021-06-30 2024-08-13 北京市商汤科技开发有限公司 一种指甲识别方法、装置、设备及存储介质
CN113946216A (zh) * 2021-10-18 2022-01-18 阿里云计算有限公司 人机交互方法、智能设备、存储介质及程序产品
CN114333056B (zh) * 2021-12-29 2024-09-17 北京淳中科技股份有限公司 一种手势控制的方法、系统、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011007390A1 (ja) * 2009-07-15 2011-01-20 株式会社 東芝 画像処理装置、及びインターフェース装置
JP2017027456A (ja) * 2015-07-24 2017-02-02 島根県 ジェスチャ操作システム、方法およびプログラム
CN108549489A (zh) * 2018-04-27 2018-09-18 哈尔滨拓博科技有限公司 一种基于手部形态、姿态、位置及运动特征的手势控制方法和系统

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9164589B2 (en) * 2011-11-01 2015-10-20 Intel Corporation Dynamic gesture based short-range human-machine interaction
JP6207240B2 (ja) 2013-06-05 2017-10-04 キヤノン株式会社 情報処理装置及びその制御方法
US10268983B2 (en) 2013-06-26 2019-04-23 Amazon Technologies, Inc. Detecting item interaction and movement
US9129191B2 (en) * 2013-12-16 2015-09-08 Adobe Systems Incorporated Semantic object selection
AU2014200314A1 (en) 2014-01-17 2015-08-06 Angel Playing Cards Co. Ltd. Card game monitoring system
US9251598B2 (en) 2014-04-10 2016-02-02 GM Global Technology Operations LLC Vision-based multi-camera factory monitoring with dynamic integrity scoring
CN107427718B (zh) * 2014-10-16 2021-01-12 Arb实验室公司 用于监视游戏活动的系统、方法和设备
CN105975906B (zh) * 2016-04-27 2018-01-30 济南大学 一种基于面积特征的pca静态手势识别方法
US11030442B1 (en) * 2017-12-13 2021-06-08 Amazon Technologies, Inc. Associating events with actors based on digital imagery
US10296102B1 (en) * 2018-01-31 2019-05-21 Piccolo Labs Inc. Gesture and motion recognition using skeleton tracking
AU2019203350B2 (en) * 2018-05-14 2021-04-29 Angel Group Co., Ltd. Table game management system and game management system
CN109002811B (zh) * 2018-08-07 2021-07-13 北醒(北京)光子科技有限公司 一种静态手势的识别方法及装置
CN109190559A (zh) 2018-08-31 2019-01-11 深圳先进技术研究院 一种手势识别方法、手势识别装置及电子设备
CN110276292B (zh) * 2019-06-19 2021-09-10 上海商汤智能科技有限公司 智能车运动控制方法及装置、设备和存储介质
US11205319B2 (en) * 2019-06-21 2021-12-21 Sg Gaming, Inc. System and method for synthetic image training of a neural network associated with a casino table game monitoring system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011007390A1 (ja) * 2009-07-15 2011-01-20 株式会社 東芝 画像処理装置、及びインターフェース装置
JP2017027456A (ja) * 2015-07-24 2017-02-02 島根県 ジェスチャ操作システム、方法およびプログラム
CN108549489A (zh) * 2018-04-27 2018-09-18 哈尔滨拓博科技有限公司 一种基于手部形态、姿态、位置及运动特征的手势控制方法和系统

Also Published As

Publication number Publication date
WO2021130548A1 (en) 2021-07-01
US20210191519A1 (en) 2021-06-24
SG10201912990QA (en) 2020-11-27
AU2020294217B2 (en) 2021-11-25
AU2020294217A1 (en) 2021-07-08
KR20210084444A (ko) 2021-07-07
US11307668B2 (en) 2022-04-19

Similar Documents

Publication Publication Date Title
JP2022519411A (ja) ジェスチャー認識方法および装置、電子デバイス、並びに記録媒体
CN106295566B (zh) 人脸表情识别方法及装置
CN114303120A (zh) 虚拟键盘
EP3467707A1 (en) System and method for deep learning based hand gesture recognition in first person view
CN108062526A (zh) 一种人体姿态估计方法及移动终端
US8958631B2 (en) System and method for automatically defining and identifying a gesture
KR102338835B1 (ko) 증강 및/또는 가상 현실 환경에서의 세션 종료 검출
US9477887B2 (en) Apparatus and method for analyzing trajectory
US11782514B2 (en) Wearable device and control method thereof, gesture recognition method, and control system
JP6323202B2 (ja) 映像を取得するシステム、方法及びプログラム
CN109145809B (zh) 一种记谱处理方法和装置以及计算机可读存储介质
CN112166435B (zh) 目标跟踪方法、装置、电子设备及存储介质
WO2017047182A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20160285929A1 (en) Facilitating dynamic and seamless transitioning into online meetings
CN108096833B (zh) 基于级联神经网络的体感游戏控制方法及装置、计算设备
TW201407420A (zh) 改善之視訊追蹤
US20150123901A1 (en) Gesture disambiguation using orientation information
JP2007257088A (ja) ロボット装置及びそのコミュニケーション方法
JP7212154B2 (ja) 目標追跡方法、装置、電子デバイス、及び記録媒体
Zhang et al. ReflecTouch: Detecting grasp posture of smartphone using corneal reflection images
CN112262393A (zh) 手势识别方法和装置、电子设备及存储介质
WO2023273227A1 (zh) 指甲识别方法、装置、设备及存储介质
CN109379533A (zh) 一种拍照方法、拍照装置及终端设备
US11054941B2 (en) Information processing system, information processing method, and program for correcting operation direction and operation amount
JP6523509B1 (ja) ゲームプログラム、方法、および情報処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210406

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220629

A603 Late request for extension of time limit during examination

Free format text: JAPANESE INTERMEDIATE CODE: A603

Effective date: 20221124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221128

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20230721