JP6608465B2 - ジェスチャーの検知識別の方法及びシステム - Google Patents

ジェスチャーの検知識別の方法及びシステム Download PDF

Info

Publication number
JP6608465B2
JP6608465B2 JP2017567753A JP2017567753A JP6608465B2 JP 6608465 B2 JP6608465 B2 JP 6608465B2 JP 2017567753 A JP2017567753 A JP 2017567753A JP 2017567753 A JP2017567753 A JP 2017567753A JP 6608465 B2 JP6608465 B2 JP 6608465B2
Authority
JP
Japan
Prior art keywords
gesture
detection
target
skin color
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017567753A
Other languages
English (en)
Other versions
JP2018524726A (ja
Inventor
ジャン、ホンシン
Original Assignee
ユウトウ・テクノロジー(ハンジョウ)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユウトウ・テクノロジー(ハンジョウ)・カンパニー・リミテッド filed Critical ユウトウ・テクノロジー(ハンジョウ)・カンパニー・リミテッド
Publication of JP2018524726A publication Critical patent/JP2018524726A/ja
Application granted granted Critical
Publication of JP6608465B2 publication Critical patent/JP6608465B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Image Analysis (AREA)

Description

本発明は、人間とロボットのインタラクションの分野に関し、特にロボットのシステムに基づいたジェスチャーの検知識別の方法及びシステムに関する。
コンピュータ技術の発展に従って、コンピュータの処理技術はますます強くなり、従来の人間とロボットのインタラクション技術では、ますます人々の需要を満足させることができず、人々はいっそう自然で知能的でインタラクティブな方式を求めるようになった。ジェスチャーの検知及び状態の識別技術において、通常は2Dや3D技術が多く採用される。手は弾性物体であるため、同じジェスチャーでも大きな違いが生じる。また、異なったジェスチャーでも似ている場合が有り、異なった人のそれぞれのジェスチャーでも相違が生じる。なお且つ、ジェスチャーは大きい冗長情報を有し、無意識状況で人は数多くのジェスチャーをしてしまうため、識別技術の演算能力と識別の正確度が厳しく求められる。しかし、既存の識別技術では、ジェスチャーの多くの変化を迅速に識別できず、識別の正確率が低く、リアルタイム性が弱く、且つ、光線に対し比較的敏感であり、強度や方向の異なる光(例えば偏光や補償のない光源の場合)によって変わった影響が生じ、識別の正確性に直接的な影響を及ぼす。複雑な背景条件で関心のあるハンドエリアターゲットを抽出することができない。
既存の識別技術の上記の問題点に対して、この発明は、偏光又は補償のない光源の場合に、迅速にジェスチャーの変化を識別できるジェスチャーの検知識別の方法及びシステムを提供する。
本発明の具体的な技術案は以下の通りであり、すなわち、
ジェスチャーの検知識別方法は、以下のステップを含み、すなわち、
A1.画像を収集して、記憶するステップ、
A2.予め設定された異なるジェスチャーを検知できる複数の分類器を採用して、予め設定した順序に従い、フレームおきに交替する方法に基づき、各フレーム毎に対して画像検知を行い、ジェスチャーターゲットを取得するステップ、
A3.前記ジェスチャーターゲットのエリアの画素分布に基づき、肌色のモデルを作るステップ、
A4.肌色のモデルに基づき、前記ジェスチャーターゲットの前後の2つの状態のジェスチャー頻度を取得し、前記ジェスチャー頻度を予め設定したジェスチャー状態をマッチングさせることにより、ジェスチャー転換の状態を取得して出力するステップ。
好ましくは、前記A2ステップを実行する前に、前記画像に対し、事前処理を行う。
好ましくは、各前記分類器は、予め設定したスライディングウインドウを通して、前記画像に対し、マルチスケールの目標の検知を行うことによって、前記ジェスチャーターゲットを取得する。
好ましくは、前記ジェスチャーターゲットを取得してから、前記ウインドウを4倍拡大し、前記ジェスチャーターゲットに対して検知を行う。
好ましくは、前記分類器はカスケード分類器を使用する。
本発明のジェスチャーの検知識別システムは、以下部材を含み、すなわち、
画像採集に用いられる採集ユニットと、
前記採集ユニットに連接し、前記画像を記憶する記憶ユニットと、
それぞれ前記記憶ユニットに連接して、予め設定した順序に基づき、フレームごとの交替する方法を採用し、各フレームの前記画像に対し検知することにより、ジェスチャーターゲットを取得する異なるジェスチャーの検知に用いる複数の分類器と、
前記記憶ユニットに連接し、前記ジェスチャーターゲットのエリアの画素分布に基づき、肌色のモデルを作るのに用いられる肌色モデリングユニットと、
それぞれ複数の前記分類器と前記肌色モデリングユニットとに連接し、肌色モデルに基づき、前記ジェスチャーターゲットの前後の2つの状態のジェスチャー頻度を取得し、前記ジェスチャー頻度を予め設定したジェスチャー状態とマッチングさせることにより、ジェスチャー転換の状態を取得して出力する意思決定ユニットと
を含む。
前記採集ユニットはビデオカメラを採用する。
前記分類器はカスケード分類器を採用する。
前記分類器は、予め設定したスライディングウインドウを通して、前記画像に対し、マルチスケールの目標の検知を行い、前記ジェスチャーターゲットを取得する。
前記分類器は、ジェスチャーターゲットを取得した後、前記ウインドウを4倍拡大し、前記ジェスチャーターゲットを検知する。
本技術案の有益効果
本技術案では、ジェスチャーの検知識別の方法は検出されたジェスチャーターゲットのエリアで、画素分布に基づき、リアルタイムに肌色モデリングを行い、特定シーンでの肌色の抽出を実現し、又、光が激変した後発生じた影響を徐々に除去することができ、したがって、ジェスチャー転換状態を抽出する目的が実現できる。ジェスチャー検知識別システムは、光、撮影角度、サイズ、肌色の違いのジェスチャーを検知することができ、かつ識別の正確率が90%以上に達することができ、精度が高い。
図1は、本発明のジェスチャー検知識別システムの実施例のブロック図である。 図2は、拳-掌と掌-拳のジェスチャー頻度変化についての曲線図である。 図3は、ジェスチャー音楽制御システムの原理図である。
以下、本発明の実施例の図面を参照して、本発明の実施例の技術案を明確に、具体的に説明する。明らかに、以下の説明された実施例は、本発明の一実施例であり、全ての実施例ではない。本発明の実施例に基づき、当業者が創造性を持つ労働をしないで獲得した他のすべての実施例は、本発明の保護範囲に含まれる。
説明において、衝突のない場合、本発明の実施例及び実施例の特徴は、お互いに組み合わせることができる。
以下、図面と具体的な実施例により本発明を詳しく説明するが、以下の説明は本発明に対しての限定ではない。
ジェスチャーの検知識別方法は、以下のステップを含み、すなわち、
A1.画像を収集して、記憶するステップ、
A2.予め設定された異なるジェスチャーを検知できる複数の分類器を採用して、予め設定した順序に従い、フレームおきに交替する方法に基づき、各フレームの画像を検知することにより、ジェスチャーターゲットを取得するステップ、
A3.前記ジェスチャーターゲットのエリアの画素分布に基づき、肌色のモデルを作るステップ、
A4.肌の色のモデルに基づき、前記ジェスチャーターゲットの前後の二つの状態のジェスチャー頻度を取得し、ジェスチャー頻度を予め設定したジェスチャー状態とマッチングさせることにより、ジェスチャー転換の状態を取得して出力するステップ。
本実施例では、ジェスチャーの検知識別の方法は、検出されたジェスチャーターゲットのエリアで、画素分布に基づき、リアルタイムに肌の色のモデリングを行うことにより、特定シーンでの肌色の抽出を実現でき、又、光が激変した後生じたその影響を徐々に除去することができ、したがって、ジェスチャー転換状態を抽出する目的が実現できる。ジェスチャーの検知識別の方法は、ロボットシステムに適用できる。ロボットは、偏光又は無補償光源を含む様々な照明状況で、視野内における任意の位置に出た様々なジェスチャーを採集し、リアルタイムにジェスチャー転換状態を獲得できる。
肌色モデルを作る過程では、検知されたジェスチャーターゲットのエリアの画像の色彩スペースをYUV(YUVとは、ヨーロッパテレビシステムで採用された1つの色の編集コード(PALに属する)であり、PAL(パル制)とSECAM(セコム制)アナログカラーテレビ方式で使われる色のスペースである)スペースに転換することができ、Y分量を取り除くことにより光の照射による影響を除去する。このエリアでの肌色画素はガウス分布であるため、このエリアのUV値の平均値と分散値により、全体肌色の平均分散値を更新することで、リアルタイムに肌色モデルを作り、背景を取り除き、正確率を高める。
好ましい実施例では、A2ステップを実行する前に、画像に対し前処理を行う。
本実施例の前処理は、ヒストグラムの均等化の方法を使用できる。累積関数を使うことによりグレースケール値を「調整」して、コントラストを上げることにより、光の照射の影響を除去し、画素のグレースケール値のダイナミックレンジが増えることにより、画像全体のコントラストを向上させる。
好ましい実施例では、各分類器は、予め設定したスライディングウインドウを通して、画像に対してマルチスケールのターゲットの検知を行い、ジェスチャーターゲットを取得する。
分類器は、Adaboost演算方式を採用し訓練を行う。Adaboostは反復アルゴリズムである。主に、1つの訓練グループに対し、複数の違う弱分類器(Weak Classifier)に訓練させる。又、これらの弱分類器を組み合わせて強分類器に組み立てる。分類器は、毎回の訓練グループでの各見本の分類が正しいかどうか及び前回の全体分類の正確率により、各見本の重みを確定し、下の分類器はこれらの新しい重みのデータセットに基づき訓練を行う。最後に得たカスケード分類器は毎回訓練で得られた分類器の加重組み合わせである。
更に、分類器はLBP特徴(Local Binary Pattern、本地二進制模式)を採用して訓練を行う。LBP特徴は、画像の局所テクスチャ特徴を説明する演算子で、回転不変量とグレースケール不変量などとしてのメリットがある。
本実施例では、サイズが訓練画像と同じスライディングウインドウを使用して、画像に対してマルチスケールターゲット検知を実行する。
好ましい実施例では、ジェスチャーターゲットを獲得した後、ウインドウを4倍拡大して、ジェスチャーターゲットを検知する。
各フレーム画像の間で、手の動きによる距離の変化が大きくないため、スピードを向上させるため、ジェスチャーターゲットが検知されるたびに、検知ウインドウを拡大することにより、次のフレームのジェスチャーターゲットの存在位置を事前に判断でき、次のフレームの入力画像は、このウインドウ画像部分のみ取り出すことにより、検知速度を向上させる。
更に、元ウインドウの長さと幅をそれぞれ2倍拡大できる。
好ましい実施例では、分類器はカスケード分類器を採用する。
本実施例では、カスケード分類器を採用することにより、光、撮影角度、サイズ、肌色の違うジェスチャー等を検出でき、識別の正確率は90%以上に達し、その精度は高い。
図1に示したように、ジェスチャー検知識別システムは、以下の部品を含み、すなわち、
画像の採集に用いられる採集ユニット1と、
採集ユニット1に連接し、画像の記憶に用いられる記憶ユニット2と、
それぞれ記憶ユニット2に連接し、予め設定した順序に基づき、フレームごとに交替する方法を採用し、各フレームの上記画像に対し検知し、ジェスチャーターゲットの取得する、異なるジェスチャーの検知に用いる複数の分類器3と、
記憶ユニット2に連接し、ジェスチャーターゲットのエリアの画素分布に基づき、肌色のモデルを作る肌色モデリングユニット4と、
それぞれ複数の分類器3と肌色モデリングユニット4とに連接し、肌色モデルに基づき、ジェスチャーターゲットの前後の2つの状態のジェスチャー頻度を取得し、ジェスチャー頻度を予め設定したジェスチャー状態とマッチングさせ、ジェスチャー転換の状態を取得して出力する意思決定ユニット5と、を含む。
本実施例では、ジェスチャー検知識別システムの分類器3は、光、撮影角度、サイズ、肌色が違うジェスチャー等を検知識別でき、識別正確率は90%以上に達し、その正確度は高い。
肌色モデリングユニット4は、検知されたジェスチャーターゲットのエリアにより、画素分布に基づき、リアルタイムに肌色のモデリングを行うことができ、特定シーンでの肌色の抽出を実現し、又、光が激変した後生じたその影響を徐々に除去することができる。肌色モデリングユニット4は、検出されたジェスチャーターゲットのエリアの画像の色彩スペースをYUVスペースに転換させることができ、Y分量を取り除くことにより光の影響を除去する。このエリアでの肌色画素がガウス分布になるため、算出したこのエリアのUV値の平均値と分散値により、全体肌色の平均分散値を更新することで、リアルタイムに肌色モデルを作り、背景を取り除き、正確率を高める。
好ましい実施例では、採集ユニット1はビデオカメラを採用する。
更に、ビデオカメラは採集速度が30フレーム/秒のHDカメラを採用できる。
好ましい実施例では、分類器3はカスケード分類器を採用する。
本実施例では、カスケード分類器3を採用することにより、光、撮影角度、サイズ、肌色が違うジェスチャー等を検知でき、識別の正確率は90%以上に達し、その精度は高い。
好ましい実施例の中で、分類器3はみんな予め設定したスライディングウインドウを通して、画像に対してマルチスケールのターゲットの検知を行うことにより、ジェスチャーターゲットを取得する。
分類器3は、Adaboost演算方法を採用し訓練を行った。Adaboostは反復アルゴリズムであり、主に、1つの訓練グループを複数の違う弱分類器(Weak Classifier)に訓練する。又、これらの弱分類器を組み合わせて強分類器に組み立てる。分類器は、毎回の訓練グループでの各見本の分類が正しいかどうか及び前回の全体分類の正確率により、各見本の重みを確定し、下の分類器はこれらの新しい重みのデータセットに基づき訓練を行う。最後に獲得したカスケード分類器は、毎回訓練で得られた分類器の加重組み合わせである。
更に、分類機3はLBP特徴(Local Binary Pattern、本地二進制模式)を採用して訓練を行う。LBP特徴は画像の局所テクスチャ特徴の演算子の説明に用いられ、回転不変量とグレースケール不変量などのメリットがある。
本実施例では、サイズが訓練画像と同じスライディングウインドウを使用して、画像に対してマルチスケールターゲット検知を実行する。
好ましい実施例では、分類器3は、ジェスチャーターゲットを獲得した後、ウインドウを4倍拡大し、ジェスチャーターゲットを検知する。
各フレーム画像の間で手の動きの変化の距離が大きくないため、スピードを向上させるには、ジェスチャーターゲットが検知される度に、検知ウインドウを拡大することで、次のフレームのジェスチャーターゲットの位置を事前に判断でき、次のフレーム入力画像はこのウインドウ画像部分のみ取り出すことにより、検知速度を向上させる。
更に、元ウインドウの長さと幅をそれぞれ2倍拡大できる。
異なるジェスチャーに対し、それに対応する分類器を訓練できる。特定の拳-掌により、対応する拳の分類器と掌の分類器を訓練したことを例にして、ジェスチャー検知識別を実施する。計算速度を高めるため、フレームおきに交替する方法を採用して、異なる分類器を使う方法でジェスチャー検知を実行する。実際の生活では、ジェスチャーは一定の時間内には不変であるため、あるフレームがその中の1つの分類器を使用してジェスチャーを検知し、もし次のフレームの他の1つの分類器が検出しなかったら、前のジェスチャーの状態が依然として存在することを仮定できる。状態の変化を識別するため、ジェスチャーの頻度F(gesture)=ジェスチャー存在時間/検知時間、を仮定することにより、誤検をスムースにさせることができ、状態識別への妨害を低減することができる。理想の条件では、拳-掌と掌-拳のジェスチャーの頻度の変化は図2に示したようになるべきで、両者の交点はジェスチャー状態の変化点になる。実際応用では、あるジェスチャーの存在が検知された後、その近くのエリアを選択して次のフレームの検出ウインドウとすることにより、検知速度を上げる一方で誤検出率を下げる。ジェスチャーの変化に迅速に対応させるため、計算の頻度がFの時、比較的短いスライドウインドウを使い、その長さはジェスチャーの変化時間と関連する。2つの頻度f1とf2との交点の横座標は必ずしも整数ではないため、閾値Tを設立し、f1とf2の差の絶対値が閾値Tの範囲内にある時、1回の状態変化が起きたと認識する。この閾値Tは応答速度及び正確率に大きな影響を及ぼす。頻度曲線を観察することにより、状態Bから状態Cへ変更する時、f1は低下し、f2は上昇する。ゆえに、計算により得られた2つのジェスチャー頻度により、その変化は拳-掌なのか、又は掌-拳なのか判断できる。
ジェスチャー検知認識過程において、拳-掌、掌-拳の変化は通常0.5秒以内で発生するので、長さが15フレームのスライドウインドウを選択できる。フレームごとに交替することにより分類器を使用して、検出範囲を縮小する方法で、検知識別速度を上げるとともに、誤検査率も下げる。定義による頻度関数を採用し誤検雑音を平滑化させる。頻度の変化により、対応する状態の変化を識別し、且つ、識別が速く、正確率が高く、応答速度は1100ms以内に維持できる。
上記の技術案に基づき、さらに、図3に示すように、ジェスチャー検知識別技術をジェスチャー音楽制御に適用できる。HDカメラを採用し、MIPIやUSBインタフェースをロボットの組み込みシステムに連接する。前記ロボットの組み込み式の計算システムには、ハードウエアとソフトウェアの動作環境が含まれ、システムには、映像採集ユニットと、ジェスチャー検知識別ユニットと、音楽放送ユニットとが含まれる。
ジェスチャー音楽制御システムによる具体的な制御フローでは、ロボットは音楽を放送すると同時に映像採集ユニットに要求し、駆動ソフトウェアが要求を受け、ビデオカメラが採集した映像がジェスチャー検知識別ユニットに転送られ、検知して具体的なジェスチャーを確定することに使われ、計算した後、結果を音楽放送ユニットに転送し、音楽放送ユニットが結果を受け取った後、事前に指定した対応する命令を実行する。例えば、ユーザーが拳を握る(掌-拳)の操作をした時、音楽は停止し、ユーザーが五指を伸ばした(拳-掌)時、音楽は続ける。
本発明の利点は、既存の識別技術において事前に肌色モデルを作ることは、ある特定のシーンには適用されないが、本発明に使われたリアルタイムに肌色モデルを作るのは当時のシーンに適用できる。なお且つ、光の照射の激しい変化による影響を除去することができる。本技術案は、ロボットシステムに組み込むことができ、そのため、LBP特徴を取入れたものであり、それは整数演算であり、方向勾配ヒストグラム(Histogram of Oriented Gradient、HOG)と比べると、演算量を大きく下げ、システムの計算をより速く加速化させる。本発明は、前フレームに基づき、ジェスチャーターゲットのエリアの位置を事前に判断し、画像エリアの大きさを減少し、運行速度を大きくアップさせ、一部分の背景の影響を除去することにより、誤検査率を低下させる。フレームおきに異なるジェスチャー分類器を使用することによって検知速度を上げることができ、ジェスチャー頻度により、誤検雑音を平滑させ、短いスライドウインドウを使って、ジェスチャーの状態変化に対しリアルタイムに応答ができる。
以上は本発明の実施例だけであり、本発明の実施方法及び請求範囲を制限するものではない。当業者にとって本発明の明細書及び図面の内容を使って分かりやすい交換をした技術案は、本発明の請求範囲内とも言える。

Claims (10)

  1. ジェスチャーの検知識別方法において
    A1.画像を収集して、記憶するステップ
    A2.予め設定された異なるジェスチャーを検知できる複数の分類器を採用して、予め設定した順序に従い、フレームごとに交替する方法で、各フレーム毎に画像検知を行うことにより、ジェスチャーターゲットを取得するステップ
    A3.前記ジェスチャーターゲットのエリアの画素分布に基づき、肌色のモデルを作るステップと、
    A4.前記肌色のモデルに基づいて肌色が抽出されたジェスチャーターゲットの前後の2つの状態ジェスチャー頻度の時間変化を取得し、前記ジェスチャー頻度の時間変化と予め設定した閾値とにより、ジェスチャー転換の状態を取得して出力するステップと、
    を具備する方法
  2. 請求項1のジェスチャーの検知識別方法において、
    前記A2ステップを実行する前に、前記画像に対して事前処理を行う、方法。
  3. 請求項1のジェスチャーの検知識別方法において、
    各前記分類器ごとは、予め設定したスライディングウインドウを通して、前記画像に対し、マルチスケールの目標の検知を行うことによって、前記ジェスチャーターゲットを取得する、方法。
  4. 請求項3のジェスチャーの検知識別方法において、
    前記ジェスチャーターゲットを取得した後、前記スライディングウインドウを4倍拡大し、前記ジェスチャーターゲットを検知する、方法。
  5. 請求項1のジェスチャーの検知識別方法において、
    前記分類器はカスケード分類器を使用する、方法。
  6. ジェスチャーの検知識別システムにおいて、
    画像の採集に用いられる採集ユニットと、
    前記採集ユニットに接続され、前記画像を記憶する記憶ユニットと、
    それぞれ前記記憶ユニットに接続され、予め設定した順序に基づき、フレームごとに交替する方法を採用し、各フレームごとの前記画像を検知し、ジェスチャーターゲットを取得する、異なるジェスチャーの検知に用いる複数の分類器と、
    前記記憶ユニットに接続され、前記ジェスチャーターゲットのエリアの画素分布に基づき、肌色のモデルを作る肌色モデリングユニットと、
    それぞれ複数の前記分類器と前記肌色モデリングユニットとに接続され前記肌色モデルに基づいて前記ジェスチャーターゲットの前後の2つの状態のジェスチャー頻度の時間変化を取得し、前記ジェスチャー頻度の時間変化と予め設定した閾値とにより、ジェスチャー転換の状態を取得して出力する意思決定ユニットと、
    を含む、システム。
  7. 請求項6のジェスチャーの検知識別システムにおいて、
    前記採集ユニットはビデオカメラを採用する、システム。
  8. 請求項6のジェスチャーの検知識別システムにおいて、
    前記分類器はカスケード分類器を採用する、システム。
  9. 請求項6のジェスチャーの検知識別システムにおいて、
    前記分類器は、みんな予め設定したスライディングウインドウを通して、前記画像に対し、マルチスケールのターゲットの検知を行うことにより、前記ジェスチャーターゲットを取得する、システム。
  10. 請求項9のジェスチャーの検知識別システムにおいて、
    前記分類器は、前記ジェスチャーターゲットを獲得した後、前記スライディングウインドウを4倍拡大し、前記ジェスチャーターゲットを検知する、システム。
JP2017567753A 2015-06-30 2016-06-13 ジェスチャーの検知識別の方法及びシステム Active JP6608465B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510381721.6A CN106325485B (zh) 2015-06-30 2015-06-30 一种手势检测识别方法及系统
CN201510381721.6 2015-06-30
PCT/CN2016/085625 WO2017000764A1 (zh) 2015-06-30 2016-06-13 一种手势检测识别方法及系统

Publications (2)

Publication Number Publication Date
JP2018524726A JP2018524726A (ja) 2018-08-30
JP6608465B2 true JP6608465B2 (ja) 2019-11-20

Family

ID=57607761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017567753A Active JP6608465B2 (ja) 2015-06-30 2016-06-13 ジェスチャーの検知識別の方法及びシステム

Country Status (7)

Country Link
US (1) US10318800B2 (ja)
EP (1) EP3318955A4 (ja)
JP (1) JP6608465B2 (ja)
CN (1) CN106325485B (ja)
HK (1) HK1231590A1 (ja)
TW (1) TW201701187A (ja)
WO (1) WO2017000764A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10764281B1 (en) * 2017-01-09 2020-09-01 United Services Automobile Association (Usaa) Systems and methods for authenticating a user using an image capture device
CN107562207A (zh) * 2017-09-21 2018-01-09 深圳市晟达机械设计有限公司 一种基于手势识别控制的智能医疗系统
CN109697394B (zh) * 2017-10-24 2021-12-28 京东方科技集团股份有限公司 手势检测方法和手势检测设备
CN108038452B (zh) * 2017-12-15 2020-11-03 厦门瑞为信息技术有限公司 一种基于局部图像增强的家电手势快速检测识别方法
CN108255308A (zh) * 2018-02-11 2018-07-06 北京光年无限科技有限公司 一种基于虚拟人的手势交互方法及系统
CN109961016B (zh) * 2019-02-26 2022-10-14 南京邮电大学 面向智能家居场景的多手势精准分割方法
CN111652017B (zh) * 2019-03-27 2023-06-23 上海铼锶信息技术有限公司 一种动态手势识别方法及系统
CN110490125B (zh) * 2019-08-15 2023-04-18 成都睿晓科技有限公司 一种基于手势自动检测的加油区服务质量检测系统
CN110728185B (zh) * 2019-09-10 2023-04-07 西安工业大学 一种判别驾驶人存在手持手机通话行为的检测方法
CN110751082B (zh) * 2019-10-17 2023-12-12 烟台艾易新能源有限公司 一种智能家庭娱乐系统手势指令识别方法
CN112686169A (zh) * 2020-12-31 2021-04-20 深圳市火乐科技发展有限公司 手势识别控制方法、装置、电子设备及存储介质
CN114967905A (zh) * 2021-02-26 2022-08-30 广州视享科技有限公司 手势控制方法、装置、计算机可读存储介质和电子设备
CN113297956B (zh) * 2021-05-22 2023-12-08 温州大学 一种基于视觉的手势识别方法及系统
CN113609976B (zh) * 2021-08-04 2023-07-21 燕山大学 一种基于WiFi设备的方向敏感多手势识别系统及方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7095401B2 (en) * 2000-11-02 2006-08-22 Siemens Corporate Research, Inc. System and method for gesture interface
CN101763515B (zh) * 2009-09-23 2012-03-21 中国科学院自动化研究所 一种基于计算机视觉的实时手势交互方法
TW201123031A (en) * 2009-12-24 2011-07-01 Univ Nat Taiwan Science Tech Robot and method for recognizing human faces and gestures thereof
US20120169860A1 (en) * 2010-06-30 2012-07-05 Guan Lian Method for detection of a body part gesture to initiate a web application
US20130106892A1 (en) * 2011-10-31 2013-05-02 Elwha LLC, a limited liability company of the State of Delaware Context-sensitive query enrichment
CN102508547A (zh) * 2011-11-04 2012-06-20 哈尔滨工业大学深圳研究生院 基于计算机视觉的手势输入法构建方法及系统
WO2013128291A2 (en) * 2012-02-29 2013-09-06 Robert Bosch Gmbh Method of fusing multiple information sources in image-based gesture recognition system
CN103376890B (zh) * 2012-04-16 2016-08-31 富士通株式会社 基于视觉的手势遥控系统
US9111135B2 (en) * 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US9697418B2 (en) * 2012-07-09 2017-07-04 Qualcomm Incorporated Unsupervised movement detection and gesture recognition
US9129155B2 (en) * 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map

Also Published As

Publication number Publication date
EP3318955A1 (en) 2018-05-09
TW201701187A (zh) 2017-01-01
JP2018524726A (ja) 2018-08-30
US20180293433A1 (en) 2018-10-11
US10318800B2 (en) 2019-06-11
EP3318955A4 (en) 2018-06-20
WO2017000764A1 (zh) 2017-01-05
HK1231590A1 (zh) 2017-12-22
CN106325485B (zh) 2019-09-10
CN106325485A (zh) 2017-01-11

Similar Documents

Publication Publication Date Title
JP6608465B2 (ja) ジェスチャーの検知識別の方法及びシステム
JP5675229B2 (ja) 画像処理装置及び画像処理方法
KR102399017B1 (ko) 이미지 생성 방법 및 장치
JP5297530B2 (ja) 画像処理装置、及びインターフェース装置
Deng et al. Mimamo net: Integrating micro-and macro-motion for video emotion recognition
Stergiopoulou et al. Real time hand detection in a complex background
US20120274755A1 (en) System and method for human detection and counting using background modeling, hog and haar features
Bilal et al. A hybrid method using haar-like and skin-color algorithm for hand posture detection, recognition and tracking
Ohn-Bar et al. Fast and robust object detection using visual subcategories
Thabet et al. Fast marching method and modified features fusion in enhanced dynamic hand gesture segmentation and detection method under complicated background
Elleuch et al. A static hand gesture recognition system for real time mobile device monitoring
Sen et al. A novel hand gesture detection and recognition system based on ensemble-based convolutional neural network
Weerasekera et al. Robust asl fingerspelling recognition using local binary patterns and geometric features
Varga et al. Pedestrian detection in surveillance videos based on CS-LBP feature
Hoque et al. Computer vision based gesture recognition for desktop object manipulation
WO2013144906A2 (en) System and method for object detection and recognition by local moments representation
Chen et al. A novel multi-feature fusion method in merging information of heterogenous-view data for oil painting image feature extraction and recognition
Yüce et al. Improved local binary pattern based action unit detection using morphological and bilateral filters
Tang et al. Online action recognition based on incremental learning of weighted covariance descriptors
Badi et al. Feature extraction technique for static hand gesture recognition
Rahmat et al. Removing shadow for hand segmentation based on background subtraction
Liu et al. Fast head-shoulder proposal for scare-aware pedestrian detection
Shen et al. Unsupervised human skeleton extraction from Kinect depth images
Goyal et al. Performance analysis of human gesture recognition techniques
Mishra et al. Face detection for video summary using enhancement based fusion strategy

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191023

R150 Certificate of patent or registration of utility model

Ref document number: 6608465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R154 Certificate of patent or utility model (reissue)

Free format text: JAPANESE INTERMEDIATE CODE: R154

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250