JP2007533043A - 両手動作の追跡 - Google Patents

両手動作の追跡 Download PDF

Info

Publication number
JP2007533043A
JP2007533043A JP2007508608A JP2007508608A JP2007533043A JP 2007533043 A JP2007533043 A JP 2007533043A JP 2007508608 A JP2007508608 A JP 2007508608A JP 2007508608 A JP2007508608 A JP 2007508608A JP 2007533043 A JP2007533043 A JP 2007533043A
Authority
JP
Japan
Prior art keywords
hands
image
hand
integrated
velocity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007508608A
Other languages
English (en)
Other versions
JP4708422B2 (ja
Inventor
シャメイエ,アティド
Original Assignee
ジェスチャー テック,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジェスチャー テック,インコーポレイテッド filed Critical ジェスチャー テック,インコーポレイテッド
Publication of JP2007533043A publication Critical patent/JP2007533043A/ja
Application granted granted Critical
Publication of JP4708422B2 publication Critical patent/JP4708422B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】像一体中及び前後に両手を追跡し、ジェスチャを認識する方法を提供する。
【解決手段】像一体期間中、像が一体となった二つの手の動作を一つの単位として追跡する。像一体期間中の像が一体となった二つの手の特徴である同期のタイプを、像が一体となった二つの手の追跡された動作に基づいて検出する。検出された同期のタイプに基づいて、像が一体となった二つの手のそれぞれの移動方向が、像一体期間中に変化したかを判断する。幾つかの実施形態は、第一の方向から来た第一の手と、第二の方向から来た第二の手とが像一体期間中に像一体状態にあると判断し得る。該二つの手の特徴である検出された同期のタイプと、該二つの手の挙動とに基づいて、像一体期間後に、第一の手を、第二の手から区別できる。

Description

本発明は、データ処理に関する。
コンピュータとの相互作用は、マウス及びキーボードに限定されない。ジェスチャを認識するために人物の動きを感知することは、ヒューマンコンピュータインタラクション及びコンピュータビジョンにおける広範な研究の対象となっている。特に、人間の手のジェスチャを認識することは、コンピュータに自然なコミュニケーション方法を提供する。医療から監視及びセキュリティに至る用途において、本明細書で説明する技術を使用し得る。手の動作を学習し認識することは、こうした技術の重要な要素である。
両手の動作は、一般に、全ての手の動作のうち大きな部分を成し、この動作においては、タスクを行うために或いは意味を示唆するために、両手が同時に動く。拍手、瓶の開栓、キーボードを使ったタイピング、及びドラム演奏は、一般的な両手動作である。また、手話は、両手動作を使用して、コミュニケーションのための複数組のジェスチャを提供する。
通常、手の動作の認識の必要なものは、追跡である。物体は、ステレオイメージングを使用して追跡し得る。
追跡に使用される二種類の一般的な手法は、カルマン(Kalman)フィルタリング及び粒子フィルタリングである。粒子フィルタリングは、像一体(occlusion)の問題の追跡及び解消に使用し得る。他の追跡アルゴリズムは、例えば、ベイジアンネットワーク(Bayesian Network)と、確率的追跡関数に基づくオブジェクトモデルマッチングと、コスト関数の最小化と、分析的モデルマッチング等の手法を使用してよい。幾つかの追跡アルゴリズムは、非線形最適化を備える。
《関連出願への相互参照》
本出願は2004年4月15日出願の米国仮特許出願第60/562,326号の利益を主張する通常の特許出願である。この出願を本明細書に援用する。
後述する一つ以上の実施形態は、像一体(又は像の合体;occlusion)前に両手を追跡し、該像一体をそれとして特定し、該像一体後、個別の手を再認識し追跡することを可能にする。追跡は、カメラの視野と、手の形状と、例えば、指が動いている時に生じるような変化する手の形状とに依存しない。加えて、手が行っているジェスチャを、像一体前、間、及び後のジェスチャ部分を含め、認識し得る。
一つ以上の追跡アルゴリズムは、像一体にリアルタイムに対処し、人間の手等の非剛体の物体を追跡することが可能であり、カメラの位置の移動により生じる変化を許容する。特に、一方の手が別の手と像一体状態になった場合、一つ以上の後述するシステムは、像一体が終了した時に両手を再認識可能であり、両手に異なる色の手袋をはめる必要なく、これを実行できる。
一つ以上の開示したシステムは、物体の非剛体性質による物体の形状の可変性に対処する。こうしたシステムは、物体の形状が素早く変化した時に、必ずしも追跡の手掛かりを失わない。
一つ以上の開示したシステムは、カメラの視野方向に依存しない追跡アルゴリズムを使用する。そのため、視野方向の変化は、アルゴリズムにおいて許容される。これの興味深い応用として、カメラ移動中の手の追跡がある。カメラ位置の動的変化は、移動可能ロボット等の能動的視野用途においてしばしば不可避である。
一連の画像で手を追跡した後、様々な開示したシステムでは、ジェスチャを認識する。一つ以上のシステムでは、認識のためにニューラルネットワークが、ベイジアンネットワーク、特に隠れマルコフモデル(HMM)と同様に使用される。
一つ以上の開示した実施形態では、両方の手の像一体を許容する認識手法を使用する。両手動作中に、一方の手が他方の手を部分的に又は完全に覆う場合がある。
一つ以上の開示した実施形態では、手が着目領域外へ一時的に移動することを許容する認識手法を使用する。こうした場合、二つの手が、両手ジェスチャの全期間に渡って存在するわけではない。また、開示した認識手法は、人物の体等、他の物体と手が像一体状態となることも許容する。
一つ以上の開示した実施形態は、連続した(連結された)周期的両手動作を認識する認識手法である。拍手のような周期的両手動作は、通常、数回反復される二つの手の動作の短いサイクルを含む。多くの仮想現実の用途では、仮想環境と対話するために、幾つかの両手動作が連結され、これらの動作が認識され、動作の遷移が検出される。
一つ以上の実施形態は、人の両手を追跡し、像一体が存在する状態で左手と右手とを区別し、両手動作を認識する認知システムを提示する。場面はデジタル化され、人の両手は、一つ以上の神経科学現象に基づく斬新な追跡アルゴリズムによって追跡される。その後、ジェスチャ認識アルゴリズムは、各手の動作を認識し、その結果を組み合わせて実行された両手動作を認識する。本システムは、コンピュータとの対話、耳の不自由な人による他者とのコミュニケーション、及びセキュリティ用途のために、手の動作を追跡及び認識するのに有用となり得る。
本発明の一般的な態様によれば、像が一体となった二つの手を一つの単位として、像一体期間において該像が一体となった二つの手の動作を追跡する。前記像が一体となった二つの手の前記追跡された動作に基づいて、前記像一体期間における前記二つの手の特徴である同期のタイプを検出する。前記検出された同期のタイプに基づいて、前記像が一体となった二つの手のそれぞれの移動方向が、前記像一体期間中に変化したか否かを判断する。
実施形態は、次の特徴の一つ以上を含んでもよい。方向が変化したか否かの前記判断は、前記像が一体となった二つの手の前記追跡された動作に更に基づいて行われる。方向が変化したか否かの前記判断は、前記像一体期間中に前記二つの手が互いを通過したか、休止したか、互いに衝突したかを判断することを含む。
方向が変化したか否かの前記判断は、前記二つの手がそれぞれ、前記像一体期間後、元来た方向へ戻ったか、元来た方向と反対の方向へ移動したかを判断することを含んでもよい。前記二つの手が元来た前記方向は、垂直方向、水平方向、及び対角線方向のうち一つ以上を含んでよい。
同期のタイプの前記検出は、前記二つの手が正に同期しているか、負に同期しているかを判断することを含み、方向が変化したか否かの前記判断は、前記二つの手が負に同期しているか否かに更に基づいて行われてもよい。同期のタイプの前記検出は、前記像が一体となった二つの手の速度の値を検出することを含んでもよい。前記速度値は、前記像が一体となった二つの手を囲むよう形成された長方形の平行辺同士の速度の差の標準偏差を含んでもよい。
前記像が一体となった二つの手の動作の前記追跡は、前記像が一体となった二つの手を囲むよう形成された長方形の動きを追跡することを含み、方向が変化したか否かの前記判断は、前記長方形の一つ以上の辺の速度に基づいて、前記像が一体となった二つの手の速度の値を検出することを含んでもよい。方向が変化したか否かの前記判断は、前記速度値が閾値を下回っているか否かに基づいて行われてもよい。前記速度値は、前記長方形の平行辺同士の速度の二乗の和の平方根であってもよい。
方向が変化したか否かの前記判断は、前記速度値の一つ以上の確率分布に基づいて行われてもよい。前記速度値は、前記長方形の平行辺同士の速度の差であってもよい。前記一つ以上の確率分布は、第一の速度パターンに関連する第一の組の分布と、第二の速度パターンに関連する第二の組の分布とを含んでもよい。前記第一の速度パターンは、前記像一体期間中に前記二つの手が互いを通過したことを表し、前記第二の速度パターンは、前記像一体期間中に前記二つの手が互いを通過しなかったことを表してもよい。
方向が変化したか否かの前記判断は、第一の確率と第二の確率とを計算することと、前記第一の確率を前記第二の確率と比較することとを更に含んでもよい。前記第一の速度パターンが前記像が一体となった二つの手の前記速度値を生成した第一の確率を前記第一の組の分布に基づいて計算してもよい。前記第二の速度パターンが前記像が一体となった二つの手の前記速度値を生成した第二の確率を前記第二の組の分布に基づいて計算してもよい。前記比較の結果に基づいて、前記像が一体となった二つの手が前記像一体期間中に互いを通過したか否かを判断する。
本発明の別の態様によれば、第一の方向から来た第一の手の像と、第二の方向から来た第二の手の像とが一体となっていると判断する。前記像が一体となった二つの手を一つの単位として該像が一体となった二つの手の動作を追跡する。前記像が一体となった二つの手の前記追跡された動作に基づいて、前記像が一体となった二つの手の特徴である同期のタイプを検出する。前記第一の手と前記第二の手とが像一体ではなくなったと判断する。前記第一の手と前記第二の手とが像一体ではなくなったと判断した後、前記検出された同期のタイプに基づいて前記第一の手を前記第二の手から区別する。
態様、特徴、及び実施形態は、例えば、方法と、方法を実行するための命令群を含むデバイスと、その他のやり方で方法を実行するように構成されたデバイスと、これらデバイスのいずれかを含むシステムとして実現してよい。一つ以上の実施形態の詳細が、添付図面及び以下の説明に記載されている。他の特徴は、説明及び図面と特許請求の範囲とから明らかとなるであろう。
図1(a)を参照すると、一つ以上の開示した実施形態は、三つの基本要素、即ち、知覚データを扱う低レベル処理110と、右手から左手を見分けるためのインテリジェントハンドトラッキング120と、動作を認識するための両手動作認識130とを伴う両手動作を学習し理解するための認知システム100を備える。
低レベル処理110では、両手を画像から抽出する。例えば、カラー画像での皮膚色検知、或いはハイコントラスト白黒画像でのグレイレベル検知を使用して、両手を背景から抽出する。
第二の要素120は、手の追跡を含む。手の追跡は両方の手の像が一体となることにより複雑になる場合がある。一方の手が他方の手を部分的に又は完全に覆う場合、像一体の終了時には、二つの手の像を正確に再取得するべきである。様々な開示された実施形態では、再取得プロセスのために、一つ以上の神経科学現象を活用する。
神経科学における特定の研究により、両手動作において、二つの手が時間的及び空間的に協調することが明らかになっている。加えて、手の構成要素も、時間的に協調する。この時間的及び/又は空間的協調は、両方の手の像一体が発生した時に手を追跡及び再取得するためのアルゴリズムの基盤となりうる。一般には、協調により、二つの手は同時に動作を開始し、休止し、終了する。更に、両手動作中の手の速度同士は、かなり正確に同期する場合が多い。この速度の協調は、例えば、両手でのピアノ演奏を学習する初心者にとっての困難の原因となり得る。
実施形態においては、カルマンフィルタリングに基づく手法を使用して、両方の手の速度を監視し、休止を検出し、手の間の同期を認識する。特に両方の手の像一体期間中に、同期及び休止を検出することで、実施形態の追跡アルゴリズムは、像一体の終了時に左手から右手を見分ける。
一実施形態の追跡アルゴリズムは、更に、両手動作をセグメント化するために使用される。セグメント化により、両手動作の各部分は、その部分が像一体セグメントか、非像一体セグメントかを示す標識を受取る。非像一体カテゴリは、三つの異なるセグメント、即ち、開始、中間、及び終了セグメントを含んでいるかもしれない。そのため、本実施形態の追跡アルゴリズムは、両手動作の性質に応じて、両手動作を四つまでのセグメントに分割する。
一実施形態において、追跡アルゴリズムは、追跡問題の一般的な視点を取り入れる。例えば、純粋なパターン認識の視点において、異なる視野方向から見る時、動作は、異なって認識される場合がある。概ね視野方向から独立した一般的な動作モデル群は、異なる複数の視角から見た時に両手動作のモデルが発見できるように定義される。
また、両手の同期の使用により、一つ以上の開示した実施形態の追跡アルゴリズムは、手の形状に依存しないものとなり得る。手の形状及び視野方向への非依存性により、追跡アルゴリズムは、移動ビジョン用途(例えば、ロボット工学における能動的ビジョン)において有用となり得る。
一実施形態の追跡アルゴリズムは、手の実際の位置及び速度に依存しないモデルを含む。結果として、この追跡アルゴリズムは、視覚システムが移動又は回転する用途において使用できる。例えば、カメラを移動ロボットに設置したと仮定すると、追跡者は、ロボットの移動中に被写体の手を追跡できる。
第三の要素130は、ジェスチャ認識を含み、図1(b)を参照すると、階層認知システム140によって表現され得る。システム140は、底部レベル150において手の形状を分析し、底部レベル150では、手の形状の抽出及び検出のために画像分析及びパターン認識を使用する。システム140は、中間レベル160において、例えば、時空間的片手ジェスチャ認識を使用して、各手の個別の部分動作を学習する。システム140は、上部レベル170において、それらの部分動作を組み合わせて、動作全体を認識する。
主成分分析及び隠れマルコフモデル等の、統計的及び時空間的パターン認識方法は、システム140の底部レベル150及び中間レベル160において使用してよい。上部レベルのベイジアンインタフェースネットワークは、認識された一組の部分的な手の動作の組み合わせとして、動作を知覚し得る。両手動作は、二つの手の個別の動作に分割し得る。手が部分的に又は完全に重ねられる場合があること、或いは別の物体によって覆われるために手が消える可能性があることを考慮して、底部レベルの融合ネットワークは、こうしたケースに対処できるように設計される。動作の像一体及び非像一体部分は、異なるセグメントとして扱われ、別々に認識されてよい。中間レベルの隠れマルコフモデルのモデル群を、手のジェスチャのセグメント群に割り当ててよい。これらのHMMモデル群を使用して、中間レベルにおいて、部分動作を認識する。該部分動作を認識するために、一実施形態では、着目する画像シーケンスの各フレームにおいて、手の形状と、各手の動作とを認識しラベルを付ける。認識及びラベル付けは、階層の底部レベルにおいて、主成分分析及び動きベクトル分析を使用して行われる。
一実施形態において、システム140は、単一動作を学習し、単一の両手動作及び連続した(連結された)周期的両手動作の両方を学習するように作成されている。前述したように、連続した動作の認識は、仮想現実及び没入型技術を用いた仮想環境との対話において特に有用となり得る。
手のジェスチャの認識は、両手を追跡し、何らかの重複を考慮に入れる時、更に現実的となり得る。両手動作において、両手のジェスチャは、通常、一緒に単一のジェスチャを形成する。他方の手の前での一方の手の動作は、両手動作における像一体の原因の一つである。更に、動作の重要部に像一体が存在しない場合の両手動作では、カメラの視野方向を変えることにより、両方の手の像が一体となる可能性がある。
ピクセルのグレイレベルの検出を使用することで、手を黒の背景から抽出し得る。抽出された画像では、非ゼロ値を有するピクセルのみが、手に属することが可能である。手を抽出するために、グラスファイヤアルゴリズムを使用してよい。グラスファイヤは、領域ラベル付け又はブロブ分析アルゴリズムであると説明することができ、グラスファイヤアルゴリズムは、画像を左から右、上から下へスキャンして、手のグレイレベルの範囲内の値を有する接続された領域のピクセルを見つける。該アルゴリズムは、その範囲内で最初に見つかったピクセルの周りを回って他のピクセルを見つける。該アルゴリズムは、全ての接続された領域を見つけ、ラベル付けすることを試みる。
両手を追跡するために、像一体を検出する。ここでは二種類の像一体を考慮する。第一は、両方の手の像が一体となる場合であり、両手の像一体と呼ぶ。第二は、他の何かが手と像一体となるか、或いは手が身体等の他の物体の後に部分的又は完全に隠れる場合である。両方の手の像が一体となる場合には、像一体の開始点を検出し、他方の像一体から、両手の像一体を区別することができる。これについて、以下のモデルを導入する。
図2を参照すると、画像内の各手の回りに長方形210、220が構築されている。長方形の辺は、対応する手のブロブの上下左右の縁を表す。従って、手を移動させると、長方形は同じように移動する。これらの長方形を追跡することで、両手の像一体の開始点及び終了点を検出する。開始点を検出するために、長方形の動きに注目する。いずれかの段階において、両方の長方形間に何らかの交差が存在する場合は、像一体として認識されうる。しかしながら、図3を参照すると、場合によっては、像一体のない長方形の交差も存在し得る。また、図4を参照すると、ウィンドウ410で時間tにおいて、長方形210及び220の交差が存在せず、ウィンドウ420で時間t+1において、像一体が発生し、一つの大きなブロブのみが存在すると仮定すると、そのブロブの周りに一個の長方形430が構築される。これが発生するのは、両方の手の形状が一緒に接続され、グラスファイヤアルゴリズムが両手の接続された領域を単一のブロブとして抽出するためである。両手の像一体は、着目領域外への片方の手の移動、或いは体の一部の影に隠れることに類似している場合があるため、他の像一体と、両手の像一体とを必ずしも区別できる訳ではない。この問題に対処するため、各手の将来の移動を予測するモデルを使用する。
運動学の運動方程式と、カルマンフィルタリングとに基づく動的モデルを使用して、動作を追跡し、長方形の将来の位置を予測する。これにより、可能性のある長方形の交差を数ステップ前に予測し、起こりそうな両手の像一体についての警報を提供することが可能となる。
一般的なカルマンフィルタは、部分的に次の数式によって表現可能である。
Figure 2007533043
ここで、
:時間tにおける処理の状態ベクトル、
Φ:xをxk+1に関連付けるマトリクス、
:公知の共分散構造のホワイトノイズシーケンス、
:時間tにおける測定されたベクトル、
:時間tにおける測定されたベクトルと状態ベクトル間のノイズレス接続を与えるマトリクス、
:公知の共分散構造のホワイトノイズシーケンスであると仮定される測定誤差である。
画像内で追跡した全ての長方形は、次の数式によってモデル化される。
Figure 2007533043
ここで、xは、時間kにおける長方形を表す状態ベクトル、Φは、長方形の二つの連続する位置を関連付けるマトリクス、wは、ゼロ平均ガウスホワイトシステムノイズである。
図5を参照すると、長方形220は、二本の垂直辺x 及びx と、二本の水平辺y 及びy とを含む。同様に、長方形220は、二本の垂直辺x 及びx と、二本の水平辺y 及びy とを含む。長方形の移動は、その辺の移動によってモデリングされる(図5参照)。したがって、式3は、次のように展開される。
Figure 2007533043
ここで、x 1,k、x 2,k、y 1,k、及びy 2,kは、時間kにおける長方形iの辺であり、即ち、時間kにおける長方形iの辺の位置を表す。
(t)がこれらの長方形の一つの辺の移動の軌道を示し、tは時間変数であるとする。この関数は、f=1/h(h>0)でサンプリングすることで離散化される。fはサンプリングレート、hはサンプル間隔を表す。したがって、x=x(kh)、k=0,1,...となる。
(t)は連続な一次及び二次導関数を有すると仮定する。ここで、x(t)は位置であり、x(t)の一次及び二次導関数は、それぞれ速度及び加速度である。小さな値のhの場合、位置、速度、及び加速度ベクトルは、次のように計算される。
Figure 2007533043
ここで
:速度(一次導関数)
・・ :加速度(二次導関数)
=x (kh) k=0,1,...
・・ =x・・ (kh) k=0,1,...
この動的モデルを使用して、式4のモデルは、i=1,2の場合、式7に展開される。
Figure 2007533043
ここでx 、x 、y 、y は、一点付き及び二点付きの変数により表される連続な一次及び二次導関数を有すると仮定する。h>0はサンプリング時間である。
観測方程式2では、長方形の位置のみが観測され、速度及び加速度が計算される。したがって、マトリクスHを、次のように定義する。
Figure 2007533043
ここでHは、測定されたベクトルz と状態ベクトルx 間のノイズレス接続を次のように与える。
Figure 2007533043
ここで、x =[x 1,k ・i 1,k ・・i 1,k 2,k ・i 2,k ・・i 2,k 1,k ・i 1,k ・・i 1,k 2,k ・i 2,k ・・i 2,kTであり、vは、ゼロ平均ガウスホワイト測定ノイズである。カルマンフィルタリングモデルは、i=1,2の場合、次の確率的記述となる。
Figure 2007533043
このモデルにおいて、将来の予測は、式11により現在の状態を投影することで実行される。
Figure 2007533043
式11は、ベクトルxの次の状態を一ステップ前に予測する。言い換えると、数式11は、長方形iの位置を一ステップ前に予測する。予測は、Φの指数部分を増加させることで、二ステップ以上の場合でも実行できる。
図6を参照すると、時間「t」における長方形210及び220の位置を示すウィンドウ610から、引続く時間「t+1」における長方形210及び220の位置を示すウィンドウ620まで間に、長方形210及び220間の交差が本アルゴリズムによって予測される場合、像一体警報を発生させる。該予測は、次のステップ、或いは多数ステップ先に対するものであってよい。像一体警報を発生させたので、手の形状が結合するとすぐに、像一体が検出される。したがって、両手の像一体を捕捉し、他方の種類の像一体と区別できる。
一実施例の像一体検出アルゴリズムは、次のようにまとめられる。
アルゴリズム1:
1.グラスファイヤを使用することで手のブロブを抽出し、長方形を構築する。
2.動的モデルを各長方形に適用し、将来の位置を予測する。
3.予測された長方形間に何らかの交差がある場合、像一体警報を発生させる。
4.次のキャプチャ画像において、一方の手のみがグラスファイヤにより検出され、像一体警報が既に発生している場合、両手の像一体が発生していると仮定される。そうでない場合、片方の手が画像内に見え、像一体警報が発生していない場合、他方のタイプの像一体(例えば、体の一部との像一体、或いは場面内にない)が発生していると仮定される。一つ以上の変数を、特定のタイプの像一体が検出されたことを示すように設定してよい。
5.画像のキャプチャを継続する。
6.一つの手のみを検出後、後続のいずれかのステップにおいて、像一体変数が(その前のキャプチャ画像のために)セット状態の間に、画像内に二つの手が検出された場合、像一体の終了が検出される。
このアルゴリズムを使用することで、像一体の開始及び終了を検出する。
像一体を検出するための解決策があるので、手を追跡し、像一体期間毎の終了時に両手を再取得することになる。
手抽出アルゴリズム(グラスファイヤ)において、画像において見つけた第一の形状は、第一の手としてラベル付けされる。図7を参照して、左から右、上から下への検索を想定すると、時間「t」のウィンドウは、検索により手720が最初に見つかるため「1」とラベル付けされた手720と、検索により手730が二番目に見つかるため「2」とラベル付けされた手730とを示す。ウィンドウ740は、手730が「1」、手720が「2」とラベル付けされているように、時間「t+1」において、手720が僅かに下へ移動し、手730が僅かに上へ移動し、左から右、上から下への検索により手730が最初に、手720が二番目に見つかることを示している。こうした手720及び730の再ラベル付けは、混乱を引き起こし得るが、手720及び730を追跡すれば回避し得る。
別の実施形態では、手の重心を使用して、一連の画像で手を追跡する。重心に基づくアルゴリズムでは、手の重心を発見し、連続する二フレームにおいて比較する。この手法を使用することで、何かと手の像が一体となった場合でも、手を正確に追跡することができる。例えば、一方の手が少しの間、体と重なるか、或いは完全に隠れた後、再び現れる場合、像一体の前の最後の位置と他方の手の位置とを記録することで、正確に追跡できる。このように期待できるのは、手が体のような別の物体の後ろに移動するか、或いは画像フレームの外へ移動する時は、像一体前の最後の位置に近い領域に現れる可能性が最も高いためである。他方の手も、像一体期間に渡って追跡する。したがって、どこかの時点で、画像内に一方の手のみが存在する場合、本アルゴリズムは、手の追跡を適切に混乱なく続け得る。その他の実施形態では、重心以外の指標を使用して手を追跡する。
両手動作において、一方の手が完全に又は部分的に他方の手を覆う時、前記手抽出アルゴリズムは、画像内に一つの大きなブロブを検出する。この場合、多くの用途では、画像内のどの手が右手で、どの手が左手かを知るために、像一体の終わりに正確に両手を識別することが求められる。手を追跡するために、各手の動作の経路に基づいて、両手動作を分類する。図8を参照すると、動作は、次のように分類される。
クラス1:両手が互いに向かって移動し、少しの間、一方が他方と重なり、通り過ぎる。図8(a)、(c)、(d)、及び(h)に提示したモデルa、c、d、及びh。
クラス2:両手が互いに向かって移動し、衝突し、反対方向へ戻る。図8(b)、(g)、(k)、及び(l)に図示したモデルb、g、k、及びl。
クラス3:両手が移動し、どこかの時点で、一方が他方と衝突せずに重なり、両方の手が前の側へ戻る。図8(e)、(f)、(i)、及び(j)に図示したモデルe、f、i、及びjの動作。
クラス4:両手が両手の像一体となること無く移動する。時々、一方の手が、部分的又は完全に、何かと重なる場合がある。図8(m)及び(n)に図示したモデルm及びnの動作。
第一のクラスにおいては、両手は、衝突せずに滑らかな移動を継続する。第二のクラスにおいては、手は衝突し、経路を変える。第三のクラスにおいては、手は衝突しないが、経路を変更する。第四のクラスでは、両手の像一体はない。一実施形態において、追跡システムは、これらのクラスを認識し、像一体の終了時に両手を正しく特定する。
例えば、拍手はモデルg、結び目を作るのはモデルjによって表すことが可能である。像一体期間終了時に両手を再取得することを目標とする。したがって、一実施形態では、両手の像一体期間中の手の挙動を理解するために、動作が属するクラスを見つける。
一実施形態では、神経科学の視点から問題に取り組む。これは、像一体期間中の手の挙動を、これにより理解できる場合があるためである。
神経科学の研究は、両手動作において、手は無意識に同期する傾向があることを示している。この同期は、時間的及び空間的形態の両方で現れる。時間的には、二つの手が異なる目標を持って動く時、動作は、同時に開始及び終了される。例えば、人が両手で叩く時、叩き方はかなり正確に同期する。空間的には、人は一方の手で円を描き、同時に他方の手で長方形を描くことは殆ど不可能である。
時間的協調は、両手動作において、両手の速度が同期することを示唆する。更に、両手の休止は、同時に発生する。像一体の状態で両手を追跡するために、両手の時間的協調を利用することができる。
休止を検出するために、両手の速度を監視する。円描画と呼ばれる周知の実験は、両手動作において両手の速度がかなり正確に同期することを示す。前述の導入された動的モデルと、上述した両手協調現象とに基づく追跡手法を導入する。
図9を参照すると、前述同様、長方形が各手の周囲に構築されている。像一体検出アルゴリズムにより像一体が検出されるとすぐに、大きなブロブの周囲に長方形910が形成される。長方形910を、像一体長方形と呼ぶ。
動的モデルを使用して、像一体長方形をモデリングする。したがって、長方形の全ての辺について、位置x、速度x、及び加速度x・・がモデルに含まれる。両手の水平移動は、図9の垂直辺c及びdによって、垂直運動は、水平辺a及びbによってモデリングされる。簡略化のため、次の補助変数を定義する。
ν=x :辺aの速度
ν=x :辺bの速度
ν=x :辺cの速度
ν=x :辺dの速度
次に、次の手休止モデルを定義し、垂直及び水平方向における手の「速度」をモデリングする。
Figure 2007533043
ここで、下付き文字kは離散時間指数を示し、定義された記号は「速度」と呼ばれる。
手が衝突又は休止する動作(例えばクラス2及び3)において、手は、像一体期間の前に手が存在したのと同じ側へ戻る。これらの動作において、水平又は垂直方向にある長方形の平行な辺は、両手が休止又は衝突する時に休止する。例えば、e、f、及びlのモデルにおいて、両手は、水平方向に休止して前の側へ戻る。g及びjにおいて、両手は、水平及び垂直方向の両方に休止して戻る。両手の水平方向の休止は、像一体長方形の垂直辺の休止によって表現され、両手の垂直方向の休止は、像一体長方形の水平辺の休止によって表現される。両手の協調のため、平行な辺の休止は、通常、同時である。言い換えると、両手が水平又は垂直方向に休止する場合、両手の水平及び垂直運動に関連する平行な辺は、同時に休止する。例えば、モデルi及びkにおいて、像一体中に両手が垂直方向に休止又は衝突する時、像一体長方形の水平辺は、通常、同時に休止する。この場合、像一体長方形の水平辺の速度はゼロに達する。これは、手休止モデルのνv,kにより表現される。実際に、小さな閾値ε>0は、安全なマージンを提供可能である。これは、離散時間において処理を行っており、画像が時間の離散点で取り込まれるためである。νv,kまたはνh,kが閾値を下回る場合、両手が垂直又は水平方向に休止したと結論する。水平又は垂直方向の休止を検出することで、両手が休止又は衝突し、その方向の像一体前と同じ側に戻ったと結論してよい。
両手が互いを通過する動作では、休止又は衝突は検出されないが、速度の符号の変化が観測される。図10を参照すると、符号の変化は、互いを通過する時に、両手が辺同士を反対方向へ押しやることによって生じる。ウィンドウ1010は、二つの手1020及び1030が互いに接近し、その結果、垂直辺「c」及び「d」が互いに接近することを示している。ウィンドウ1040は、ウィンドウ1010より後の時点で、手1020及び1030が互いを通過して押し進み、そのため垂直辺「c」及び「d」が互いから押し離されることを示している。したがって、速度の符号は、ゼロを通過することなく変化する。手の休止が検出されない場合、両手が互いを通過したと結論する。
通常の動作において、手の形状は、像一体期間中に変化し得る。例えば、手が移動する動作では、指も同時に移動して、手の形状が変化し得る。この場合、指の動作は、手の同時休止を検出する試みにおいて考慮してよい。
研究では、一方の手の動作において、指及び手も協調することが明らかである。言い換えると、手と指とは、時間的に同期する。我々の実験は、手の速度と、指の速度とは、位相差が殆どない状態で高度に同期することを示している。したがって、手の休止と、手の形状を変化させる指の休止とは、同時に発生すると予想し得る。手と指との協調は、通常、長方形の平行な辺の速度が同期し、指の動きが手の形状の変化を引き起こすか否かに関係なく、休止が同時に発生することを保証する。この現象により、通常、アルゴリズムは手の形状に依存しない。
手が複数の水平(モデルd及びl)又は垂直(モデルc、i、及びk)動作を有する幾つかのモデルでは、静的方向(垂直又は水平)の速度が式12により小さくなることから、垂直又は水平方向で不要な休止が検出される場合がある。例えば、手が水平方向のみに移動する場合(図8(d)参照)、垂直方向で手の大きな移動がなく、垂直辺の速度がゼロに達し得ることから、垂直方向の休止が検出され得る。
また、像一体長方形の一対の平行辺が上下左右のいずれか同じ方向に移動し(例えば、モデルa、b、及びeの水平辺)、ゼロ速度(休止)が検出されないモデルでは、速度が閾値を下回らない場合があるため、その方向(モデルa、b、及びeの垂直方向)で手が互いを通過したと誤って結論する恐れがある。更に、同じ方向での移動が低速である場合、式12が提示する速度は閾値を下回り、その方向での休止を誤って示す恐れがある。
こうした問題を解消するために、手の速度の同期を二つのクラス、正及び負に分類する。二つの手が反対方向(例えば、左と右)に移動する動作において、速度は負に同期し、手が同じ方向(例えば、下)に移動する動作において、速度は正に同期する。
正及び負の同期を識別するために、平行辺同士の相対速度の標準偏差である次の速度同期モデルを定義する。
Figure 2007533043
ここで、Nは、像一体期間中の画像(フレーム)数であり、i及びjは、フレーム指数であり、va,k、vb,k、vc,k、及びvd,kは、両手の像一体中のk番目のフレームにおける辺a、b、c、及びdの速度である。
このモデルは、純粋に水平方向又は純粋に垂直方向の移動と、平行辺同士が正に同期する動作とにおいて小さな標準偏差を生じる。例えば、モデルcの動作において、像一体長方形の垂直辺は、像一体期間中に殆ど移動しない。したがって、速度同期モデル(式13)のSは小さくなる。モデルeにおいて、像一体長方形の水平辺同士は、正に同期する。この場合のSは小さくなる。しかしながら、像一体長方形の平行辺の速度が負に同期する時には(例えば、モデルf)、この場合、平行辺同士の速度が異なる符号を有する反対の方向となるため、標準偏差が大きくなる。小さなs及びsの閾値は、実験により決定してよい。
手の休止を検出する前に、速度同期モデルを使用して、像一体期間中に像一体長方形の平行辺の可能性のある任意の正の同期を捕捉する。平行辺の任意のペアの正の同期が観測される場合、追跡は、像一体長方形のその他の辺の休止に基づいて実行される。例えば、小さなSが観測された場合、その他の辺c及びdの休止に基づいて追跡する。速度同期モデルにおける小さな標準偏差は、像一体中に長方形の一対の平行辺が非常に近い速度を有し正に同期していることを意味する。したがって、像一体後に左右の手を識別するための所望の情報を得るに、像一体中の像一体長方形のその他の辺の休止に注目するべきである。
速度同期及び手休止モデルに基づいて、手追跡アルゴリズムは次のようにまとめられる。
アルゴリズム2:
1.長方形の水平辺同士が像一体期間中に正に同期する場合(小さなs)、
1.A.像一体中にvh,k<εとなるようなkが存在する場合、両方の手は水平に元の位置/側(例えば、左又は右)へ戻る。
1.B.その他の場合、両方の手は水平に互いを通過する。
2.そうでなく、長方形の垂直辺同士が像一体期間中に正に同期する場合(小さなs)、
2.A.像一体中にvv,k<εとなるようなkが存在する場合、両方の手は垂直に元の位置/側(例えば、上又は下)へ戻る。
2.B.その他の場合、両方の手は垂直に互いを通過する。
3.上のいずれでもなく、隠蔽中にvh,k<εとなるようなkが存在する場合、両方の手は水平に元の位置/側へ戻る。
4.上のいずれでもなく、像一体中にvv,k<εとなるようなkが存在する場合、両方の手は垂直に元の位置/側へ戻る。
5.上のいずれでもない場合、両方の手は互いを通過する。
上記アルゴリズムは、両手の像一体中に両方の手を追跡し、像一体前のそれらの位置に対する像一体終了時の両方の手の位置を決定する。上記アルゴリズム2は、像一体後の両手の位置の情報を提供するために、様々な形で変更してよい。上記のアルゴリズム2は、通常、像一体後に左右の手を識別するのに十分な情報を提供する。
アルゴリズム2及び他のアルゴリズムの実施形態は、(1)ステップ1において垂直辺同士が負に同期していること、及び/又は(2)ステップ2において水平辺同士が負に同期していることを検証することで、堅牢性を増加させることができる。別の実施形態では、異なる手休止及び手通過検出方法の追跡アルゴリズムを使用する。
像一体期間中、画像数は、理想的には、手の衝突及び休止の場合に速度がゼロに収束するように、十分に大きい必要がある。本アルゴリズムは、衝突又は休止が発生した場合に長方形の辺の速度がゼロに達するように、十分な時間及び画像数を必要とする。提案されたカルマンフィルタは、運動学の運動方程式に基づいている。したがって、(画像数が不十分な)高速運動において、像一体長方形の全ての辺は、素早く停止するのではなく、更に移動する可能性がある。即ち、サンプル同士が遠く離れすぎている時は、閾値を下回る速度を見逃す場合がある。
移動の速度が増加すると、長方形の辺の推定速度は、厳密にはゼロに達しない場合がある。この問題は、カメラが低速(低フレームレート)で動作している場合、より困難になる。そのため、アルゴリズムは、衝突及び休止を正確に検出しない場合がある。更に、視覚システムが移動する幾つかの応用(例えば、能動的ビジョン)において、速度は、厳密にゼロに達しない場合がある。そのため、本アルゴリズムを実際の速度から独立させる手法を開発し、像一体長方形の辺の速度変化を調べる。
休止が発生する時、推定速度はゼロになる傾向を有する。両手は、殆ど一定の速度で互いに対して移動すると仮定する。加速度は、殆どゼロである。休止が発生する時は、速度をゼロにするために、加速度が負の方向で増加する。
休止後、長方形の辺同士は、反対方向に移動する。それらの速度は、負の方向で同様に変化する。そのため、図11(a)を参照すると、像一体期間中の1つの速度は、グラフ1110のようになる。また、図11(b)を参照すると、両手が互いを通過する場合、長方形の1つの辺の速度は、グラフ1120のようになる。グラフ内の急速な符号の変化は、図10に示したように、両手が互いを通過する時に、長方形の辺同士を反対方向へ押しやることによる。様々な実施形態において、グラフ1120は、階段関数となり得るが、両手の通過は、図示のような非階段関数を発生させる場合がある。
神経科学の理論によれば、人間の神経系における運動指令にはノイズが存在する。こうしたノイズが存在する状態で、意図した運動指令は、数回反復した場合、手の位置と速度の確率分布を発生させる。この理論に従って、ガウス分布により速度変化をモデリングする。異なる動作における速度群を取り込むことで、両手の休止及び両手の通過の各挙動タイプについて、一連の二次元ガウス分布を構築する。像一体長方形の一対の平行辺を表すために、次の関数を定義する。
Figure 2007533043
ここでv(t)及びv(t)は、時間tにおける一対の平行辺の速度である。両手が負に同期する時には、この関数は、個別の速度の合計に等しい速度となる。この関数の重要な特徴は、本アルゴリズムを実際の速度から独立にすることである。そのため、幾つかの応用(例えば、能動的ビジョン)では、両方の速度に追加された一定値の効果が除去される。
図12を参照すると、関数14の連続値のガウス分布を示している。図12(a)は、休止が検出された動作の場合の分布1205〜1240を示している。図12(b)は、両手が互いを通過する動作の場合の分布1245〜1280を示している。図12(a)及び(b)において、各楕円1205〜1280は、二次元ガウス分布を表す。
両手が互いを通過したか、休止して戻ったかの判断は、着目する動作の関数14が図12(a)及び(b)の二種類のパターンのそれぞれに一致する確率に基づいて行われる。確率は、次の数式を使用して計算される。
Figure 2007533043
ここで、vは、関数14により計算された、着目する像一体期間中の観測された速度群を表し、v =v(j)は、像一体中の時間jにおいて観測された速度であり、H は、パターンHにおけるk番目のガウス分布であり、P(v |H )は、次の多次元ガウス確率密度関数を使用して計算される。
Figure 2007533043
ここで、σk,lは、k番目の分布のl番目の主軸の周りの分布H の標準偏差を表し、μk,lは、k番目の分布のl番目の主軸の周りの分布の平均を表し、v は、分布のl番目の主軸に投影された点v=v(j)の成分を表す。
例えば、ガウス分布群が図12(a)及び(b)に示す通りであり、H1(休止、図12(a))及びH2(通過、図12(b))の両方に対してk=8であると仮定して、式15及び16を観測された速度群に適用してよい。各観測された速度に対して、その速度の確率を最大化する分布1205〜1240を決定し、これら確率を乗算する。分布1245〜1280を使用して同じことを行い、より大きな積を発生させる結果(休止又は通過)を選択する。
分布をトレーニングするために、パターンH内のガウス分布H 毎に速度点を分類する。ベクトル量子化(VQ)は、ガウス分布毎のデータ点群をクラスタ化する教師なしクラスタリング手法である。VQを各パターン内の一組のトレーニング用速度データ点群に適用することで、各分布のデータ点群は、複数の領域に分類される。次に、主成分分析を使用することで、各領域のガウス分布のパラメータ(標準偏差及び平均)を決定する。このパターンマッチング手法を使用することで、速度がゼロに収束しない場合でも、手の休止を検出できる。
このアルゴリズムは、次のようにまとめられる。
アルゴリズム3:
像一体検出手法を使用して、像一体期間の開始及び終了を検出する。
1.長方形の水平辺同士が像一体期間中に正に同期する場合(小さなs)、
1.A.手休止クラスの垂直辺の確率(式15)が手通過クラスの場合よりも高い場合、両手は水平に元の側へ戻る。
1.B.その他の場合、両手は、水平に互いを通過する。
2.そうでなく、長方形の垂直辺同士が像一体期間中に正に同期する場合(小さなs)、
2.A.手休止クラスの水平辺の確率(式15)が手通過クラスの場合よりも高い場合、両手は垂直に元の側へ戻る。
2.B.その他の場合、両手は、垂直に互いを通過する。
3.上のいずれでもなく、手休止クラスでの垂直辺の確率(式15)が手通過クラスの場合よりも高い場合、両手は水平に元の側へ戻る。
4.上のいずれでもなく、手休止クラスでの水平辺の確率(式15)が手通過クラスの場合よりも高い場合、両手は垂直に元の側へ戻る。
5.その他の場合、両手は互いを通過する。
例えば、上記の追跡アルゴリズムの一つのような追跡アルゴリズムを使用することで、両手動作全体を理解するために、両手を互いから分離し、各手の動作を個別に見ることができる。両手の動作の意味は、両手動作が単一の存在として認識されるように組み合わされる。両手動作の認識にはベイジアンネットワークを導入する。しかし、最初に、両手動作を像一体部分と非像一体部分とに分ける。
両手を分離するために、提案した追跡アルゴリズムの一つを使用して、一連の画像において両手を個別に追跡し得る。したがって、両手の像一体が存在しない間、各手の動作は分離可能である。しかしながら、像一体が存在する時、両手は別々に認識されない。したがって、両手の動作の分離は行わない。
一実施形態では、像一体部分を考慮に入れて、両手を別々に認識する。両手動作全体を理解するために、分離された両手の認識された個別の動作と、像一体部分とを融合する。
図13を参照すると、各手を追跡し、空白の一連の画像に別々に投影する。例えば、画像1330上の二つの手1310及び1320を、それぞれ、個別の画像1340及び1350上に別々に投影する。手の動作を画像フレームに対して保存するため、各手の移動方向を記録する。図14を参照すると、移動方向を記録するために、画像フレーム1410の二次元空間を、八個の均等領域1420〜1455に分割する。分割されたフレーム1410を、領域マップと呼ぶ。各領域のインデックス(1〜8)は、その領域での移動方向を表す。ゼロのインデックス(フレーム1410において不図示)は、静止した手を表す。
各手の中心の移動を追跡することで、全ての単一フレームにおいて、移動を表すベクトルが抽出される。このベクトルは、直前の画像から現在の画像までの移動を表す。図15を参照すると、時間「t」における手1510をフレーム1520に、時間「t+1」におけるのをフレーム1530に示している。時間「t」から時間「t+1」までの手1510の移動は、ウィンドウ1550のベクトル1540により表される。水平軸線に対するベクトルの角度は、ベクトルがマッピングされる領域マップ内の領域を決定する。領域インデックスは、該移動について時間t毎に記録される。両手の像一体を含む部分的シーケンスについても、大きな像一体ブロブの移動の方向ベクトルを抽出し、領域インデックスを記録する。幾つかの実施形態においては、例えば、ベクトル1540の適切な大きさを決定及び分析することで、ジェスチャの速度を考慮してもよい。
両手動作は、片方の手の像が一体となる像一体部分と、その他の部分との二種類の部分グループにより構成される。両手を別々に認識可能な部分は、非像一体部分と呼ばれる。両手動作は拍手のような周期的動作である可能性があるため、セグメントと呼ばれる様々な部分に分離する。次の四種類のセグメントが得られる。
A.ジェスチャの開始から第一の像一体部分までの開始セグメント
B.一方の手が他方と像が一体である像一体セグメント
C.二つの連続する像一体セグメントの間のジェスチャ部分である中間セグメント
D.最後の像一体セグメントからジェスチャの終了までの終了セグメント
図16を参照すると、セグメント化された両手動作の例を、ウィンドウ1610内の時間軸上に示している。図16では、動作が非像一体セグメントで開始及び終了すると仮定しているが、他の実施形態では、本アルゴリズムを他の場合に適用する。また、像一体セグメントが観測されないジェスチャの場合、ジェスチャ全体でセグメントは一つだけ(開始セグメント)となるが処理は同じになる。
両手動作では、幾つかの像一体及び中間セグメントが存在する可能性がある。例えば、図16では、「B」と標示された三つの像一体セグメントと、「C」と標示された二つの中間セグメントと、「A」と標示された開始セグメントと、「D」と標示された終了セグメントとが存在する。したがって、本実施形態は、両手動作全体を理解するために、多数の像一体及び中間セグメントと、開始及び終了セグメントとに対処できる。
セグメント内の一つの手の動作(又は像一体セグメント内の二つの手の動作)は、該セグメントの画像シーケンスに現れる単一の動作として扱われる。これらの動作は、隠れマルコフモデルによりモデリング及び認識されるが、他のモデルを使用してもよい。したがって、両手動作に対して、二つの手のそれぞれの認識された動作群と、像一体部分の認識された動作とが得られる。これらの情報を組み合わせて、両手動作を認識する。
一実施形態では、ジェスチャ全体を二つの手の動作に分割するベイジアンネットワークを使用する。図17を参照すると、各手の動作は、BEG、MID、OCC、及びENDの証拠ノードを介して、更に四種類のセグメントに分割される。ジェスチャの像一体部分は、両手に共通の部分である。したがって、単一の共有ノードOCCを考慮する。具体的には、ツリー1700は、左手ジェスチャノード1710及び右手ジェスチャノード1715を含む上部ノード「両手ジェスチャ」1705を含む。左手ジェスチャノード1710及び右手ジェスチャノード1715は、それぞれ、BEG証拠ノード1720及び1750と、MID証拠ノード1725及び1745と、END証拠ノード1730及び1740とを含み、共通のOCCノード1735を共有する。
このツリーの各ノードは、ノードが受け入れることが可能なケースの数に依る多価変数を表す。したがって、gの両手ジェスチャを含むボキャブラリの場合、全てのノードは、ベクトル1720a、1735a、及び1750aで示すように、長さgのベクトルである。両手ジェスチャ、左手ジェスチャ、及び右手ジェスチャの三つの上部ノードは、証拠ノードにより通信されたメッセージにより更新される非証拠ノードである。証拠ノードは、モデル1755a、1755g、1760a、1760g、1765a、及び1765gで示すように、異なるセグメントの隠れマルコフモデルにより個別に供給される。
図18を参照すると、ジェスチャの開始、中間、及び終了セグメントは時間的に重複しないという事実のため、セグメントが等しい重みであると仮定すると、因果ツリー1700は、非像一体セグメントノード(NSノード)1810及び1820と、像一体セグメントノード(OSノード1830)とを含むツリー1800へと抽象化できる。ノード1810は、ベクトル1810aと、モデル1840a〜1840gとに関連する。同様に、ノード1830は、ベクトル1830aと、モデル1850a〜1850gとに関連する。NSノード1810及び1820は、各手の異なる時間における開始、中間、及び終了セグメントの証拠(尤度)を表す。これらの証拠は、ネットワークの最下レベルにおいて隠れマルコフモデルによって提供された尤度の正規化されたベクトルである。これらの値はそれぞれ、(任意の非像一体セグメント内の動作を含む)着目する部分的ジェスチャが、対応するセグメントのボキャブラリ内の複数のジェスチャの1つであることの尤度を表す。
動作全体を認識するために、各セグメントの部分的ジェスチャを個別に認識する。このために、各手に対する固有空間を構築する。固有空間を、着目するセグメント内にある一つの手の一組のトレーニング用画像と、主成分分析とを使用して形成する。一組の画像の共分散行列を作成し、共分散行列の固有値及び固有ベクトルを計算する。最大の固有値に関連する一組の固有ベクトルを選択して、固有空間を形成する。一組のトレーニング用画像を固有空間へ投影したものが主成分である。また、像一体セグメントに対しても、別の固有空間を形成する。これらの固有空間は、該一組のトレーニング用画像内の動作により形成される。一つの手の全画像をその固有空間に投影することで、点の集合が形成される。また、部分空間には、領域マップを使用して抽出した運動ベクトルである1つの次元が追加される。
ベクトル量子化を使用して、固有空間毎に一組のコードワードを抽出する。各固有空間の一組の抽出されたコードワードは、トレーニング及び認識の両方に使用される。ジェスチャの1つのセグメントを対応する固有空間に投影することで、一連のコードワードが抽出される。
図19を参照すると、非像一体セグメント内の各手に、二状態の左から右への隠れマルコフモデル1990が割り当てられる。セグメント内の手の部分的動作は通常は短い動作であるという事実のため、二状態HMMは、通常、部分的動作を表現するのに適している。ジェスチャの全てのセグメントは、個別のHMMを有する。したがって、両手動作のボキャブラリ内のジェスチャ毎に、七つのHMMが割り当てられ、二つの手の開始セグメントに対して二つ、像一体セグメントに一つ、中間セグメントに二つ、終了セグメントに二つが割り当てられる。抽出された一連のコードワードを使用することで、セグメント内の各手のHMMをトレーニングする。像一体セグメントの全てのHMMは、対応する固有空間への投影された画像の抽出された一連のコードワードによってトレーニングされる。例えば、10個の両手動作からなるボキャブラリの場合、70個のHMMが生成及びトレーニングされる。
認識段階において、同じ手順が実行される。着目するジェスチャをセグメント化する。各セグメントの画像は、対応する固有空間へ投影され、一連のコードワードが抽出される。該トレーニングされたHMMを利用することで、セグメント内の各手の部分的ジェスチャが認識される。しかしながら、我々は、これらのHMMを使用して、着目する部分的ジェスチャが該ボキャブラリ内の対応する複数の部分的ジェスチャのそれぞれであることの尤度群を計算する。セグメント内の着目する部分的ジェスチャに対する尤度の規格化されたベクトルは、図18のベイジアンネットワーク内の証拠ノードの一つに渡される。例えば、左手のNSベクトル1810aの二番目のスカラ量は次の尤度である。
・開始セグメントにおいて:該着目する部分的ジェスチャが、ボキャブラリ内のジェスチャ番号2の左手の開始セグメントのHMMにより計算されたジェスチャ番号2の開始セグメントであることの尤度、
・中間セグメントにおいて:該着目する部分的ジェスチャが、ボキャブラリ内のジェスチャ番号2の左手の中間セグメントのHMMにより計算された、ジェスチャ番号2の中間セグメントであることの尤度、
・その他。
像一体セグメントのHMMの尤度が供給される像一体ベクトルは、二つの手の証拠(尤度)として、LH及びRHノード、最終的には、BGノードへ通信される共有メッセージである。LH、RH、及びBGノードは、例えば、周知のビリーフ伝播アルゴリズムを使用して、ビリーフ、即ち、可能なジェスチャの尤度のベクトルを計算する。
一例として、一実施形態では、三組のトレーニング用画像(左、右、及び像一体)がジェスチャの映像から抽出される。各画像は、例えば、1024ピクセルを含んでよい。空間の次元を減らすために、トレーニングデータのための、低い次元の固有空間を決定する。該トレーニングデータを該固有空間に投影し、次元を減らしたトレーニングデータを生成する。認識段階での計算数を減らすために、該固有空間に対して一連のコードワードを決定する。次に、着目するジェスチャのために、該トレーニングデータの適切なセグメントに対応する一連のコードワードを使用して、HMMを作成する。
次に、着目するジェスチャの画像群を該適切な固有空間に投影し、最も近いコードワード群を検出することで、ジェスチャのセグメントに対応する画像群に対する一連のコードワードを生成する。次に、該一連のコードワードを適切なHMM(セグメント及びジェスチャに特定の)に供給し、該セグメントがトレーニングされた該複数のジェスチャのそれぞれに属する尤度群を生成する。これらの尤度群を、その後、例えばビリーフ伝播アルゴリズムを使用して組み合わせる。
該ネットワークは、ループ式である(ループを含む)ように見える。ノードBG、LH、OS、及びRHはループを形成する。そのため、該ネットワークが単一に接続されているとは見えず、メッセージは無期限に循環し得る。しかしながら、ノードOSは、証拠ノードである。ベイジアンネットワークのビリーフ伝播規則を参照すると、証拠ノードは、メッセージを受領せず、常に同じベクトルを送信する。そのため、NS及びOSノードは、LH及びRHノードのメッセージにより更新されない。実際、LH及びRHノードは、証拠ノードにメッセージを送信しない。そのため、ネットワークはループ式ネットワークに見えるものの、OSの像一体ノードは、そのループを断ち切り、メッセージは該ループを循環することはない。これにより、単一に接続されたネットワークのビリーフ伝播規則が、このネットワークにおいて使用可能となる。
両手動作を認識するために、部分的ジェスチャ群を認識し、提案したベイジアンネットワークによりそれらの結果を融合する本実施形態の手順は、次のアルゴリズムにまとめられる。
アルゴリズム4:
1.両手ジェスチャを追跡アルゴリズムによりセグメント化する。
2.開始セグメント
2.1.各手ごとに、開始セグメントをその手の固有空間へ投影する。
2.2.例えば、主成分及び動きベクトルを使用して、各手ごとに一連のコードワードを抽出する。
2.3.各手の開始セグメントのHMMを利用することで、尤度のベクトルを計算し規格化する。
2.4.該尤度のベクトルを対応するNSノードに渡し、一方、像一体ノードのベクトルに、オール1のベクトルを設定する。
2.5.ビリーフ伝播アルゴリズムにより、全ノードのビリーフを更新する。
3.像一体セグメント
3.1.セグメントの画像シーケンスを、像一体セグメントの固有空間に投影する。
3.2.主成分及び動きベクトルを使用して、一連のコードワードを抽出する。
3.3.対応するHMM群を使用して、尤度のベクトルを計算し規格化する。
3.4.該ベクトルをOSノードに渡す。
3.5.ビリーフ伝播アルゴリズムにより、全ノードのビリーフを更新する。
4.中間セグメント
4.1.各手ごとに、対応する画像シーケンスを対応する固有空間に投影する。
4.2.主成分及び運動ベクトルを使用して、一連のコードワードを抽出する。
4.3.対応するHMM群を使用して、尤度のベクトルを計算し規格化する。
4.4.該尤度のベクトルを対応するNSノードに渡す。
4.5.ビリーフ伝播アルゴリズムにより、全ノードのビリーフを更新する。
5.第二のタイプの像一体セグメント(像一体セグメント中に一方の手のみが場面に存在する別のタイプの像一体が検出される場合)
5.1.場面に存在する手について、対応する画像シーケンスを対応する固有空間に投影する。
5.2.主成分及び動きベクトルを使用して、一連のコードワードを抽出する。
5.3.対応するHMM群を使用して、尤度のベクトルを計算し規格化する。
5.4.該尤度のベクトルを対応するNSノードに渡す。
5.5.ビリーフ伝播アルゴリズムにより、全ノードのビリーフを更新する。
6.像一体及び中間セグメントが更に存在する間、本アルゴリズムのパート3〜5を繰返す。
7.終了セグメント
7.1.各手ごとにて、画像シーケンスを対応する固有空間へ投影する。
7.2.主成分及び動きベクトルを使用して、一連のコードワードを抽出する。
7.3.終了セグメントのHMM群を使用して、尤度のベクトルを計算し規格化する。
7.4.該ベクトルを対応するNSノードに渡す。
7.5.ビリーフ伝播アルゴリズムにより、全ノードのビリーフを更新する。
8.ルートノードの局所的ビリーフ内の最も高い確率のジェスチャが最善の一致である。
多くの両手動作は、本質において周期的である。拍手及びドラム演奏がその例である。仮想現実等、両手動作が通信方法として使用される環境では、連結された周期動作を認識することになる。
一実施形態では、前述のベイジアンネットワークを使用して、連結された周期動作を認識する。動作は、反復期間全体に渡って正確に認識し得る。更に、異なる動作が連結された時に、ジェスチャの変化を検出し得る。実施形態を説明するために、実験を提示する。
拍手する、英国手話で水曜日の手話をする、紐を結ぶ、本のページをめくる、及び他の手話言語からの幾つかの動作等、通常の日常動作を手が行っているかのような、15種類の両手動作を作成した。各動作ごとに、10個のサンプルを取り込み、合計150個のサンプル、即ち、それぞれが多数の画像(データポイント)を含む150件の映像を取り込んだ。サンプルの半分(75個)をトレーニングセットとして扱い、即ち、各ジェスチャの五件の映像をトレーニングデータとして使用した。主成分分析を使用することで、固有空間を形成した。ベクトル量子化を適用することで、各固有空間ごとに128のコードワードを抽出した。この数により、各コードワードは、約100個のデータポイントを表す。手のジェスチャの各セグメントに対して、二状態の左から右への隠れマルコフモデルを作成した。ジェスチャの各セグメントのHMMを、トレーニングセット内の該五個のサンプルによりトレーニングした。
三つの両手動作を選択し、連結された周期両手動作を作成した。15種類の動作から、最初にジェスチャ番号3を五回繰り返した。次にジェスチャ番号2を30回、その後、ジェスチャ番号5を41回繰り返した。第一のジェスチャは、11のセグメントに分割され、開始セグメントと、四つの中間セグメントにより分離された五つの像一体セグメントと、終了セグメントとを含む。第二のジェスチャは、61のセグメントに分割され、開始セグメントと、30の像一体セグメントと、29の中間セグメントと、終了セグメントとを含む。第三のジェスチャは、83のセグメントに分割され、開始セグメントと、41の像一体セグメントと、40の中間セグメントと、終了セグメントとを含む。局所的ビリーフのグラフ内の第一のセグメントは初期設定のビリーフを表す事実を考慮すると、第一のジェスチャ遷移は、13番目のセグメント(第二のジェスチャの開始セグメント)に、第二の遷移は、74番目のセグメント(第三のジェスチャの開始セグメント)に現れるはずである。
図20(a)を参照すると、ルートノードの局所的ビリーフ(local belief)がプロットされている。プロット2010は、多数のグラフ(15グラフ)を示しており、ほぼセグメント(segment)2で約1のビリーフまで上昇し、ほぼセグメント12で約0のビリーフまで低下する第一のジェスチャに対する第一のグラフ2020が含まれる。プロット2010は、更に、ほぼセグメント13で約1のビリーフまで上昇し、ほぼセグメント73で約0のビリーフまで低下する第二のジェスチャに対する第二のグラフ2030を示す。プロット2010は、更に、ほぼセグメント74で約1のビリーフまで上昇し、ほぼセグメント156で止まる第三のジェスチャに対する第三のグラフ2040を示す。
プロット2010は、例えば、セグメント40周辺で正のビリーフを有する第四のグラフ2050を示す。また、第二のグラフ2030は、特にセグメント40周辺に、幾つかの下落を有する。重要なことに、セグメント40周辺の様々なポイントにおいて、ビリーフは、第二のジェスチャよりも、第四のグラフ2050のジェスチャの方が高くなっている。これらのジェスチャは、殆どの時間で正確に認識されている。また、ジェスチャの遷移が適切に検出されている。しかしながら、上述のように、特に第二のジェスチャのグラフにおいて、ビリーフはあまり安定しておらず、幾つかのポイントにおいて、他のジェスチャのグラフより低い。これは、一方又は両方の手の部分的ジェスチャが誤って認識された時に起こる。混乱は一時的なスパイクとして扱うことが可能だが、アルゴリズムは、幾つかのポイントでジェスチャが変化したと判断するかも知れない。グラフ2020、2030、2040、及び2050をそれぞれ図20(b)〜図20(e)に分離する。
1つの実施形態においては、ビリーフ伝播アルゴリズムを変更することで、これらの紛らわしいスパイクを回避する。具体的には、ルートノードの以前のビリーフに大きな重みを与えて、一時的な紛らわしい証拠(尤度)がビリーフを容易に変化させることがないようにする。
以前のビリーフに大きな重みを与えるために、該ネットワークのルートノードにメモリを追加する。これは、例えば、ルートノードの現在のビリーフを、次のステップにおける該ノードの前の確率として扱うことで行なわれる。仮説(ボキャブラリ内のジェスチャの一つが正しいジェスチャである)がHMMから受領したメッセージによって多数回強化される時、このビリーフを変えるには、多くの強力な証拠が必要となる。
しかしながら、ルートノードの前の確率を該ノードのビリーフにより置き換えることで、ジェスチャが数回反復される際に数値のアンダフローが発生する可能性がある。これにより、ジェスチャの遷移の検出には遅延が生じ得る。数値のアンダフローと紛らわしいスパイクとを回避するために、メモリを制限してよい。この制限により、ルートノードの前の確率は、特定の限界を下回らなくなる。図21を参照すると、10−3の限界を有するメモリを備えたネットワークの結果が提示されている。
図21のプロット2110では、紛らわしいスパイクが回避され、一方、遷移ポイントの検出における遅延は、数単位(セグメント)である。第一及び第二の遷移は、それぞれ、実際の遷移ポイントの一セグメント及び二セグメント後で検出される。図21は、第一、第二、及び第三のジェスチャに対応する第一のグラフ2120、第二のグラフ2130、及び第三のグラフ2140を示している。
図22を参照すると、撮像デバイス2240(例えば、CCDカメラ)は、両手動作を行う人物の一連の画像を取り込む。これらの画像は、上記のアルゴリズムを実行する計算デバイス2210へ転送される。メモリ2220は、アルゴリズムに必要な情報を記憶し、例えばデータベース等の記憶デバイス2230は、追跡及び認識アルゴリズムが必要とするトレーニング情報を記憶する。記憶デバイス2230は、更に、アルゴリズムのコードを格納してもよい。
トレーニング段階の間、閾値及び分布を含む追跡アルゴリズムのトレーニング情報は、記憶デバイス2230に格納される。提案したベイジアンネットワークのHMM及び遷移値も、トレーニングされ、記憶デバイス2230に格納される。
認識段階において、該データベースからのトレーニングされた情報は、部分的に又は完全に抽出され、メモリ2220に格納されるため、計算デバイス2210は、該情報に非常に迅速にアクセスして、リアルタイムで手を追跡し、動作を認識できる。認識の結果は、出力デバイス2250へ転送される。
図23を参照すると、プロセス2300は、両手ジェスチャを認識するために使用し得るものであり、本開示で説明した多くのステップを含んでいる。プロセス2300は、両手ジェスチャの一連の画像を受領、或いはそれらにアクセスする(2310)ことを含む。受領した画像から左手及び右手を抽出及び追跡し(2320)、両手の像一体を予測する(2330)。両手の像一体が検出され(2340)、像一体が存在する画像から両手を含む単一のブロブを抽出及び追跡する(2345)。像一体時の左手及び右手の同期を検出し(2350)、両手の挙動(互いを通過したか、或いは休止/衝突して戻ったか)を認識し(2355)、像一体終了後に左手及び右手を特定する(2360)。像一体後に左手及び右手を抽出及び追跡する(2365)。各セグメント(像一体前、像一体、及び像一体後)における動作を認識し、ジェスチャ全体を認識する(2370)。
左手及び右手の同期の検出(2350)は、一般に、二つの手の間の何らかの関係を検出することを含んでもよい。該関係は、例えば、上述のように、ブロブを囲む長方形の平行辺群の成分速度間の関係であってもよい。しかしながら、別の実施形態において、該関係は、両手又はブロブの他の特性に関係する。
プロセス2300の一変形は、両手ジェスチャ認識エンジンへのプラグインにより実行してよい。該プラグインは、ブロブを追跡すること(2345)、同期の種類を検出すること(2350)、及び像一体期間中に二つの手が移動方向を変えたかを判断することの何らかの変形を実行する。このようなプラグインは、両手の像一体に対処できないジェスチャ認識エンジンと一緒に使用してよい。このようなシナリオにおいて、該ジェスチャ認識エンジンは、両手の像一体が発生するまで左手及び右手を追跡し、次に、該プラグインを呼び出してよい。該プラグインは、ブロブを追跡し、像一体中に二つの手が方向を変えたかを判断し、次に、制御を該ジェスチャ認識エンジンに返えす。ジェスチャ認識エンジンへ制御を返す際に、プラグインは、像一体中に二つの手が方向を変えたかを、ジェスチャ認識エンジンに伝えてもよい。したがって、ジェスチャ認識エンジンは、左手及び右手を再取得し、二つの手の追跡を継続できる。
実施形態においては、二つの像が一体となった手が互いを通過したか、互いに衝突したか、或いは単に休止したかの識別を試みてもよい。休止の結果は、通常、元来た方向へ両方の手が戻る衝突の結果と同じになり得る。「休止」の速度プロフィールは、「衝突」の速度プロフィールと類似である場合があり、いかなる差異も予期されるノイズを考慮すると重要でない場合がある。しかしながら、他の実施形態は、「衝突」と「休止」とを別個に検出することを試みてもよい。
様々な実施形態において言及した方向とは、例えば、速度ベクトルの方向、或いは速度ベクトルの成分の方向を指す。速度ベクトルの方向は、例えば、左方向、右方向、上方向、下方向、又は対角線方向であるとして説明される。速度ベクトルの成分は、例えば、水平成分と垂直成分とを含んでよい。
実施形態は、単一の人物が、その人物の左手及び右手を使用して実行する両手ジェスチャの追跡に応用し得る。他の実施形態は、例えば、それぞれ片方の手を使用する二人の人間、一個以上のジェスチャデバイスを使用する一台以上のロボット、或いは、人間とロボット又は機械との組み合わせによって行われているジェスチャに対して、特に、両手協調に類似する協調が手と手の間に存在する場合に応用し得る。
実施形態は、例えば、プロセス、デバイス、又はプロセスを実施するためのデバイスを含んでよい。例えば、実施形態は、一つ以上のプロセスを実行するように構成された一個以上のデバイスを含んでよい。デバイスは、例えば、個別の、或いは統合された、ハードウェア、ファームウェア、及びソフトウェアを含んでよい。デバイスは、例えば、計算デバイス2210を含んでよく、或いは、特に、一つ以上の説明したプロセス又はその変形を実行するようにプログラムされている場合、その他の計算又は処理デバイスを含んでよい。こうした計算又は処理デバイスは、例えば、プロセッサ、集積回路、プログラム可能論理デバイス、パーソナルコンピュータ、携帯情報端末、ゲーム機、携帯電話、及びソフトウェアアプリケーションを備えたデバイスを含んでよい。
実施形態は、一つ以上のプロセスを実行する命令群を記憶した一つ以上のコンピュータ読み取り可能な媒体を備えたデバイスにおいて実現されてもよい。コンピュータ読み取り可能な媒体は、例えば、記憶デバイス2230、メモリ2220、及び命令群を符号化又は送信するフォーマットされた電磁波を含んでよい。コンピュータ読み取り可能な媒体は、例えば、ハードディスク、フラッシュメモリ、ランダムアクセスメモリ、読み出し専用メモリ、及びコンパクトディスケットといった様々な不揮発性又は揮発性メモリを含んでよい。命令群は、例えば、ハードウェア、ファームウェア、ソフトウェア、又は電磁波の形態であってよい。
したがって、計算デバイス2210は、説明した実施形態を実行するようにプログラムされた計算デバイスの実施例を表し、記憶デバイス2230は、説明した実施形態を実行するための命令群を格納するコンピュータ読み取り可能な媒体を表す。
多数の実施形態について説明したが、様々な変更を施し得ることは理解されよう。例えば、一つ以上の実施形態の要素群は、組み合わせ、削除、変更、又は補足されて更なる実施形態を形成してもよい。したがって、他の実施形態も、添付の特許請求の範囲に定義された本発明の範囲に含まれる。
両手動作を認識するための特定のシステムの主要な三要素を示す図である。 両手動作を認識するための階層の主要な三要素を示す図である。 二つの手のそれぞれを囲む長方形を示す図である。 両手の像一体がない状態で重複する図2の長方形を示す図である。 両手の像一体を生成する図2の長方形の移動の進行を示す図である。 辺によってモデリングされた図2の長方形を示す図である。 二つの長方形の交差の予測を示す図である。 二枚の連続する画像において、二つの手が相互に交換可能にラベル付けされ得るシナリオを示す図である。 両手動作の14種類のモデルを示す図である。H1及びH2は、手番号1及び手番号2を表す。太い楕円は、像一体領域を表し(a、c、d、e、f、h、i、j、及びn)、実線の小さな長方形は、衝突を表す(b、g、k、及びl)。 両手の大きなブロブの周囲に形成された像一体長方形を示す図である。 両手が互いを通過し、垂直辺を反対方向へ押しやるために、像一体長方形の垂直辺が押し戻される画像の進行を示す図である。 両手が休止/衝突して戻る場合の動作の速度変化を示す図である。 両手が互いを通過する場合の動作の速度変化を示す図である。 両手休止時の像一体長方形の辺の速度をモデリングする一連のガウス分布を示す図である。 両手通過時の像一体長方形の辺の速度をモデリングする一連のガウス分布を示す図である。 両手の動作を分離して空白の一連の画像に投影することを説明する図である。 動作の方向を表すために八個の等しい領域に分割された画像フレームを示す図である。 手の動作を示す一連の画像と、抽出された動きのベクトルとを示す図である。 ある期間に亘る両手動作のセグメント化を示す図である。セグメントA、C、及びDにおける二つの線は、分離した二つの手を示す。セグメントBにおける重なった線は、両手の像一体を示す。 両手動作の認識のための隠れマルコフモデル群を融合するベイジアンネットワークを示す図である。 両手動作を認識するための図17に基づく抽象化されたベイジアンネットワークを示す図である。 部分的ジェスチャに割り当てた二状態左右隠れマルコフモデルを示す図である。 三つの連結両手動作の、ルートノードの局所的ビリーフ(local belief)を示すグラフである。 図20(a)から特定のジェスチャに関連したグラフを取り出した図である。 図20(a)から特定のジェスチャに関連したグラフを取り出した図である。 図20(a)から特定のジェスチャに関連したグラフを取り出した図である。 図20(a)から特定のジェスチャに関連したグラフを取り出した図である。 図20(a)の三つの連結両手動作の、限定されたメモリを有するルートノードの局所的ビリーフを示すグラフである。 ハードウェア実施形態を示す図である。 両手ジェスチャを認識するためのプロセスを示す図である。

Claims (20)

  1. 像が一体となった二つの手を一つの単位として、像一体期間において該像が一体となった二つの手の動作を追跡することと、
    前記像が一体となった二つの手の前記追跡された動作に基づいて、前記像一体期間における前記二つの手の特徴である同期のタイプを検出することと、
    前記検出された同期のタイプに基づいて、前記像が一体となった二つの手のそれぞれの移動方向が、前記像一体期間中に変化したか否かを判断することと
    を含む方法。
  2. 方向が変化したか否かの前記判断は、前記像が一体となった二つの手の前記追跡された動作に更に基づいて行われる請求項1記載の方法。
  3. 方向が変化したか否かの前記判断は、前記像一体期間中に前記二つの手が互いを通過したか否かを判断することを含む請求項1記載の方法。
  4. 方向が変化したか否かの前記判断は、前記像一体期間中に前記二つの手が一回以上休止または互いに衝突したか否かを判断することを含む請求項1記載の方法。
  5. 方向が変化したか否かの前記判断は、前記二つの手がそれぞれ、前記像一体期間後、元来た方向へ戻ったか否かを判断することを含む請求項1記載の方法。
  6. 前記二つの手が元来た前記方向は、垂直方向、水平方向、及び対角線方向のうち一つ以上を含む請求項5記載の方法。
  7. 方向が変化したか否かの前記判断は、前記二つの手のそれぞれが、前記像一体期間後、元来た方向と反対の方向へ移動したか否かを判断することを含む請求項1記載の方法。
  8. 同期のタイプの前記検出は、前記二つの手が正に同期しているか、負に同期しているかを判断することを含み、
    方向が変化したか否かの前記判断は、前記二つの手が負に同期しているか否かに更に基づいて行われる請求項1記載の方法。
  9. 同期のタイプの前記検出は、前記像が一体となった二つの手の速度の値を検出することを含む請求項1記載の方法。
  10. 前記速度値は、前記像が一体となった二つの手を囲むよう形成された長方形の平行辺同士の速度の差の標準偏差を含む請求項9記載の方法。
  11. 前記像が一体となった二つの手の動作の前記追跡は、前記像が一体となった二つの手を囲むよう形成された長方形の動きを追跡することを含み、
    方向が変化したか否かの前記判断は、前記長方形の一つ以上の辺の速度に基づいて、前記像が一体となった二つの手の速度の値を検出することを含む請求項1記載の方法。
  12. 方向が変化したか否かの前記判断は、前記速度値が閾値を下回っているか否かに基づいて行われる請求項11記載の方法。
  13. 前記速度値は、前記長方形の平行辺同士の速度の二乗の和の平方根である請求項12記載の方法。
  14. 方向が変化したか否かの前記判断は、前記速度値の一つ以上の確率分布に基づいて行われる請求項11記載の方法。
  15. 前記速度値は、前記長方形の平行辺同士の速度の差である請求項14記載の方法。
  16. 前記一つ以上の確率分布は、第一の速度パターンに関連する第一の組の分布と、第二の速度パターンに関連する第二の組の分布とを含む請求項14記載の方法。
  17. 前記第一の速度パターンは、前記像一体期間中に前記二つの手が互いを通過したことを表し、前記第二の速度パターンは、前記像一体期間中に前記二つの手が互いを通過しなかったことを表す請求項16記載の方法。
  18. 方向が変化したか否かの前記判断は、
    前記第一の速度パターンが前記像が一体となった二つの手の前記速度値を生成した第一の確率を前記第一の組の分布に基づいて計算することと、
    前記第二の速度パターンが前記像が一体となった二つの手の前記速度値を生成した第二の確率を前記第二の組の分布に基づいて計算することと、
    前記第一の確率を前記第二の確率と比較することと、
    前記比較の結果に基づいて、前記像が一体となった二つの手が前記像一体期間中に互いを通過したか否かを判断することと
    を更に含む請求項17記載の方法。
  19. 像が一体となった二つの手を一つの単位として、像一体期間において該像が一体となった二つの手の動作を追跡することと、
    前記像が一体となった二つの手の前記追跡された動作に基づいて、前記像一体期間における前記二つの手の特徴である同期のタイプを検出することと、
    前記検出された同期のタイプに基づいて、前記像が一体となった二つの手のそれぞれの移動方向が、前記像一体期間中に変化したか否かを判断することと
    を少なくとも実行する命令群が格納されたコンピュータ読み取り可能な媒体を備えるデバイス。
  20. 第一の方向から来た第一の手の像と、第二の方向から来た第二の手の像とが一体となっていると判断することと、
    前記像が一体となった二つの手を一つの単位として該像が一体となった二つの手の動作を追跡することと、
    前記像が一体となった二つの手の前記追跡された動作に基づいて、前記像が一体となった二つの手の特徴である同期のタイプを検出することと、
    前記第一の手と前記第二の手とが像一体ではなくなったと判断することと、
    前記第一の手と前記第二の手とが像一体ではなくなったと判断した後、前記検出された同期のタイプに基づいて前記第一の手を前記第二の手から区別することと
    を含む方法。
JP2007508608A 2004-04-15 2005-04-15 両手動作の追跡 Expired - Fee Related JP4708422B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US56232604P 2004-04-15 2004-04-15
US60/562,326 2004-04-15
PCT/US2005/013033 WO2005104010A2 (en) 2004-04-15 2005-04-15 Tracking bimanual movements

Publications (2)

Publication Number Publication Date
JP2007533043A true JP2007533043A (ja) 2007-11-15
JP4708422B2 JP4708422B2 (ja) 2011-06-22

Family

ID=35197616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007508608A Expired - Fee Related JP4708422B2 (ja) 2004-04-15 2005-04-15 両手動作の追跡

Country Status (5)

Country Link
US (3) US7379563B2 (ja)
EP (1) EP1743277A4 (ja)
JP (1) JP4708422B2 (ja)
CN (1) CN100573548C (ja)
WO (1) WO2005104010A2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007122218A (ja) * 2005-10-26 2007-05-17 Fuji Xerox Co Ltd 画像分析装置
JP2007148663A (ja) * 2005-11-25 2007-06-14 Sony Corp オブジェクト追跡装置及びオブジェクト追跡方法、並びにプログラム
JP2008237913A (ja) * 2007-03-27 2008-10-09 Medison Co Ltd 超音波システム
JP2009252105A (ja) * 2008-04-09 2009-10-29 Denso Corp プロンプター式操作装置
WO2011033922A1 (ja) * 2009-09-16 2011-03-24 ブラザー工業株式会社 入力システム、入力装置及び入力方法
JP2013519933A (ja) * 2010-02-10 2013-05-30 アイデント・テクノロジー・アーゲー 3次元移動空間におけるジェスチャの非接触検出および認識のためのシステムおよび方法
JP2013524354A (ja) * 2010-04-01 2013-06-17 クゥアルコム・インコーポレイテッド コンピューティングデバイスインターフェース
JP2014113225A (ja) * 2012-12-07 2014-06-26 Hiroshima Univ 人体運動評価装置、方法、およびプログラム
JP2015507261A (ja) * 2011-12-21 2015-03-05 ユニヴェルシテ・ピエール・エ・マリ・キュリ・(パリ・6) 非同期光センサに基づいてオプティカルフローを推定する方法
JP2015170206A (ja) * 2014-03-07 2015-09-28 富士通株式会社 検出装置および検出方法

Families Citing this family (432)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US8300042B2 (en) * 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
AU2003301043A1 (en) 2002-12-13 2004-07-09 Reactrix Systems Interactive directed light/sound system
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8984440B2 (en) 2010-10-01 2015-03-17 Z124 Managing expose views in dual display communication devices
US9182937B2 (en) 2010-10-01 2015-11-10 Z124 Desktop reveal by moving a logical display stack with gestures
US7038661B2 (en) * 2003-06-13 2006-05-02 Microsoft Corporation Pointing device and cursor for use in intelligent computing environments
JP4794453B2 (ja) * 2003-10-24 2011-10-19 インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー インタラクティブ・ビデオ・ディスプレイ・システムを管理する方法及びシステム
US7536032B2 (en) 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US20050227217A1 (en) * 2004-03-31 2005-10-13 Wilson Andrew D Template matching on interactive surface
CN100573548C (zh) 2004-04-15 2009-12-23 格斯图尔泰克股份有限公司 跟踪双手运动的方法和设备
US7394459B2 (en) 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
JP4172793B2 (ja) * 2004-06-08 2008-10-29 株式会社東芝 ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置
US7787706B2 (en) * 2004-06-14 2010-08-31 Microsoft Corporation Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface
US7593593B2 (en) * 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US8560972B2 (en) 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
JP3970877B2 (ja) * 2004-12-02 2007-09-05 独立行政法人産業技術総合研究所 追跡装置および追跡方法
CN101622630B (zh) * 2005-01-07 2012-07-04 高通股份有限公司 检测和跟踪图像中的物体
US7598942B2 (en) * 2005-02-08 2009-10-06 Oblong Industries, Inc. System and method for gesture based control system
US8111873B2 (en) * 2005-03-18 2012-02-07 Cognimatics Ab Method for tracking objects in a scene
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US8081822B1 (en) * 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
US7911444B2 (en) 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
US8060840B2 (en) * 2005-12-29 2011-11-15 Microsoft Corporation Orientation free user interface
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8537112B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9910497B2 (en) * 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
US8537111B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
TW200805111A (en) * 2006-07-14 2008-01-16 Asustek Comp Inc Method for controlling the function of application software and computer readable recording medium for storing program thereof
US7907117B2 (en) * 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
KR100783552B1 (ko) * 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
US8356254B2 (en) * 2006-10-25 2013-01-15 International Business Machines Corporation System and method for interacting with a display
JP4771543B2 (ja) * 2006-11-14 2011-09-14 国立大学法人電気通信大学 物体認識システム、物体認識方法及び物体認識ロボット
KR100790896B1 (ko) * 2006-11-17 2008-01-03 삼성전자주식회사 촬상부의 움직임을 이용한 어플리케이션의 제어 방법 및장치
WO2008070012A2 (en) * 2006-12-01 2008-06-12 Thomson Licensing Estimating a location of an object in an image
US20080156989A1 (en) * 2006-12-28 2008-07-03 O2Micro Inc. Motion sensing/recognition by camera applications
JP4934810B2 (ja) * 2006-12-28 2012-05-23 国立大学法人九州工業大学 モーションキャプチャ方法
US8212857B2 (en) 2007-01-26 2012-07-03 Microsoft Corporation Alternating light sources to reduce specular reflection
US8005238B2 (en) 2007-03-22 2011-08-23 Microsoft Corporation Robust adaptive beamforming with enhanced noise suppression
US20080252596A1 (en) * 2007-04-10 2008-10-16 Matthew Bell Display Using a Three-Dimensional vision System
US8577126B2 (en) * 2007-04-11 2013-11-05 Irobot Corporation System and method for cooperative remote vehicle behavior
EP2150893A4 (en) 2007-04-24 2012-08-22 Oblong Ind Inc PROTEINS, POOLS AND SLAWX IN PROCESSING ENVIRONMENTS
WO2008137708A1 (en) * 2007-05-04 2008-11-13 Gesturetek, Inc. Camera-based user input for compact devices
US8005237B2 (en) 2007-05-17 2011-08-23 Microsoft Corp. Sensor array beamformer post-processor
CN101836207B (zh) * 2007-08-20 2017-03-01 高通股份有限公司 超出词汇的词的增强的拒绝
US9261979B2 (en) * 2007-08-20 2016-02-16 Qualcomm Incorporated Gesture-based mobile interaction
KR101141087B1 (ko) 2007-09-14 2012-07-12 인텔렉츄얼 벤처스 홀딩 67 엘엘씨 제스처-기반 사용자 상호작용의 프로세싱
US8629976B2 (en) 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
JP5228439B2 (ja) * 2007-10-22 2013-07-03 三菱電機株式会社 操作入力装置
US8005263B2 (en) * 2007-10-26 2011-08-23 Honda Motor Co., Ltd. Hand sign recognition using label assignment
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
US9171454B2 (en) * 2007-11-14 2015-10-27 Microsoft Technology Licensing, Llc Magic wand
WO2009085233A2 (en) * 2007-12-21 2009-07-09 21Ct, Inc. System and method for visually tracking with occlusions
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8113991B2 (en) * 2008-06-02 2012-02-14 Omek Interactive, Ltd. Method and system for interactive fitness training program
US8595218B2 (en) 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
KR101652535B1 (ko) * 2008-06-18 2016-08-30 오블롱 인더스트리즈, 인크 차량 인터페이스를 위한 제스처 기반 제어 시스템
US8385557B2 (en) 2008-06-19 2013-02-26 Microsoft Corporation Multichannel acoustic echo reduction
US8325909B2 (en) 2008-06-25 2012-12-04 Microsoft Corporation Acoustic echo suppression
US8194921B2 (en) * 2008-06-27 2012-06-05 Nokia Corporation Method, appartaus and computer program product for providing gesture analysis
US8203699B2 (en) 2008-06-30 2012-06-19 Microsoft Corporation System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US8847739B2 (en) 2008-08-04 2014-09-30 Microsoft Corporation Fusing RFID and vision for surface object tracking
US20110137836A1 (en) * 2008-09-19 2011-06-09 Hiroyuki Kuriyama Method and system for generating history of behavior
US20100105479A1 (en) 2008-10-23 2010-04-29 Microsoft Corporation Determining orientation in an external reference frame
DE102008052928A1 (de) * 2008-10-23 2010-05-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zur Erkennung einer Geste in einem Bild, sowie Vorrichtung, Verfahren und Computerprogramm zur Steuerung eines Geräts
US9383814B1 (en) 2008-11-12 2016-07-05 David G. Capper Plug and play wireless video game
US9586135B1 (en) 2008-11-12 2017-03-07 David G. Capper Video motion capture for wireless gaming
US10086262B1 (en) 2008-11-12 2018-10-02 David G. Capper Video motion capture for wireless gaming
US8681321B2 (en) 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
US8577085B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8448094B2 (en) * 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US20100199231A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US9652030B2 (en) 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8267781B2 (en) 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US8565477B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8487938B2 (en) 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8565476B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8624962B2 (en) 2009-02-02 2014-01-07 Ydreams—Informatica, S.A. Ydreams Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
EP2399243A4 (en) * 2009-02-17 2013-07-24 Omek Interactive Ltd METHOD AND SYSTEM FOR RECOGNIZING GESTURE
US8517834B2 (en) * 2009-02-17 2013-08-27 Softkinetic Studios Sa Computer videogame system with body position detector that requires user to assume various body positions
US8423182B2 (en) 2009-03-09 2013-04-16 Intuitive Surgical Operations, Inc. Adaptable integrated energy control system for electrosurgical tools in robotic surgical systems
US8773355B2 (en) 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US9313376B1 (en) 2009-04-01 2016-04-12 Microsoft Technology Licensing, Llc Dynamic depth power equalization
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US9498718B2 (en) 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US9377857B2 (en) * 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US8660303B2 (en) 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US8638985B2 (en) * 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US9015638B2 (en) 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US9417700B2 (en) * 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US9182814B2 (en) 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8542252B2 (en) * 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US20100302365A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Depth Image Noise Reduction
US20100306685A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation User movement feedback via on-screen avatars
US8487871B2 (en) 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US8264536B2 (en) 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
US9141193B2 (en) 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US8508919B2 (en) 2009-09-14 2013-08-13 Microsoft Corporation Separation of electrical and optical components
US8330134B2 (en) 2009-09-14 2012-12-11 Microsoft Corporation Optical fault monitoring
US8976986B2 (en) 2009-09-21 2015-03-10 Microsoft Technology Licensing, Llc Volume adjustment based on listener position
US8760571B2 (en) 2009-09-21 2014-06-24 Microsoft Corporation Alignment of lens and image sensor
US8428340B2 (en) 2009-09-21 2013-04-23 Microsoft Corporation Screen space plane identification
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US8452087B2 (en) * 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
US8723118B2 (en) 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US9400548B2 (en) 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US8698888B2 (en) * 2009-10-30 2014-04-15 Medical Motion, Llc Systems and methods for comprehensive human movement analysis
US8988432B2 (en) 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
KR20110055062A (ko) * 2009-11-19 2011-05-25 삼성전자주식회사 로봇 시스템 및 그 제어 방법
US8843857B2 (en) 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US8325136B2 (en) 2009-12-01 2012-12-04 Raytheon Company Computer display pointer device for a display
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
US8631355B2 (en) 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US9019201B2 (en) 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US9268404B2 (en) 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8933884B2 (en) 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8676581B2 (en) 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
US8265341B2 (en) 2010-01-25 2012-09-11 Microsoft Corporation Voice-body identity correlation
US20110187678A1 (en) * 2010-01-29 2011-08-04 Tyco Electronics Corporation Touch system using optical components to image multiple fields of view on an image sensor
US8864581B2 (en) 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US8891067B2 (en) 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems
US8619122B2 (en) 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8687044B2 (en) 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
US8717469B2 (en) 2010-02-03 2014-05-06 Microsoft Corporation Fast gating photosurface
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8499257B2 (en) 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US8522308B2 (en) * 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
US20110199302A1 (en) * 2010-02-16 2011-08-18 Microsoft Corporation Capturing screen objects using a collision volume
US8633890B2 (en) 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
US8928579B2 (en) 2010-02-22 2015-01-06 Andrew David Wilson Interacting with an omni-directionally projected display
US8411948B2 (en) 2010-03-05 2013-04-02 Microsoft Corporation Up-sampling binary images for segmentation
US8422769B2 (en) 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
US8655069B2 (en) 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
US20110223995A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US8279418B2 (en) 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US8213680B2 (en) 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US8514269B2 (en) 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
US8523667B2 (en) 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
US8605763B2 (en) 2010-03-31 2013-12-10 Microsoft Corporation Temperature measurement and control for laser and light-emitting diodes
US9098873B2 (en) 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
EP4053760A1 (en) 2010-04-09 2022-09-07 Zoll Medical Corporation Systems and methods for ems device communications interface
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
US8379919B2 (en) 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
US8593402B2 (en) 2010-04-30 2013-11-26 Verizon Patent And Licensing Inc. Spatial-input-based cursor projection systems and methods
US8284847B2 (en) 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
WO2011138775A1 (en) * 2010-05-04 2011-11-10 Timocco Ltd. System and method for tracking and mapping an object to a target
US8498481B2 (en) 2010-05-07 2013-07-30 Microsoft Corporation Image segmentation using star-convexity constraints
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US20110289455A1 (en) * 2010-05-18 2011-11-24 Microsoft Corporation Gestures And Gesture Recognition For Manipulating A User-Interface
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8803888B2 (en) 2010-06-02 2014-08-12 Microsoft Corporation Recognition system for sharing information
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US9008355B2 (en) 2010-06-04 2015-04-14 Microsoft Technology Licensing, Llc Automatic depth camera aiming
US9557574B2 (en) 2010-06-08 2017-01-31 Microsoft Technology Licensing, Llc Depth illumination and detection optics
US8330822B2 (en) 2010-06-09 2012-12-11 Microsoft Corporation Thermally-tuned depth camera light source
US9384329B2 (en) 2010-06-11 2016-07-05 Microsoft Technology Licensing, Llc Caloric burn determination from body movement
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
US8675981B2 (en) 2010-06-11 2014-03-18 Microsoft Corporation Multi-modal gender recognition including depth data
US8982151B2 (en) 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
US8558873B2 (en) 2010-06-16 2013-10-15 Microsoft Corporation Use of wavefront coding to create a depth image
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US8416187B2 (en) 2010-06-22 2013-04-09 Microsoft Corporation Item navigation using motion-capture data
JP5601045B2 (ja) * 2010-06-24 2014-10-08 ソニー株式会社 ジェスチャ認識装置、ジェスチャ認識方法およびプログラム
CN101901339B (zh) * 2010-07-30 2012-11-14 华南理工大学 人手运动检测方法
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US8613666B2 (en) 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
US9167289B2 (en) 2010-09-02 2015-10-20 Verizon Patent And Licensing Inc. Perspective display systems and methods
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8437506B2 (en) 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
US20120058824A1 (en) 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
US8988508B2 (en) 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
US20120084736A1 (en) 2010-10-01 2012-04-05 Flextronics Id, Llc Gesture controlled screen repositioning for one or more displays
US8548270B2 (en) 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
US9484065B2 (en) 2010-10-15 2016-11-01 Microsoft Technology Licensing, Llc Intelligent determination of replays based on event identification
US8957856B2 (en) 2010-10-21 2015-02-17 Verizon Patent And Licensing Inc. Systems, methods, and apparatuses for spatial input associated with a display
US8592739B2 (en) 2010-11-02 2013-11-26 Microsoft Corporation Detection of configuration changes of an optical element in an illumination system
US8866889B2 (en) 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
US8667519B2 (en) 2010-11-12 2014-03-04 Microsoft Corporation Automatic passive and anonymous feedback system
US10726861B2 (en) 2010-11-15 2020-07-28 Microsoft Technology Licensing, Llc Semi-private communication in open environments
US8730157B2 (en) * 2010-11-15 2014-05-20 Hewlett-Packard Development Company, L.P. Hand pose recognition
US9349040B2 (en) 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
US10234545B2 (en) 2010-12-01 2019-03-19 Microsoft Technology Licensing, Llc Light source module
US8553934B2 (en) 2010-12-08 2013-10-08 Microsoft Corporation Orienting the position of a sensor
US8618405B2 (en) 2010-12-09 2013-12-31 Microsoft Corp. Free-space gesture musical instrument digital interface (MIDI) controller
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8884968B2 (en) 2010-12-15 2014-11-11 Microsoft Corporation Modeling an object from image data
US8920241B2 (en) 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
US8448056B2 (en) 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US8994718B2 (en) 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
US8385596B2 (en) 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US9821224B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Driving simulator control with virtual skeleton
US9848106B2 (en) 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US9823339B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
US9123316B2 (en) 2010-12-27 2015-09-01 Microsoft Technology Licensing, Llc Interactive content creation
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
US8811663B2 (en) * 2011-01-05 2014-08-19 International Business Machines Corporation Object detection in crowded scenes
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US9247238B2 (en) 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US8724887B2 (en) 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US8497838B2 (en) 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
CN102096471B (zh) * 2011-02-18 2013-04-10 广东威创视讯科技股份有限公司 一种基于机器视觉的人机交互方法
US9551914B2 (en) 2011-03-07 2017-01-24 Microsoft Technology Licensing, Llc Illuminator with refractive optical element
US9067136B2 (en) 2011-03-10 2015-06-30 Microsoft Technology Licensing, Llc Push personalization of interface controls
US8571263B2 (en) 2011-03-17 2013-10-29 Microsoft Corporation Predicting joint positions
US9470778B2 (en) 2011-03-29 2016-10-18 Microsoft Technology Licensing, Llc Learning from high quality depth measurements
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
US8503494B2 (en) 2011-04-05 2013-08-06 Microsoft Corporation Thermal management system
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US9259643B2 (en) 2011-04-28 2016-02-16 Microsoft Technology Licensing, Llc Control of separate computer game elements
US8702507B2 (en) 2011-04-28 2014-04-22 Microsoft Corporation Manual and camera-based avatar control
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US8888331B2 (en) 2011-05-09 2014-11-18 Microsoft Corporation Low inductance light source module
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9137463B2 (en) 2011-05-12 2015-09-15 Microsoft Technology Licensing, Llc Adaptive high dynamic range camera
US8788973B2 (en) 2011-05-23 2014-07-22 Microsoft Corporation Three-dimensional gesture controlled avatar configuration interface
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US9594430B2 (en) 2011-06-01 2017-03-14 Microsoft Technology Licensing, Llc Three-dimensional foreground selection for vision system
US8526734B2 (en) 2011-06-01 2013-09-03 Microsoft Corporation Three-dimensional background removal for vision system
US10796494B2 (en) 2011-06-06 2020-10-06 Microsoft Technology Licensing, Llc Adding attributes to virtual representations of real-world objects
US9724600B2 (en) 2011-06-06 2017-08-08 Microsoft Technology Licensing, Llc Controlling objects in a virtual environment
US8597142B2 (en) 2011-06-06 2013-12-03 Microsoft Corporation Dynamic camera based practice mode
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US9098110B2 (en) 2011-06-06 2015-08-04 Microsoft Technology Licensing, Llc Head rotation tracking from depth-based center of mass
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
US8786730B2 (en) 2011-08-18 2014-07-22 Microsoft Corporation Image exposure using exclusion regions
KR101189633B1 (ko) * 2011-08-22 2012-10-10 성균관대학교산학협력단 손가락 움직임에 따른 포인터 제어명령어 인식 방법 및 손가락 움직임에 따라 포인터를 제어하는 모바일 단말
US9557836B2 (en) 2011-11-01 2017-01-31 Microsoft Technology Licensing, Llc Depth image compression
US9117281B2 (en) 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
JP5607012B2 (ja) * 2011-11-04 2014-10-15 本田技研工業株式会社 手話動作生成装置及びコミュニケーションロボット
US8854426B2 (en) 2011-11-07 2014-10-07 Microsoft Corporation Time-of-flight camera with guided light
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US8724906B2 (en) 2011-11-18 2014-05-13 Microsoft Corporation Computing pose and/or shape of modifiable entities
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US9072929B1 (en) * 2011-12-01 2015-07-07 Nebraska Global Investment Company, LLC Image capture system
US8958631B2 (en) 2011-12-02 2015-02-17 Intel Corporation System and method for automatically defining and identifying a gesture
CN103135756B (zh) * 2011-12-02 2016-05-11 深圳泰山体育科技股份有限公司 生成控制指令的方法和系统
US8803800B2 (en) 2011-12-02 2014-08-12 Microsoft Corporation User interface control based on head orientation
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US8971612B2 (en) 2011-12-15 2015-03-03 Microsoft Corporation Learning image processing tasks from scene reconstructions
US8879831B2 (en) 2011-12-15 2014-11-04 Microsoft Corporation Using high-level attributes to guide image processing
US8630457B2 (en) 2011-12-15 2014-01-14 Microsoft Corporation Problem states for pose tracking pipeline
US9110502B2 (en) * 2011-12-16 2015-08-18 Ryan Fink Motion sensing display apparatuses
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9342139B2 (en) 2011-12-19 2016-05-17 Microsoft Technology Licensing, Llc Pairing a computing device to a user
US8971571B1 (en) * 2012-01-06 2015-03-03 Google Inc. Visual completion
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
US9336456B2 (en) 2012-01-25 2016-05-10 Bruno Delean Systems, methods and computer program products for identifying objects in video data
US20130253375A1 (en) * 2012-03-21 2013-09-26 Henry Nardus Dreifus Automated Method Of Detecting Neuromuscular Performance And Comparative Measurement Of Health Factors
GB2500416B8 (en) * 2012-03-21 2017-06-14 Sony Computer Entertainment Europe Ltd Apparatus and method of augmented reality interaction
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
KR101370022B1 (ko) * 2012-05-02 2014-03-25 주식회사 매크론 동작 인식 리모트 컨트롤러
US9210401B2 (en) 2012-05-03 2015-12-08 Microsoft Technology Licensing, Llc Projected visual cues for guiding physical movement
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US9588582B2 (en) 2013-09-17 2017-03-07 Medibotics Llc Motion recognition clothing (TM) with two different sets of tubes spanning a body joint
EP2864961A4 (en) 2012-06-21 2016-03-23 Microsoft Technology Licensing Llc AVATAR CONSTRUCTION USING A DEPTH CAMERA
US9836590B2 (en) 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
US9697418B2 (en) 2012-07-09 2017-07-04 Qualcomm Incorporated Unsupervised movement detection and gesture recognition
US9305229B2 (en) 2012-07-30 2016-04-05 Bruno Delean Method and system for vision based interfacing with a computer
US9696427B2 (en) 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
JP5652445B2 (ja) * 2012-08-31 2015-01-14 株式会社安川電機 ロボット
CN109846553B (zh) 2012-09-17 2022-03-08 直观外科手术操作公司 针对远程操作的手术器械功能分配输入设备的方法和系统
US9911166B2 (en) 2012-09-28 2018-03-06 Zoll Medical Corporation Systems and methods for three-dimensional interaction monitoring in an EMS environment
TWI475422B (zh) * 2012-10-31 2015-03-01 Wistron Corp 手勢辨識方法與電子裝置
US10864048B2 (en) 2012-11-02 2020-12-15 Intuitive Surgical Operations, Inc. Flux disambiguation for teleoperated surgical systems
US10631939B2 (en) 2012-11-02 2020-04-28 Intuitive Surgical Operations, Inc. Systems and methods for mapping flux supply paths
US8882310B2 (en) 2012-12-10 2014-11-11 Microsoft Corporation Laser die light source module with low inductance
TWI454968B (zh) 2012-12-24 2014-10-01 Ind Tech Res Inst 三維互動裝置及其操控方法
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9251590B2 (en) 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
US20140210707A1 (en) * 2013-01-25 2014-07-31 Leap Motion, Inc. Image capture system and method
US9785228B2 (en) 2013-02-11 2017-10-10 Microsoft Technology Licensing, Llc Detecting natural user-input engagement
US9052746B2 (en) 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9558555B2 (en) 2013-02-22 2017-01-31 Leap Motion, Inc. Adjusting motion capture based on the distance between tracked objects
US9158381B2 (en) 2013-02-25 2015-10-13 Honda Motor Co., Ltd. Multi-resolution gesture recognition
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US9274606B2 (en) 2013-03-14 2016-03-01 Microsoft Technology Licensing, Llc NUI video conference controls
US9704350B1 (en) 2013-03-14 2017-07-11 Harmonix Music Systems, Inc. Musical combat game
WO2014200589A2 (en) 2013-03-15 2014-12-18 Leap Motion, Inc. Determining positional information for an object in space
US9733715B2 (en) 2013-03-15 2017-08-15 Leap Motion, Inc. Resource-responsive motion capture
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US9953213B2 (en) 2013-03-27 2018-04-24 Microsoft Technology Licensing, Llc Self discovery of autonomous NUI devices
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9442186B2 (en) 2013-05-13 2016-09-13 Microsoft Technology Licensing, Llc Interference reduction for TOF systems
US9829984B2 (en) * 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
CN103257713B (zh) * 2013-05-31 2016-05-04 华南理工大学 一种手势控制方法
CN105612475B (zh) * 2013-08-07 2020-02-11 耐克创新有限合伙公司 具有姿态识别和功率管理的腕戴式运动装置
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US10846942B1 (en) 2013-08-29 2020-11-24 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US9462253B2 (en) 2013-09-23 2016-10-04 Microsoft Technology Licensing, Llc Optical modules that reduce speckle contrast and diffraction artifacts
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9443310B2 (en) 2013-10-09 2016-09-13 Microsoft Technology Licensing, Llc Illumination modules that emit structured light
US10152136B2 (en) * 2013-10-16 2018-12-11 Leap Motion, Inc. Velocity field interaction for free space gesture interface and control
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US20150123890A1 (en) * 2013-11-04 2015-05-07 Microsoft Corporation Two hand natural user input
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US9769459B2 (en) 2013-11-12 2017-09-19 Microsoft Technology Licensing, Llc Power efficient laser diode driver circuit and method
US9508385B2 (en) 2013-11-21 2016-11-29 Microsoft Technology Licensing, Llc Audio-visual project generator
US9891712B2 (en) 2013-12-16 2018-02-13 Leap Motion, Inc. User-defined virtual interaction space and manipulation of virtual cameras with vectors
CN103645807B (zh) * 2013-12-23 2017-08-25 努比亚技术有限公司 空中姿态输入方法和装置
US9607319B2 (en) 2013-12-30 2017-03-28 Adtile Technologies, Inc. Motion and gesture-based mobile advertising activation
US9971491B2 (en) 2014-01-09 2018-05-15 Microsoft Technology Licensing, Llc Gesture library for natural user input
US9740923B2 (en) * 2014-01-15 2017-08-22 Lenovo (Singapore) Pte. Ltd. Image gestures for edge input
RU2014109439A (ru) * 2014-03-12 2015-09-20 ЭлЭсАй Корпорейшн Процессор изображений, содержащий систему распознавания жестов с сопоставлением положения руки, основываясь на признаках контура
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
US10166061B2 (en) 2014-03-17 2019-01-01 Intuitive Surgical Operations, Inc. Teleoperated surgical system equipment with user interface
RU2014113049A (ru) * 2014-04-03 2015-10-10 ЭлЭсАй Корпорейшн Процессор изображений, содержащий систему распознавания жестов со слежением за объектом на основании вычислительных признаков контуров для двух или более объектов
WO2015160849A1 (en) * 2014-04-14 2015-10-22 Motionsavvy, Inc. Systems and methods for recognition and translation of gestures
CN204480228U (zh) 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
US20160085312A1 (en) * 2014-09-24 2016-03-24 Ncku Research And Development Foundation Gesture recognition system
WO2016183020A1 (en) * 2015-05-11 2016-11-17 Magic Leap, Inc. Devices, methods and systems for biometric user recognition utilizing neural networks
US10437463B2 (en) 2015-10-16 2019-10-08 Lumini Corporation Motion-based graphical input system
CN106650554A (zh) * 2015-10-30 2017-05-10 成都理想境界科技有限公司 静态手势识别方法
WO2017104272A1 (ja) * 2015-12-18 2017-06-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10412280B2 (en) 2016-02-10 2019-09-10 Microsoft Technology Licensing, Llc Camera with light valve over sensor array
US10257932B2 (en) 2016-02-16 2019-04-09 Microsoft Technology Licensing, Llc. Laser diode chip on printed circuit board
EP3427192A4 (en) 2016-03-11 2019-03-27 Magic Leap, Inc. STRUCTURAL LEARNING IN NEURAL FOLDING NETWORKS
US10462452B2 (en) 2016-03-16 2019-10-29 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
US9684822B1 (en) * 2016-04-08 2017-06-20 International Business Machines Corporation Mechanism to create pattern gesture transmissions to create device-sourcing emergency information
CN105912727B (zh) * 2016-05-18 2019-02-15 电子科技大学 一种在线社交网络标注系统中的快速推荐方法
US10981060B1 (en) 2016-05-24 2021-04-20 Out of Sight Vision Systems LLC Collision avoidance system for room scale virtual reality system
US10650591B1 (en) 2016-05-24 2020-05-12 Out of Sight Vision Systems LLC Collision avoidance system for head mounted display utilized in room scale virtual reality system
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold
US20180088671A1 (en) * 2016-09-27 2018-03-29 National Kaohsiung University Of Applied Sciences 3D Hand Gesture Image Recognition Method and System Thereof
CN106570490B (zh) * 2016-11-15 2019-07-16 华南理工大学 一种基于快速聚类的行人实时跟踪方法
US10437342B2 (en) 2016-12-05 2019-10-08 Youspace, Inc. Calibration systems and methods for depth-based interfaces with disparate fields of view
US10303259B2 (en) 2017-04-03 2019-05-28 Youspace, Inc. Systems and methods for gesture-based interaction
US10303417B2 (en) 2017-04-03 2019-05-28 Youspace, Inc. Interactive systems for depth-based input
US11164378B1 (en) 2016-12-08 2021-11-02 Out of Sight Vision Systems LLC Virtual reality detection and projection system for use with a head mounted display
US9983687B1 (en) 2017-01-06 2018-05-29 Adtile Technologies Inc. Gesture-controlled augmented reality experience using a mobile communications device
EP3707693A1 (en) * 2017-11-08 2020-09-16 Signall Technologies Zrt Computer vision based sign language interpreter
IL256288B (en) 2017-12-07 2019-02-28 Ophir Yoav Mutual interctivity between mobile devices based on position and orientation
CN108549489B (zh) * 2018-04-27 2019-12-13 哈尔滨拓博科技有限公司 一种基于手部形态、姿态、位置及运动特征的手势控制方法和系统
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
US10642369B2 (en) * 2018-06-14 2020-05-05 Dell Products, L.P. Distinguishing between one-handed and two-handed gesture sequences in virtual, augmented, and mixed reality (xR) applications
US11068530B1 (en) * 2018-11-02 2021-07-20 Shutterstock, Inc. Context-based image selection for electronic media
JP7385681B2 (ja) 2019-05-21 2023-11-22 マジック リープ, インコーポレイテッド 手姿勢推定
CN112733577A (zh) * 2019-10-28 2021-04-30 富士通株式会社 检测手部动作的方法和装置
US11925863B2 (en) 2020-09-18 2024-03-12 Snap Inc. Tracking hand gestures for interactive game control in augmented reality
EP4320502A1 (en) * 2021-04-08 2024-02-14 Snap, Inc. Bimanual interactions between mapped hand regions for controlling virtual and graphical elements
EP4327185A1 (en) 2021-04-19 2024-02-28 Snap, Inc. Hand gestures for animating and controlling virtual and graphical elements

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11174948A (ja) * 1997-09-26 1999-07-02 Matsushita Electric Ind Co Ltd 手動作認識装置

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4746770A (en) 1987-02-17 1988-05-24 Sensor Frame Incorporated Method and apparatus for isolating and manipulating graphic objects on computer video monitor
US5164992A (en) 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5982352A (en) 1992-09-18 1999-11-09 Pryor; Timothy R. Method for providing human input to a computer
US6008800A (en) 1992-09-18 1999-12-28 Pryor; Timothy R. Man machine interfaces for entering data into a computer
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
JPH08179888A (ja) 1994-12-21 1996-07-12 Hitachi Ltd 大画面ディスプレイ用入力装置
US5710833A (en) 1995-04-20 1998-01-20 Massachusetts Institute Of Technology Detection, recognition and coding of complex objects using probabilistic eigenspace analysis
US6526156B1 (en) 1997-01-10 2003-02-25 Xerox Corporation Apparatus and method for identifying and tracking objects with view-based representations
JP3876942B2 (ja) 1997-06-13 2007-02-07 株式会社ワコム 光デジタイザ
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
EP0905644A3 (en) * 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
JP3795647B2 (ja) * 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
JP4033582B2 (ja) 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
US6204852B1 (en) * 1998-12-09 2001-03-20 Lucent Technologies Inc. Video hand image three-dimensional computer interface
US6147678A (en) * 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US6791531B1 (en) 1999-06-07 2004-09-14 Dot On, Inc. Device and method for cursor motion control calibration and object selection
JP4332649B2 (ja) * 1999-06-08 2009-09-16 独立行政法人情報通信研究機構 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
US6275214B1 (en) 1999-07-06 2001-08-14 Karl C. Hansen Computer presentation system and method with optical tracking of wireless pointer
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
JP4059620B2 (ja) 2000-09-20 2008-03-12 株式会社リコー 座標検出方法、座標入力/検出装置及び記憶媒体
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US6774889B1 (en) * 2000-10-24 2004-08-10 Microsoft Corporation System and method for transforming an ordinary computer monitor screen into a touch screen
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US6594616B2 (en) * 2001-06-18 2003-07-15 Microsoft Corporation System and method for providing a mobile input device
US6977643B2 (en) * 2002-01-10 2005-12-20 International Business Machines Corporation System and method implementing non-physical pointers for computer devices
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US20050122308A1 (en) 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
DE60326391D1 (de) 2002-11-07 2009-04-09 Honda Motor Co Ltd Clustern von erscheinungsbildern von objekten unter verschiedenen beleuchtungsbedingungen
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP2007506342A (ja) 2003-09-23 2007-03-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 受信器に対するロバストな初期同期
US7536032B2 (en) 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
JP4794453B2 (ja) 2003-10-24 2011-10-19 インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー インタラクティブ・ビデオ・ディスプレイ・システムを管理する方法及びシステム
JP2005203873A (ja) * 2004-01-13 2005-07-28 Alps Electric Co Ltd パッチアンテナ
CN100573548C (zh) 2004-04-15 2009-12-23 格斯图尔泰克股份有限公司 跟踪双手运动的方法和设备
US7432917B2 (en) * 2004-06-16 2008-10-07 Microsoft Corporation Calibration of an interactive display system
US7454039B2 (en) * 2004-07-12 2008-11-18 The Board Of Trustees Of The University Of Illinois Method of performing shape localization

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11174948A (ja) * 1997-09-26 1999-07-02 Matsushita Electric Ind Co Ltd 手動作認識装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007122218A (ja) * 2005-10-26 2007-05-17 Fuji Xerox Co Ltd 画像分析装置
JP2007148663A (ja) * 2005-11-25 2007-06-14 Sony Corp オブジェクト追跡装置及びオブジェクト追跡方法、並びにプログラム
JP4682820B2 (ja) * 2005-11-25 2011-05-11 ソニー株式会社 オブジェクト追跡装置及びオブジェクト追跡方法、並びにプログラム
JP2008237913A (ja) * 2007-03-27 2008-10-09 Medison Co Ltd 超音波システム
JP2009252105A (ja) * 2008-04-09 2009-10-29 Denso Corp プロンプター式操作装置
WO2011033922A1 (ja) * 2009-09-16 2011-03-24 ブラザー工業株式会社 入力システム、入力装置及び入力方法
JP2013519933A (ja) * 2010-02-10 2013-05-30 アイデント・テクノロジー・アーゲー 3次元移動空間におけるジェスチャの非接触検出および認識のためのシステムおよび方法
US9921690B2 (en) 2010-02-10 2018-03-20 Microchip Technology Germany Gmbh System and method for contactless detection and recognition of gestures in a three-dimensional space
JP2013524354A (ja) * 2010-04-01 2013-06-17 クゥアルコム・インコーポレイテッド コンピューティングデバイスインターフェース
JP2015507261A (ja) * 2011-12-21 2015-03-05 ユニヴェルシテ・ピエール・エ・マリ・キュリ・(パリ・6) 非同期光センサに基づいてオプティカルフローを推定する方法
JP2014113225A (ja) * 2012-12-07 2014-06-26 Hiroshima Univ 人体運動評価装置、方法、およびプログラム
JP2015170206A (ja) * 2014-03-07 2015-09-28 富士通株式会社 検出装置および検出方法

Also Published As

Publication number Publication date
EP1743277A4 (en) 2011-07-06
JP4708422B2 (ja) 2011-06-22
CN101073089A (zh) 2007-11-14
US20050238201A1 (en) 2005-10-27
US20120293408A1 (en) 2012-11-22
US20080219502A1 (en) 2008-09-11
EP1743277A2 (en) 2007-01-17
CN100573548C (zh) 2009-12-23
US7379563B2 (en) 2008-05-27
WO2005104010A3 (en) 2007-05-31
US8515132B2 (en) 2013-08-20
WO2005104010A2 (en) 2005-11-03
US8259996B2 (en) 2012-09-04

Similar Documents

Publication Publication Date Title
JP4708422B2 (ja) 両手動作の追跡
Athira et al. A signer independent sign language recognition with co-articulation elimination from live videos: an Indian scenario
JP6625220B2 (ja) シーン内のオブジェクトのアクションを検出する方法及びシステム
Ribeiro et al. Human activity recognition from video: modeling, feature selection and classification architecture
Liu et al. Estimation of missing markers in human motion capture
Motiian et al. Online human interaction detection and recognition with multiple cameras
Masood et al. Measuring and reducing observational latency when recognizing actions
KR20080073933A (ko) 객체 트래킹 방법 및 장치, 그리고 객체 포즈 정보 산출방법 및 장치
Han et al. Automatic skin segmentation and tracking in sign language recognition
Ding et al. Profile HMMs for skeleton-based human action recognition
Monir et al. Rotation and scale invariant posture recognition using Microsoft Kinect skeletal tracking feature
KR101762010B1 (ko) 스켈레톤 자세 데이터세트를 이용한 비디오 기반 상호 활동 모델링 방법
EP2899706B1 (en) Method and system for analyzing human behavior in an intelligent surveillance system
Meshgi et al. The state-of-the-art in handling occlusions for visual object tracking
Kumar Motion trajectory based human face and hands tracking for sign language recognition
Bakheet A fuzzy framework for real-time gesture spotting and recognition
Dong et al. Gesture recognition using quadratic curves
Madrigal et al. Improving multiple pedestrians tracking with semantic information
Chakraborty et al. View-invariant human action detection using component-wise hmm of body parts
Aran et al. Sequential belief-based fusion of manual and non-manual information for recognizing isolated signs
Khan et al. A Constructive Review on Pedestrian Action Detection, Recognition and Prediction
Kumar Gesture Recognition Using Hidden Markov Models Augmented with Active Difference Signatures
Hu et al. Human Activity Analysis in a 3D Bird’s-eye View
Do et al. Three‐stage model for robust real‐time face tracking
KR20230093857A (ko) 도구 정보를 활용하는 행동 인식 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110120

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110316

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140325

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140325

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees