JP2009536731A - 深度マップによるヒューマノイド形状のモデル化 - Google Patents

深度マップによるヒューマノイド形状のモデル化 Download PDF

Info

Publication number
JP2009536731A
JP2009536731A JP2009508667A JP2009508667A JP2009536731A JP 2009536731 A JP2009536731 A JP 2009536731A JP 2009508667 A JP2009508667 A JP 2009508667A JP 2009508667 A JP2009508667 A JP 2009508667A JP 2009536731 A JP2009536731 A JP 2009536731A
Authority
JP
Japan
Prior art keywords
depth map
contour
torso
processor
limbs
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009508667A
Other languages
English (en)
Other versions
JP2009536731A5 (ja
JP5167248B2 (ja
Inventor
ベルリナー,タミール
ヘンデル,ジブ
シュプント,アレクサンダー
ダノウィッツ,ジェフリー
ライス,ドゥミトリ
モール,オーレン
シュピゲルマッチャー,ミチェル
Original Assignee
プライム・センス・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by プライム・センス・リミテッド filed Critical プライム・センス・リミテッド
Publication of JP2009536731A publication Critical patent/JP2009536731A/ja
Publication of JP2009536731A5 publication Critical patent/JP2009536731A5/ja
Application granted granted Critical
Publication of JP5167248B2 publication Critical patent/JP5167248B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

コンピュータに実装された方法であって、ヒューマノイド対象物(28)の身体を含むシーンの深度マップ(30)を受け取るステップを含む。前記深度マップはピクセルのマトリクス(32)を含み、それぞれのピクセルは、前記シーンにおけるそれぞれの位置に対応し、基準位置から前記それぞれの位置までの距離を示すピクセル値を有する。前記深度マップは、セグメント化され前記身体の輪郭(64)が発見される。前記輪郭は、処理され、前記対象物のトルソ(70)と1又は複数の手足(76、78、80、82)とが識別される。前記深度マップにおける前記識別された手足の少なくとも1つの配置を解析することにより、コンピュータにおいて動作しているアプリケーション・プログラムを制御する入力が生成される。

Description

関連出願
この出願では、2006年3月11日に出願された米国特許仮出願第60/799,952に基づく優先権が主張される。なお、この米国特許仮出願を、この出願において援用する。
本発明は、広くは三次元(3D)の物体のマッピング及びモデリング方法及びシステムに関し、特に、深度マップ(depth map)からヒューマノイド形状を自動的に抽出することに関係する。
この技術分野では、深度マップを作成する多くの異なる方法及びシステムが知られている。この特許出願及び特許請求の範囲においては、「深度マップ」という用語は、ピクセルの二次元のマトリクスとしてのシーンの表現を意味する。それぞれのピクセルは、当該シーンにおけるそれぞれの位置に対応し、ある基準位置からそれぞれのシーン位置までの距離を示すピクセル値を有する。(言いかえれば、深度マップは、シーンにおける物体の輝度及び/又は色ではなく、ピクセル値が場所情報を示すイメージの形状を有する。)深度マップは、例えば、レーザ・スペックル・パターンがその上に射影される物体のイメージの検出及び処理によって作成される。そのような例が、はPCT国際公開第WO2007/043036A1に記載されている。この国際公開は、この出願で援用される。
述べられている。その開示は、参照によってここに組込まれる。
この技術分野においては、ビデオ又はそれ以外のイメージ・データからの人間の形状のコンピュータ化された三次元(3D)モデリングのための様々な方法が知られている。これらの方法の中のいくつかでは、対象物の運動のトラッキングを容易にするために、専用のマーカが対象物の身体の既知の位置に付着されることを必要とする。この種のマーカに基づく方法は、例えば、Fua et al., in "Human Shape and Motion Recovery Using Animation Models," 19th Congress, International Society for Photogrammetry and Remote Sensing (Amsterdam, July, 2000)に記載がある。この論文は、この特許出願において援用する。
他の方法では、複数のカメラを用いて、3Dステレオイメージ情報を提供し、この情報を処理して人間(又はそれ以外の)形状をモデル化する。例えば、Allard et al. describe such a method in "Marker-less Real Time 3D Modeling for Virtual Reality," Immersive Projection Technology (IPT 2004, Iowa State University)に記載がある。この論文は、この特許出願において援用する。人間の形状及び運動の確率的モデルを二次元(2D)イメージに適用する他の方法が、Howe et al., in "Bayesian Reconstruction of 3D Human Motion from Single-Camera Video," Advances in Neural Information Processing Systems 12 (Denver, Colorado, 1999)に記載されている。この論文は、この特許出願において援用する。
深度情報を提供する「ステレオ・カメラ」のしように関しては、Li et al. describe the use of a "stereo camera" in providing depth information in "Real-time 3D Motion Recognition with Dense Depth Map," (Report CPSC525, Department of Computer Science, University of British Columbia, Vancouver, BC, 2004)に記載がある。この論文は、この特許出願において援用する。統計的な背景(background)除去法方法がステレオ・カメラからの入力ビデオ・ストリームに適用され、また、相関に基づくステレオ方法を用いて前景(foreground)物体の稠密な深度マップが得られる。次に、オプティカル・フロー・アプローチを用いて、深度マップに基づき物体の運動が検出される。
別の深度ベースの方法が、Grammalidis et al. describe another depth-based method in "3-D Human Body Tracking from Depth Images Using Analysis by Synthesis," Proceedings of the IEEE International Conference on Image Processing (ICIP 2001, Thessaloniki, Greece), pp. 185-188に記載されている。この論文は、この特許出願において援用する。この方法は、人間の腕ののMPEG−4身体アニメーション・パラメータ(BAP)の評価に関する。MPEG−4の身体モデルのリジッドな部分は、カメラによって画像化される対応する身体部分の幾何学的な特性に当初スケーリングされる。次に、BAP値が、ダウンヒル・シンプレックス最小化法に基づくテクニックを用いて評価される。
発明の概要
以下で説明される本発明の実施例は、深度マップに基づいてヒューマノイドの形状をモデル化する方法、デバイス及びソフトウェアを提供する。この特許出願において用いられる「ヒューマノイド」という用語は、身体構造が人間の身体構造に似た任意の存在を意味する。例示的な実施例では、プロセッサが、対象物の身体を含むシーンの深度マップをセグメント化して当該身体の輪郭を発見する。プロセッサは、次に、対象物のトルソと1又は複数の手足とを識別するために、輪郭を解析する。
プロセッサは、単一のイメージ又は一連のイメージにおける1又は複数の手足の配置を評価して、対象物のジェスチャ及び/又はそれ以外の動きを抽出する。結果として得られる情報は、コンピュータの上で動作しているアプリケーション・プログラムを制御する入力として用いられる。あるいは、プロセッサは、手足及び可能であればトルソの配置を組み入れた身体の静的又は動的なモデルを導く。以下で説明する深度マップを処理する方法は非常に効率的であり、それにより、従来型のマイクロプロセッサを、これらの方法をリアルタイムですなわち少なくとも毎秒25−30フレームの標準的なビデオ速度に等しい処理速度で実行するようにプログラムすることが可能である。
従って、本発明のある実施例によると、コンピュータに実装されたデータ処理方法であって、
ヒューマノイド対象物の身体を含むシーンの深度マップを受け取るステップであって、前記深度マップはピクセルのマトリクスを含み、それぞれのピクセルは、前記シーンにおけるそれぞれの位置に対応し、基準位置から前記それぞれの位置までの距離を示すピクセル値を有する、ステップと、
前記深度マップをセグメント化して前記身体の輪郭を発見するステップと、
前記輪郭を処理して前記対象物のトルソと1又は複数の手足とを識別するステップと、
前記深度マップにおける前記識別された手足の少なくとも1つの配置を解析することにより、コンピュータにおいて動作しているアプリケーション・プログラムを制御する入力を生成するステップと、
を含む方法が提供される。
典型的には、前記深度マップを受け取るステップは、前記身体に専用のマーカを付着させることなく前記深度マップを取得するステップを含む。開示されている実施例では、前記深度マップを受け取るステップは、単一の静止型画像化デバイスを用いて前記深度マップを取得するステップを含む。前記深度マップを取得するステップは、スポットの相関のないパターンを射影するステップと、前記射影されたパターンのイメージを前記画像化デバイスを用いてキャプチャするステップと、前記イメージを処理して前記深度マップを生成するステップと、を含み得る。ある実施例では、前記スポットの相関のないパターンを射影するステップは、コヒーレント光源を用いてプライマリ・スペックル・パターンを形成するステップを含む。
ある実施例では、前記深度マップを受け取るステップは少なくとも毎秒25フレームのフレーム速度で一連の深度マップを取得するステップを含み、前記制御入力を生成するステップは前記一連の深度マップに応答して前記制御入力を少なくとも前記フレーム速度と等しい更新速度で更新するステップを含む。
典型的には、前記深度マップをセグメント化するステップは、前記身体に接続されていない前記シーンにおける背景物体を識別するステップと、前記輪郭を発見する前に前記背景物体を前記シーンから除去するステップと、を含む。
ある実施例では、前記輪郭を処理するステップは、前記輪郭の内部の領域の厚さを評価するステップと、前記厚さに応答して前記領域の第1の部分を前記トルソとして識別するステップと、前記トルソに接続されている前記領域の第2の部分を前記手足の少なくとも1つとして識別するステップと、を含む。ある実施例では、前記厚さを評価するステップは、前記深度マップにおける前記身体の軸を識別するステップと、前記軸に垂直な複数の第1の線に沿った前記輪郭の横断方向の厚さを計算するステップと、前記軸と平行な複数の第2の線に沿った前記輪郭の長軸方向の厚さを計算するステップと、前記第1及び第2の線によって定義された前記輪郭の内部の領域の一部を前記トルソとして指定するステップであって、前記第1及び第2の線に沿った前記横断方向の厚さ及び前記長軸方向の厚さは特定された横断方向のスレショルド及び長軸方向のスレショルドよりも小さくない、ステップと、を含む。更には、又は、あるいは、前記領域の第2の部分を識別するステップは、前記基準位置からの前記トルソの代表距離を前記深度マップに基づいて決定するステップと、前記ピクセルの距離が前記代表距離よりも小さい前記トルソをオーバレイする領域を前記対象物の腕と識別するステップと、を含む。
開示されている実施例では、前記配置を解析するステップは、前記手足の少なくとも1つから前記ピクセルを逐次的に除去することにより前記1又は複数の手足の1又は複数の対応する中心軸を発見するステップを含む。典型的には、前記中心軸は湾曲しており、前記配置を解析するステップは、前記中心軸に適合する直線状のセグメントを発見することにより前記1又は複数のスティック形状を有する表現を導くステップを含む。
典型的には、前記1又は複数の手足は前記対象物の腕を含み、前記配置を解析するステップは、前記トルソにおける肩の地点と前記腕における手のひらの地点とを識別し前記肩と前記手のひらとの地点をそれぞれ通過して前記腕の肘において一致する2つの直線状のセグメントを識別することによって前記腕のスティック形状の表現を導くステップを含む。
更に、本発明の実施例によると、データ処理装置であって、
ヒューマノイド対象物の身体を含むシーンの画像をキャプチャするように構成された画像化デバイスと、
前記画像を処理しピクセルのマトリクスを含む深度マップを作成するプロセッサであって、それぞれのピクセルは前記シーンにおけるそれぞれの位置に対応し基準位置から前記それぞれの位置までの距離を示すピクセル値を有し、前記深度マップをセグメント化して前記身体の輪郭を発見し、前記輪郭を処理して前記対象物のトルソと1又は複数の手足とを識別し、前記深度マップにおける前記識別された手足の少なくとも1つの配置を解析することにより、コンピュータにおいて動作しているアプリケーション・プログラムを制御する入力を生成するプロセッサと、を含むデータ処理装置が提供される。
更に、本発明の実施例によると、プログラム命令が記憶されているコンピュータ可読媒体を含むコンピュータ・ソフトウェア・プロダクトであって、前記命令は、コンピュータによって読み取られると、前記コンピュータに、ヒューマノイド対象物の身体を含むシーンの深度マップを受け取るステップであって、前記深度マップはピクセルのマトリクスを含み、それぞれのピクセルは、前記シーンにおけるそれぞれの位置に対応し、基準位置から前記それぞれの位置までの距離を示すピクセル値を有する、ステップと、前記深度マップをセグメント化して前記身体の輪郭を発見するステップと、前記輪郭を処理して前記対象物のトルソと1又は複数の手足とを識別するステップと、前記深度マップにおける前記識別された手足の少なくとも1つの配置を解析することにより、コンピュータにおいて動作しているアプリケーション・プログラムを制御する入力を生成するステップと、を実行させるコンピュータ・ソフトウェア・プロダクトが提供される。
図1は、本発明の実施例に従って、深度マッピング及びモデリングのためのシステム20の概要の図解である。システム20は、画像化デバイス22を含む。この画像化デバイスは、ヒューマノイド対象物28を含むシーンのイメージをキャプチャする。イメージ・プロセッサ24は、以下で説明するように、対象物28の深度マップを作成し当該深度マップに基づいて対象物のモデル26を作成するために、デバイス22によって生成されたイメージ・データを処理する。モデルは、典型的には、被験者の手足の1つ以上の配置に関する3D情報を含む。以下で説明する方法により、プロセッサ24は、先行するフレームに依存することなくリアルタイムのフレーム速度(少なくとも毎秒25フレーム)で単一の深度マップから被験者の手足の配置を見つけることができる。さらに、プロセッサは、対象物が時間と共に位置を変更するにつれて、更に運動情報を提供する。
イメージ・プロセッサ24は、汎用コンピュータプロセッサを含み、これは、ソフトウェアにおいて以下で説明する機能を実行するようにプログラムされる。ソフトウェアは、例えばネットワークを介して電子的な形式でプロセッサ24にダウンロードされる。あるいは、光学的媒体、磁気媒体、電子的メモリ媒体のような有体物である媒体においても提供可能である。あるいは、イメージ・プロセッサの機能のうちのいくつかあるいはすべては、カスタム又はセミカスタムIC又はプログラマブルなデジタル信号プロセッサ(DSP)のような専用ハードウェアにおける実装も可能である。プロセッサ24が画像化デバイス22からの別個のユニットとして図1に例として示されているが、プロセッサ24の処理機能のうちのいくつかあるいはすべては、適切なプロセッサあるいは画像化デバイスのハウジング内の他の専用回路類によって実行されるか、又は、そうでなければ画像化デバイスと関連している。
以下に記述されるモデル化の原理は、実質的に任意のタイプの画像化装置によって作成された対象物28の深度マップの任意の適切な種類に適用される。しかし、単純性と低価格のため、画像化(撮像)デバイス22が単一のイメージ・センサーを含む単一の静的デバイスを含むことが有利である。1つのそのような実施例では、例えば、デバイス22は対象物28上に関連しないパターンのスポットを生成し計画し、物体に現われる斑点模様のイメージを捕らえる。横断方向のシフトの関数としてのパターン中のスペックルの位置の自己相関はスポットサイズより大きな任意のシフトとの関係では些細であるという意味で、パターンは相関関係になる。コヒーレント光源からの一次スペックルによって作成されたようなランダムパターンは、この意味では相関関係にない。
前述したPCT国際公開WO第2007/043036A1には、そのようなデバイスに基づいた深度マッピングのための方法と同様に、この種の斑点ベースのイメージング及びマッピングデバイスについて記述する。射影されたレーザ・スペックルを使用する深度マッピングのさらなる特徴は、2007年3月8日に出願されたPCT特許出願PCT/IL2007/000306に記載がある。この国際出願は本出願の被譲渡人に譲渡されており、この出願において援用する。これらの文献において説明されるように、イメージ・プロセッサは、既知の基準パターンに関連のあるパターンを有するスペックルの横断方向のシフトを発見する。与えられたスペックルのシフトは、スペックルがデバイスからその上に射影される表面までの距離の関数である。
システム20によって決定される対象物28の手足の配置及び運動は、プロセッサ24又は別のコンピュータ(図示せず)上で動作するアプリケーション・プログラムをコントロールする入力として使用される。例えば、プロセッサは、対象物によるジェスチャ(身振り)のような運動を識別し、対象物とコンピュータ・ゲームとの間の対話型インタフェースの中でこれらの運動を使用する。あるいは、対象物のスタンス及び/又は運動は、システム20によって識別され、イメージ処理とアニメーションとの他のエリアと同様に、他の種類のアプリケーションをコントロールするのに使用される。
システム20におけるスペックル・イメージからの深度マップの導出は、深度マップが得られ使用される環境の1つの典型的な種類を例証するための単なる例として上述されたに過ぎない。本発明の原理及び以下で記述される方法の応用例やこの種のシステム又はは深度マップを得るこの方法は、上述の説明には制限されない。より正確に言えば、これらの原理及び方法は、実質的に任意の種類の深度マップに適用可能である。深度マップは、この技術分野において知られているあらゆる適切な手段及びテクニックを用いて取得される。
図2は本発明の実施例による深度マップ30の概略的な表現である。深度マップはピクセル32の二次元のマトリックスを含み、それぞれのピクセルはそれぞれの場所にそれぞれ対応する。各ピクセル(図においては、グレースケール値によって示されている)の値は、基準位置からのシーンにおけるそれぞれの位置までの距離を示す。例えば、ピクセル値は、デバイス22のイメージ平面からの対象物28の身体における点までの距離(つまり深度)を示す。
実際の応用例では、対象物28がより離れた背景に対して自由に移動することを許されるときには、深度マップのすべてのピクセルが有効な深度データを含むとは限らない。あるいは、デバイス22が(対象物28が典型的に位置している)ある距離範囲において深度情報を取得するように設定されていると想定すると、深度が前記範囲の外部にある領域に対応するピクセルは、所定のゼロ値を含み、これらのピクセルに対しては深度は見つからないことを示している。他のピクセルは、影の領域として分類される値を有し、つまり、当該ピクセルと対応する位置において当該距離範囲の中にある物体表面が存在するだろうと言うことを意味するが、当該ピクセルに対する深度値を決定することはできない。これらの影ピクセルの値も、別の実施例では異なる処理を影ピクセルに適用されることがあるが、下記に述べられた方法においてゼロ値として扱われる。
図3は、本発明の実施例に従って深度マップに基づいてヒューマノイド対象物をモデル化する方法を概略的に例証するフロー・チャートである。プロセッサ24は、マップ取得ステップ40において、深度マップを取得する。当該マップは、図1に示されるようにシステム20を用いて、又は、この技術分野において知られている他の適切なタイプの深度マップ方式を用いて、獲得される。対象物のモデル化においてキーとなるステップは、対象物の身体の部分を定義するように深度マップをセグメント化するステップである。しかし、身体をセグメント化することに備え、プロセッサが、背景除去ステップ42で、シーンから背景物体を取り除くことが有用である。2以上のヒューマノイドがシーンに存在する場合には、各々をセグメント化するのに先立って、それぞれの身体を分離することも有用である。
背景除去については、多くの異なる方法が、ステップ42で使用される。これらの方法のうちのいくつかは、対象物の身体として深度マップ中でブロブ(類似した値を有するピクセルの接続されたグループ)の予備的な識別を行い、更に、このブロブとは著しく異なる深度値を有するそれ以外のブロブを除去することに依存する。このようにして予備的に識別されるブロブは、典型的にはある最小サイズを有していなければならない。しかし、この目的のために、ブロブのエッジにおけるピクセルの座標の間のユークリッド距離は、そのサイズの正確な測度を与えない。これが不正確である理由は、与えられた実際のサイズを有するオブジェクトに対応するピクセルにおけるブロブのサイズは、デバイス22からのオブジェクトの距離に応じて増減するからである(図1を参照)。
従って、物体の実際のサイズを決定するには、当該物体の(x,y,深度)座標は、次の数式を用いて、まず「現実世界」の座標(xr,yr,深度)に転換される。
Figure 2009536731
ここで、fovxとfovyとは、x軸及びy軸の方向の深度マップの視野である(ピクセルにおいて)。ピクセルサイズは、マッピング・デバイスから与えられた距離(reference_depth)にあるピクセルによって境界が画定される長さである。次に、ブロブのサイズは、ブロブのエッジの現実世界における座標の間のユークリッド距離をとることにより、現実的に決定される。
プロセッサ24は、当該シーンにおけるブロブの中で最小の平均深度値を有する必要な最小サイズのブロブを識別することによって、ステップ42を行なう。このブロブ(デバイス22に最も近い)が対象物28の身体であると仮定することができる。少なくともあるスレショルドの分だけこの平均深度値よりも大きな深度を有するすべてのピクセルは背景物体に属すると仮定され、プロセッサは、これらのピクセルの深度をゼロ値にリセットする。当該スレショルドはヒューリスティックに決定され、アーティファクトなしのモデリング(背景物体からの干渉がない)と柔軟性(対象物が移動することを許される深度の範囲に関する)との間の最適なトレードオフを提供する。更に又はあるいは、ブロブの平均深度値よりもはるかに小さな深度値を有するピクセルは、同様にゼロ化される。
また、システム20のための最大深度は、オペレーティング・ソフトウェアにおいて適切なパラメータを設定することにより事前に定義される。プロセッサ24は、このプリセットされた最大深度を超える物体を無視するようにプログラムされる。対象物(被験者)28は、システム20の動作を始めるときには、プロセッサ24に接続されたモニタにおいて実際の深度マップ(又は、結果的なモデル26)を見ることができ、したがって、自分自身がシーンの中にいて適切なサイズでシステムによってキャプチャされるように、自身自身の位置を決めることができる。
別の方法としては、静的な深度フィルタを、対象物28の存在しないシーンの当初の深度マップを最初にキャプチャすることにより作成される。あるピクセル又はピクセル群が、デバイス22に最も接近している背景物体の上で識別される(ユーザによって対話的に、又は、プロセッサ24によって自動的に)。プロセッサ24は、このピクセル又はピクセル群の深度値を記録し、次に、ステップ42において、この記録された値よりも大きな深度マップにおけるすべてのピクセルの深度値をゼロにする。
あるいは、プロセッサ24は、これを超えると物体が深度マップから取り除かれる深度値を動的に決定することができる。この目的のため、シーンにおける対象物が移動していると仮定されている。したがって、その深度値が最小数のフレームにおいて変化しない任意のピクセルは、背景物体であると仮定される。その深度値がこの静的な深度値よりも大きなピクセルは背景物体に属すると仮定され、したがって、ゼロ化される。当初は、シーンにおけるすべてのピクセルは静的なものとして定義され、又は、シーンにおけるすべてのピクセルは非静的と定義される。両方の場合に、いったん対象物が移動し始めれば、実際の深度フィルタを動的に作成できる。
さらに、この技術分野において知られている他の方法を用いて、ステップ42において背景物体を削除できる。
図4Aと4Bは、本発明の実施例に従って、背景物体の除去の前後の深度マップ44の概略的な表現である。図4Aでは、マップ44は背景物体に対応する他のブロブ(blob)48と共に人間である対象物の身体に対応するブロブ46を含む。マップ44における残りのピクセル値は無効(null、ゼロ)である。プロセッサ24は、少なくともあるスレショルド(上述した方法で決定される)の分だけブロブ46の深度よりも大きな深度にブロブ48が位置することを判断する。したがって、ブロブ48は、セグメント化及びモデル化されるブロブ46だけを残し、深度マップから取り除かれる。
再度図3に戻るが、いったんバックグラウンドが成功裡に除去されたならば、プロセッサ24は、深度マップにおいて深度の接続された成分を見つけることにより、深度マップにおいてヒューマノイド形状をセグメント化する。ピクセルのそれぞれの接続されている成分の輪郭が、輪郭発見ステップ50で見つかる。深度マップにおいて相互に(例えば、手を握るか互いに触れることにより接続された)隣接する2以上のヒューマノイド形状がある場合には、プロセッサは、まずこれらの形状を相互から分離することが一般的に必要である。ある場合には、この種の分離は、形態的な操作又はそれ以外の画像解析技術を用いて行なわれる。以下の説明では、深度マップはたった1つのヒューマノイド対象物を含むと仮定されるか、又は、接続されているヒューマノイド形状の分離が必要な場合には既に達成されていると仮定されており、その結果、それぞれのヒューマノイドは別個のブロブによって表わすことができる。
ステップ50で対象物の身体の輪郭を見つけるため、プロセッサ24は、深度マップ上で動作するように適切な修正がなされたこの技術分野で知られているエッジ検出の方法を使用する。このように、プロセッサは、身体の外部輪郭だけでなく、例えば腕とトルソなど2つの身体各部の間の輪郭も見つけることができる。ある実施例では、プロセッサは、この目的のために、次のような二段階スレショルド設定機構を用いる。
1.第一に、プロセッサは、ヒューマノイド形状に対応するブロブ中のすべてのピクセルを通過し、当該ピクセルが有効な深度値を有しており更に当該ピクセルと四つの接続された隣接するピクセル(右左上下)の中の少なくとも一つとの間の深度値の差が第一のスレショルドよりも大きい場合には、任意の与えられたピクセルに輪郭位置としてのマークを付ける。(この目的のために、有効な深度値とゼロ値との間の差は無限大であると考える。)
2.第一のステップが終了した後で、プロセッサは、当該ブロブを再度通過し、その8つの接続された隣接ピクセルの中に輪郭ピクセルが存在し更に当該ピクセルと残りの接続された隣接するピクセルの中の少なくとも一つとの間の深度値の差が第一のスレショルドよりも小さな第2のスレショルドよりも大きい場合には、(輪郭位置のマークがまだ付けられていない)任意の与えられたピクセルに輪郭位置としてのマークを付ける。
身体の外側輪郭を見つけた後に、プロセッサ24は、更なるセグメント化ステップ52で、身体各部を識別する。このステップの目的は、身体を、頭部、トルソ及び手足にセグメント化することである。この場合、手足とは、腕と脚部とを含む(深度マップの領域にそれらが含まれると仮定する)。
図5は、本発明の実施例による更なるセグメント化(サブセグメンテーション)ステップ52の詳細を概略的に示すフロー・チャートである。この目的のための準備段階として、プロセッサ24は、身体の長軸方向の軸を識別し、次に、身体の輪郭が回転ステップ54において直立位置を取るように深度マップを回転させる。この回転の目的は、身体の長軸方向の軸をY座標(垂直)軸と位置合わせすることにより、後続のステップでの計算を単純化することである。あるいは、後述する計算は、当業者には明らかであるように必ずしもこの回転を行うことなく、身体の長軸方向の軸に関して実行される。
ステップ54で身体の3D軸を見つけるのに用いられる方法は次の通りである。
1.プロセッサ24は、当初の深度マップを、X軸及びY軸方向の各々においてnピクセル離れたノードのグリッドへダウンサンプリングする。プロセッサは、各ノードの深度値を、当該ノードの中心にあるnの二乗(n)の深度値に基づいて計算する。当該正方形の中のピクセルの半分以上がゼロ値(null value)が有する場合には、プロセッサは、ゼロ値にノードを設定する。そうでなければ、ノードは、nの二乗(n)の中で有効な深度値の平均に設定される。
2.プロセッサは、先行するステップの終了時における隣接ノードの値に基づいて、このダウンサンプリングされた深度マップを更に「クリーンアップ」する。与えられたノードの大多数の隣接値がゼロ値を有する場合には持っていれば、そのノードもゼロ値に設定される(前のステップの後に有効な深度値を有する場合でも)。
3.プロセッサは、ダウンサンプリングされたマップに残っているノードの長軸方向の軸を見つける。この目的のために、プロセッサは、線形最小二乗適合を行って、ノードに最適なラインを見つける。あるいは、プロセッサは、ノードの周囲に楕円体(エリプソイド)を適合させて、その長軸を見つける。
図6は、本発明の実施例によるヒューマノイド対象物の身体のダウンサンプリングされた深度マップ56の概略的な表現であり、身体の長軸方向の3D軸が識別されている。既に説明されたように、マップ56中のノード58は、オリジナルの深度マップ(必要ならば背景物体を削除した後)をダウンサンプリングすることにより決定される値を有する。図6に示されるノードは非ゼロの深度値を有するノードである。軸60は、直線をこれらのノードに適合させることにより見つかる。プロセッサ24は、この軸と垂直の(Y)軸との間の角度を見つけ、オリジナルの深度マップを回転させて軸60を垂直方向に整列させる。
ここで図5を再び参照すると、深度マップを回転させた後、プロセッサ24は、トルソ識別ステップ62で、長軸方向の軸60と平行であり横断する方向において身体の輪郭の厚さを測定することにより、身体のトルソを識別する。この目的のため、プロセッサは、身体輪郭(ステップ50で識別され、ステップ54で回転された)の周囲に境界箱(bounding box)を定義し、次に、その箱の中のピクセル値を2進化する。すなわち、ゼロの深度値を有するピクセルはゼロに設定され、非ゼロ深度値を有するピクセルは一に設定される。次に、プロセッサは、対応する垂直線に沿ってバイナリなピクセル値を合計することにより箱の中のXの各値に対する長軸方向の厚さの値を計算し、対応する水平線に沿ってバイナリなピクセル値を合計することにより、Yの各値に対する横断方向の厚さの値を計算する。プロセッサは、スレショルドを最終的な値に適用して、輪郭が比較的厚い垂直及び水平ラインを識別する。
図7A及び7Bは、深度マップで見つかった身体の輪郭64の概略的な表現であり、本発明の実施例に従って、輪郭の長軸方向及び横断方向の厚さがあるスレショルドを超える領域を示している。図7Aでは、水平領域66は、対応するラインに沿ったバイナリなピクセル値の総和がXスレショルドを越えるXの値を含む。これらは、輪郭が長軸方向において比較的厚いX値を含む。同様に、図7Bでは、垂直領域68は、対応するラインに沿ったバイナリなピクセル値の総和がYスレショルドを超えるYの値を含んでいる。Xスレショルド及びYスレショルドは異なり、それぞれの直線に沿ったバイナリな値の総和のヒストグラムの解析によって適応的に決定される。
図7Cは、本発明の実施例によって図7A及び7Bにおいて示されている厚さによって決定されるように、身体のトルソ70に対応する領域を示す輪郭64の概略的な表現である。プロセッサ24は、この実施例では、先行する図面において示される領域66及び68の重なり部分をとることにより、トルソを見つける。
ここで図5に返ると、いったんトルソ70が見つかったならば、プロセッサ24は、頭部及び腕識別ステップ72において、幾何学的な考察に基づいて、身体の頭部及び腕を識別することができる。腕はトルソの左右に接続された領域であり、頭部はトルソの上側に接続された領域であり、脚部はトルソの下側に接続された領域である。
更に、プロセッサは、肩を、トルソ領域の左上及び右上の角領域であると予備的に確認する。仮に対象物の手が肩の一方又は両方をカバーする場合には、これらの予備識別は正しくないことになる。この種のオーバーラップに対処する方法について、以下で説明を行う。
図7Dは、本発明の実施例によるステップ72の結果を示す輪郭64の概略的な表現である。輪郭は、トルソ70と、頭部74と、左右の腕76及び78と、左右の脚80及び82にセグメント化されている。この結果は、色又は輝度に関する情報に頼ることなく、もっぱら当初の深度マップによって提供された震度値だけに基づいて達成される。
図5にもう一度戻ると、プロセッサ24は、中心発見ステップ84で、身体の各部分の「重心(center of mass)」を決定する。ここで、ある領域の重心とは、当該領域の代表的な深度を意味する。この目的のために、例えば、プロセッサは、当該領域の中の深度値のヒストグラムを作成し、最も高頻度(又は、最高頻度を有する二つ以上の値の平均)を有する深度値を当該領域の重心とする。
異なる領域のそれぞれの重心は、オーバーラップ識別ステップ86で、深度マップにおいてオーバラップする領域の間の輪郭を区別し見つけるのに特に役立つ。例えば、腕領域がトルソの前にあるときには、ステップ72で識別された腕領域は不完全となり、トルソが歪むことになる。腕の形を完成するために、プロセッサは、その深度値が重心から遠く腕セグメントのうちの1つに隣接している接続された成分を形成するピクセルをトルソ70の領域において見つける。プロセッサは、新たに識別された腕成分に接続された腕とトルソとの間の任意の残りの輪郭点と共に、この接続された成分を腕に加える。
次に図8を参照すると、本発明の実施例に従って、ステップ86の動作を例示する身体の輪郭90の概略的な表現が示されている。プロセッサ24は、接続された成分100の中のピクセルが腕94の一部であると判断し、腕94と接続して腕の定義を完成する。
プロセッサは、いったんトルソの重心を見つけたならば、対象物の腕あるいは手とオーバラップしている場合であっても、肩102を見つけることができる。この目的のために、プロセッサは、重心深度においてトルソを長方形としてモデル化する。肩は、長方形の左右の上部角に位置する。
もう一度図3に返ると、トルソと手足とを識別した後で、プロセッサ24は、対象物の身体の「スティック図」モデルを生成する。多くの異なる方法が、この目的のために用いられる。この実施例では、プロセッサは、軸識別ステップ104で、手足の中心軸を見つけることにより始動する。腕のような深度マップの成分の中心軸を見つけるために、プロセッサは、成分を空値を用いて包囲し、当該成分から反復的にピクセルを取り除く。ある実施例では、プロセッサは、当該成分のいずれかの側における輪郭点が合致するまで、形態的な削除の連続的なステップによってピクセルを削除する。削除手順におけるそれぞれの逐次的な操作において、プロセッサは、輪郭点をゼロの深度値に設定し、次に、先行する輪郭の僅かに内側にある新たなより狭い輪郭を作成する。輪郭点は、やはり輪郭点であるような隣接点を2つよりも多く有する場合に合致すると考えられる。2つの輪郭点は、この態様で合致するときには、最終的な中間軸点によって置き換えられる。別の実施例(計算上、より効率的であることがありうる)では、深度成分の輪郭ピクセルは、当該成分のいずれかの側からの2つの輪郭ピクセルが一致するまで、連続的に皮をむかれる。
プロセッサは、中心軸の全体を定義するまで、このような処理を継続する。あるいは、削除又は皮をむく動作は、何回かの逐次的動作の後で停止する。更に、点は、スプリアスな中心軸点の作成を回避するように、何回かの逐次的な操作の後で開始する場合だけ、「中心軸点」として定義される。これらの点は、腕の対向する両端部が相互に当初近接している深度マップの部分において特に生じる。
図9は、深度マップで発見された身体の輪郭106の概略的な表現であり、本発明の実施例に従ってステップ104で識別される腕110の中間軸108を示す。プロセッサは、上述した方法を用いて、脚(図示せず)と同様に、トルソ112及び頭部114の中心軸を同様にして発見する。軸108は図においては図の平面における二次元曲線として表わされているが、プロセッサ24は、実際には、空間の中の三次元曲線として腕110(及び身体のそれ以外の部分)の中心軸をモデル化する。言いかえれば、中心軸の上の点は、それぞれが、x座標、y座標及び深度座標を有する。
再度図3を参照すると、プロセッサ24は、中心軸の上の点を識別した後で、セグメント・モデリング・ステップ114において、対象物のスタンス及び移動をスティック図としてモデル化するためこれらの順序の付けられていない点を「解剖的な」スティック形状セグメントに変換する。こうして、それぞれの腕は2つのスティック形状セグメントによって表される。ここで、第1のセグメントは肩から肘までであり、第2のセグメントは肘から手のひらまでである。この目的のために、プロセッサは、例えば、最初に長く直線的なセグメントの集合を生成し、次にこれらのセグメントを用いてスティック形状モデルを作成する。
長いセグメントを生成するため、プロセッサ24は、中心軸上で第1の点(典型的には端点)を選び、第1の点から所定の半径にある中心軸上の第2の点を見つけ、この半径の中に含まれる他のすべての点に「終了」というマーク(しるし)を付ける。プロセッサは、第2の点においてこの手順を反復し、第2の点の反対側において前記所定の半径にある中心軸上で第3の点を見つける。第1及び第2の点を接続する直線と第1及び第3の点を接続する直線とが類似の勾配を有する場合には、プロセッサは、第2の点に終了のマークを付し、第1の点と第3の点との間の範囲全体を単一の直線状のセグメントで代替する。他方では、これらの直線の勾配が所定の許容差を超えて異なる場合には、第1の点と第2の点との間のセグメントは閉鎖され、プロセッサは、第2の点において新たな直線を開始する。
プロセッサが中心軸上のすべての点を横断し、ステップ104で見つかった中心軸に比較的接近している長い直線のセグメントにそれらの点を組み入れるまで、この手順は継続する。再び、プロセッサは、三次元の(x,y,深さ)空間において、これらのセグメントを定義する。次に、スティック図として身体の再構成を完了するために、プロセッサ24は、これらのセグメントを2つの長い三次元の方向を有する「解剖学的な」セグメントによって代替する。これらの解剖学的なセグメントは、手足の実際の接合された部分に対応する。ここで、第1のセグメントは肩から肘までであり、第2のセグメントは肘から手のひらまでである。
図10は、本発明の実施例に従って、ステップ114で輪郭106からプロセッサ24が導くスティック形状モデルの一部の概略的な表現である。この例において、プロセッサは、それぞれの腕110を2つの長いセグメントで置き換える。前腕セグメント116は手のひらから肘までであり、上腕セグメント118は肘から肩までである。
肘を見つけ従って与えられた腕において2つの長いスティック形状セグメントを形成するため、プロセッサ24は、2つの点(肩及び手のひら)と、2つの長さ(上腕及び前腕)と、上述した長いセグメントの一つとを用いる。肩と手のひらとは、既に見つかっているか、又は、このステップの間に識別される。肩を見つける方法については、上述した。手のひらは、中心軸に関して肩の反対側として、又は、身体の中心から中心軸に沿って中心軸上の最も遠い点として識別され、最小の深度値を有する。上腕と前腕との長さは、与えられるか又は学習される。例えば、プロセッサは、腕に対応する長いセグメントの長さ及び方位に基づいてこれらの長さの最初の推定を行う。
上記の情報を用いて、プロセッサ24は、二つの球を定義する。それぞれの中心は肩点と手のひら点とにあり、それぞれの半径は上腕と前腕とに等しい。これらの球の断面は3D空間における円Cである。プロセッサ24は、次に、問題となる腕の領域におけるすべての長く直線的なセグメントの中から開始セグメントを選択する。典型的には、この開始セグメントは、手のひら又は肩に隣接する最も長いセグメントであり、手のひら又は肩を通過する方向にある。
プロセッサ24は、選択された端点(手のひら又は肩)から断面である円Cの方へ向かって開始セグメントを伸長することによって、肘を特定する。この伸長されたセグメントとCを通過する平面との間の断面に最も近いC上の点が、肘として識別される。プロセッサは、第2の直線を、肘から中心軸の他方の端点に伸長する。中心軸上の点の十分な部分がこのように見つかるセグメント116及び118の所定の半径の中に場合、プロセッサは、腕が正確にモデル化されたとの結論を下す。そうでなければ、プロセッサは、モデル化された成分が対象物の腕ではないとの結論を下す。
あるいは、プロセッサは、成分の輪郭からスティック形状セグメントを引き出すために他の方法を使用することもある。この目的のために、プロセッサは、典型的には、肩の方向又は手のひらの方向に向かう長いセグメントを識別することを試みる。例えば、腕に対応する長いセグメントは、中心軸点だけではなく接続されている成分全体に関して上述したステップの適用により引き出される。プロセッサは、より大きな半径を備えた円を使用して、長いセグメントを維持する。プロセッサは、短いセグメントを、より長いセグメントを備えた速く変化する勾配に置き換える。主な勾配変更がある場合に限り、より長いセグメントが終了される。プロセッサは、長いセグメントを構築するために、有効に成分点を除去する。再び、スティック画(セグメント116及び118)が、肩と手のひらとの点と、上腕及び前腕の長さと、上述のように現在形成されている1つの長いセグメントとを用いて、形成される。
1つの長いセグメント(肩と手のひらとの点及び2つの長さと共に使用される)を作成する別の方法は、肩(又は、腕成文における点の中で肩点に最も近い点)又は手のひら点において、腕ブロブ(arm blob)における初期点から開始する。次に、異なる半径を備えた2つの円が、選択された点の周囲に形成される。これらの円は、中心点の近くで2度成分と交差し、それにより、共通点として円の中心点との2つの切片の間に角度を形成する。それぞれの円に対して1つであるから、二つの角度が存在する。これらの角度は二分され、各々の円のために、二等分線と円との交点が保存される。これらの2点は接続され、この直線は成分を表す。セグメントの長さは2つの半径の間の差であり、セグメントは常に肩か手のひらのいずれかの方向を指す。上述したように、このセグメントは、肩及び手のひらの点と上腕及び前腕の長さと共に、スティック形状セグメント116及び118を形成するのに用いることができる。
以上の説明では、明確化のために腕110との関係でステップ104及び114について述べたが、同様のステップを行って、同様に、脚とトルソと頭部とをモデル化するスティック形状セグメントを見つけることができる。そして、包括的なスティック図を所定の運動学的な特性と共に、対象物のスタンス、ジェスチャ及び他の運動の解析を終えるために、このモデルに適合される。この適合は、運動学的なスティック図モデルの可能性のある位置と深度マップに由来するモデルのセグメントとの間の距離を最小化する最適化技術を用いて行なわれる。プロセッサは、いったん初期フレームにおいてよい適合を見つけたならば、運動学的なモデルの可能性のある動きを用いて、連続的なフレームのそれぞれにおいて中のセグメント発見手順を初期化できる。その後、各フレームで見つかる実際のセグメント位置を用いて、運動学的モデルの位置が更新される。
プロセッサは、計算機アプリケーションへの制御入力として、スティック図の動きを用いることができる。例えば、スティック図の動きは、コンピュータ・スクリーン上の又は仮想現実ディスプレイに現れるユーザ・コントロールとの対話に用いることができる。別の例として、スティック図の動きは、ゲーム又はそれ以外の対話型アプリケーションにおけるキャラクタの3Dアバタ又は仮想的な3D身体の動きに反映させることができる。
まとめると、上述したように、プロセッサ24は、深度マップを用いて、物理的及び運動学的な振る舞いを有し幾何学的な制約をスティック図を形成することができる。スティック図は、いったん初期化されると、後のフレームにおける身体部分に対する深度表面を識別することにより、後の人体セグメンテーションを援助できる。
以上で述べた実施例は例示としてなされたものであって、本発明は、上述されたものに限定されることはない。本発明の範囲は、上述した様々な特徴の組合せを含み、更に、以上の説明を読んだ当業者が想到可能であり従来技術文献に開示されている改変や修正も含まれる。
本発明の実施例による深度マップを取得及び処理するシステムの概略的な図解である。 本発明の実施例による深度マップの概略的な表現である。 本発明の実施例によって深度マップに基づいて人間である対象物をモデル化する方法を概略的に図解する流れ図である。 本発明の実施例によって背景物体を除去する前の深度マップの概略的な図解である。 本発明の実施例によって背景物体を除去した後の深度マップの概略的な図解である。 本発明の実施例によって深度マップにおける身体部分を識別する方法の詳細を概略的に示す流れ図である。 本発明の実施例によって身体軸が識別されるダウンサンプリングされた深度マップの概略的な表現である。 本発明の実施例による深度マップにおいて発見された身体の輪郭の概略的な表現であって、当該輪郭の長軸方向の厚さがスレショルドを超える領域が示されている。 本発明の実施例による図7Aの輪郭の概略的な表現であって、当該輪郭の横断方向の厚さがスレショルドを超える領域が示されている。 本発明の実施例による図7Aの輪郭の概略的な表現であって、図7A及び図7Bに示されている厚さによって決定された身体のトルソの領域が示されている。 本発明の実施例による図7Aの輪郭の概略的な表現であって、図7Cのトルソに基づいて識別される頭部及び手足が示されている。 本発明の実施例による深度マップにおいて発見された身体の輪郭の概略的な表現であって、トルソとオーバーラップする腕の一部の識別が示されている。 本発明の実施例による深度マップにおいて発見された身体の輪郭の概略的な表現であって、腕の中心軸の識別が示されている。 本発明の実施例による深度マップにおいて発見された身体の輪郭の概略的な表現であって、深度マップから導かれた腕のスティック状のモデルが示されている。

Claims (42)

  1. コンピュータに実装されたデータ処理方法であって、
    ヒューマノイド対象物の身体を含むシーンの深度マップを受け取るステップであって、前記深度マップはピクセルのマトリクスを含み、それぞれのピクセルは、前記シーンにおけるそれぞれの位置に対応し、基準位置から前記それぞれの位置までの距離を示すピクセル値を有する、ステップと、
    前記深度マップをセグメント化して前記身体の輪郭を発見するステップと、
    前記輪郭を処理して前記対象物のトルソと1又は複数の手足とを識別するステップと、
    前記深度マップにおける前記識別された手足の少なくとも1つの配置を解析することにより、コンピュータにおいて動作しているアプリケーション・プログラムを制御する入力を生成するステップと、
    を含むことを特徴とする方法。
  2. 請求項1記載の方法において、前記深度マップを受け取るステップは、前記身体に専用のマーカを付着させることなく前記深度マップを取得するステップを含むことを特徴とする方法。
  3. 請求項1記載の方法において、前記深度マップを受け取るステップは、単一の静止型画像化デバイスを用いて前記深度マップを取得するステップを含むことを特徴とする方法。
  4. 請求項3記載の方法において、前記深度マップを取得するステップは、スポットの相関のないパターンを射影するステップと、前記射影されたパターンのイメージを前記画像化デバイスを用いてキャプチャするステップと、前記イメージを処理して前記深度マップを生成するステップと、を含むことを特徴とする方法。
  5. 請求項4記載の方法において、前記スポットの相関のないパターンを射影するステップは、コヒーレント光源を用いてプライマリ・スペックル・パターンを形成するステップを含むことを特徴とする方法。
  6. 請求項1記載の方法において、前記深度マップを受け取るステップは少なくとも毎秒25フレームのフレーム速度で一連の深度マップを取得するステップを含み、前記制御入力を生成するステップは前記一連の深度マップに応答して前記制御入力を少なくとも前記フレーム速度と等しい更新速度で更新するステップを含むことを特徴とすることを特徴とする方法。
  7. 請求項1記載の方法において、前記深度マップをセグメント化するステップは、前記身体に接続されていない前記シーンにおける背景物体を識別するステップと、前記輪郭を発見する前に前記背景物体を前記シーンから除去するステップと、を含むことを特徴とする方法。
  8. 請求項1ないし請求項7のいずれかの請求項に記載の方法において、前記輪郭を処理するステップは、前記輪郭の内部の領域の厚さを評価するステップと、前記厚さに応答して前記領域の第1の部分を前記トルソとして識別するステップと、前記トルソに接続されている前記領域の第2の部分を前記手足の少なくとも1つとして識別するステップと、を含むことを特徴とする方法。
  9. 請求項8記載の方法において、前記厚さを評価するステップは、
    前記深度マップにおける前記身体の軸を識別するステップと、
    前記軸に垂直な複数の第1の線に沿った前記輪郭の横断方向の厚さを計算するステップと、
    前記軸と平行な複数の第2の線に沿った前記輪郭の長軸方向の厚さを計算するステップと、
    前記第1及び第2の線によって定義された前記輪郭の内部の領域の一部を前記トルソとして指定するステップであって、前記第1及び第2の線に沿った前記横断方向の厚さ及び前記長軸方向の厚さは特定された横断方向のスレショルド及び長軸方向のスレショルドよりも小さくない、ステップと、
    を含むことを特徴とする方法。
  10. 請求項8記載の方法において、前記領域の第2の部分を識別するステップは、前記基準位置からの前記トルソの代表距離を前記深度マップに基づいて決定するステップと、前記ピクセルの距離が前記代表距離よりも小さい前記トルソをオーバレイする領域を前記対象物の腕と識別するステップと、を含むことを特徴とする方法。
  11. 請求項1ないし請求項7のいずれかの請求項に記載の方法において、前記配置を解析するステップは、前記1又は複数の手足の1又は複数の対応する中心軸を発見するステップを含むことを特徴とする方法。
  12. 請求項11記載の方法において、前記1又は複数の対応する中心軸を発見するステップは、前記手足の少なくとも1つから前記ピクセルを逐次的に除去するステップを含むことを特徴とする方法。
  13. 請求項11記載の方法において、前記中心軸は湾曲しており、前記配置を解析するステップは、前記中心軸に適合する直線状のセグメントを発見することにより前記1又は複数のスティック形状を有する表現を導くステップを含むことを特徴とする方法。
  14. 請求項1ないし請求項7のいずれかの請求項に記載の方法において、前記1又は複数の手足は前記対象物の腕を含み、前記配置を解析するステップは、前記トルソにおける肩の地点と前記腕における手のひらの地点とを識別し前記肩と前記手のひらとの地点をそれぞれ通過して前記腕の肘において一致する2つの直線状のセグメントを識別することによって前記腕のスティック形状の表現を導くステップを含むことを特徴とする方法。
  15. データ処理装置であって、
    ヒューマノイド対象物の身体を含むシーンの画像をキャプチャするように構成された画像化デバイスと、
    前記画像を処理しピクセルのマトリクスを含む深度マップを作成するプロセッサであって、それぞれのピクセルは前記シーンにおけるそれぞれの位置に対応し基準位置から前記それぞれの位置までの距離を示すピクセル値を有し、前記深度マップをセグメント化して前記身体の輪郭を発見し、前記輪郭を処理して前記対象物のトルソと1又は複数の手足とを識別し、前記深度マップにおける前記識別された手足の少なくとも1つの配置を解析することにより、コンピュータにおいて動作しているアプリケーション・プログラムを制御する入力を生成するプロセッサと、
    を含むことを特徴とする装置。
  16. 請求項15記載の装置において、前記プロセッサは、前記身体に付着された専用のマーカなしで前記深度マップを作成するように構成されていることを特徴とする装置。
  17. 請求項15記載の装置において、前記プロセッサは、単一の静止型画像化デバイスを用いて前記深度マップを作成するように構成されていることを特徴とする装置。
  18. 請求項17記載の装置において、前記画像化デバイスは、スポットの相関のないパターンを前記対象物に射影し、前記射影されたパターンをキャプチャするように構成されていることを特徴とする装置。
  19. 請求項18記載の装置において、前記スポットの相関のないパターンは、コヒーレント光源によって形成されたプライマリ・スペックル・パターンを含むことを特徴とする装置。
  20. 請求項15記載の装置において、前記プロセッサは、前記画像化デバイスによってキャプチャされた画像に応答して少なくとも毎秒25フレームのフレーム速度で一連の深度マップを生成し、前記一連の深度マップに応答して前記制御入力を少なくとも前記フレーム速度と等しい更新速度で更新するように構成されていることを特徴とする装置。
  21. 請求項15記載の装置において、前記プロセッサは、前記身体に接続されていない前記シーンにおける背景物体を識別し、前記輪郭を発見する前に前記背景物体を前記シーンから除去するように構成されていることを特徴とする装置。
  22. 請求項15ないし請求項21のいずれかの請求項に記載の装置において、前記プロセッサは、前記輪郭の内部の領域の厚さを評価し、前記厚さに応答して前記領域の第1の部分を前記トルソとして識別し、前記トルソに接続されている前記領域の第2の部分を前記手足の少なくとも1つとして識別するように構成されていることを特徴とする装置。
  23. 請求項22記載の装置において、前記プロセッサは、前記深度マップにおける前記身体の軸を識別し、前記軸に垂直な複数の第1の線に沿った前記輪郭の横断方向の厚さを計算し、前記軸と平行な複数の第2の線に沿った前記輪郭の長軸方向の厚さを計算し、前記第1及び第2の線によって定義された前記輪郭の内部の領域の一部を前記トルソとして指定することによって、前記厚さを評価するように構成されており、前記第1及び第2の線に沿った前記横断方向の厚さ及び前記長軸方向の厚さは特定された横断方向のスレショルド及び長軸方向のスレショルドよりも小さくないことを特徴とする装置。
  24. 請求項22記載の装置において、前記プロセッサは、前記基準位置からの前記トルソの代表距離を前記深度マップに基づいて決定し、前記ピクセルの距離が前記代表距離よりも小さい前記トルソをオーバレイする領域を前記対象物の腕と識別するように構成されていることを特徴とする装置。
  25. 請求項15ないし請求項21のいずれかの請求項に記載の装置において、前記プロセッサは、前記輪郭を分析して前記1又は複数の手足の1又は複数の対応する中心軸を発見するように構成されていることを特徴とする装置。
  26. 請求項25記載の装置において、前記プロセッサは、前記手足の少なくとも1つを包囲する前記輪郭を逐次的に浸食することによって1又は複数の中心軸を発見するように構成されていることを特徴とする装置。
  27. 請求項25記載の装置において、前記中心軸は湾曲しており、前記プロセッサは、前記中心軸に適合する直線状のセグメントを発見することにより前記1又は複数の手足のスティック形状を有する表現を導くように構成されていることを特徴とする装置。
  28. 請求項15ないし請求項21のいずれかの請求項に記載の装置において、前記1又は複数の手足は前記対象物の腕を含み、前記プロセッサは、前記トルソにおける肩の地点と前記腕における手のひらの地点とを識別し前記肩と前記手のひらとの地点をそれぞれ通過して前記腕の肘において一致する2つの直線状のセグメントを識別することによって、前記腕のスティック状の表現を導くように構成されていることを特徴とする装置。
  29. プログラム命令が記憶されているコンピュータ可読媒体を含むコンピュータ・ソフトウェア・プロダクトであって、前記命令は、コンピュータによって読み取られると、前記コンピュータに、
    ヒューマノイド対象物の身体を含むシーンの深度マップを受け取るステップであって、前記深度マップはピクセルのマトリクスを含み、それぞれのピクセルは、前記シーンにおけるそれぞれの位置に対応し、基準位置から前記それぞれの位置までの距離を示すピクセル値を有する、ステップと、
    前記深度マップをセグメント化して前記身体の輪郭を発見するステップと、
    前記輪郭を処理して前記対象物のトルソと1又は複数の手足とを識別するステップと、
    前記深度マップにおける前記識別された手足の少なくとも1つの配置を解析することにより、コンピュータにおいて動作しているアプリケーション・プログラムを制御する入力を生成するステップと、
    を実行させることを特徴とするコンピュータ・ソフトウェア・プロダクト。
  30. 請求項29記載のコンピュータ・ソフトウェア・プロダクトにおいて、前記命令は、前記コンピュータに、前記身体に専用のマーカを付着させることなく前記深度マップを作成させることを特徴とするコンピュータ・ソフトウェア・プロダクト。
  31. 請求項29記載のコンピュータ・ソフトウェア・プロダクトにおいて、前記命令は、前記コンピュータに、単一の静止型画像化デバイスを用いて前記深度マップを作成させることを特徴とするコンピュータ・ソフトウェア・プロダクト。
  32. 請求項31記載のコンピュータ・ソフトウェア・プロダクトにおいて、スポットの相関のないパターンは前記対象物に射影され、前記射影されたパターンのイメージを前記画像化デバイスを用いてキャプチャするステップと、前記イメージを処理して前記深度マップを生成するステップと、を含むことを特徴とするコンピュータ・ソフトウェア・プロダクト。
  33. 請求項32記載のコンピュータ・ソフトウェア・プロダクトにおいて、前記スポットの相関のないパターンは、コヒーレント光源を用いて形成されたプライマリ・スペックル・パターンを含むことを特徴とするコンピュータ・ソフトウェア・プロダクト。
  34. 請求項29記載のコンピュータ・ソフトウェア・プロダクトにおいて、前記命令は、前記コンピュータに、少なくとも毎秒25フレームのフレーム速度で一連の深度マップを生成させ、前記一連の深度マップに応答して前記制御入力を少なくとも前記フレーム速度と等しい更新速度で更新させることを特徴とすることを特徴とするコンピュータ・ソフトウェア・プロダクト。
  35. 請求項29記載のコンピュータ・ソフトウェア・プロダクトにおいて、前記命令は、前記コンピュータに、前記身体に接続されていない前記シーンにおける背景物体を識別させ、前記輪郭を発見する前に前記背景物体を前記シーンから除去させることを特徴とするコンピュータ・ソフトウェア・プロダクト。
  36. 請求項29ないし請求項35のいずれかの請求項に記載のコンピュータ・ソフトウェア・プロダクトにおいて、前記命令は、前記コンピュータに、前記輪郭の内部の領域の厚さを評価させ、前記厚さに応答して前記領域の第1の部分を前記トルソとして識別させ、前記トルソに接続されている前記領域の第2の部分を前記手足の少なくとも1つとして識別させることを特徴とするコンピュータ・ソフトウェア・プロダクト。
  37. 請求項36記載のコンピュータ・ソフトウェア・プロダクトにおいて、前記命令は、前記コンピュータに、前記深度マップにおける前記身体の軸を識別することと、前記軸に垂直な複数の第1の線に沿った前記輪郭の横断方向の厚さを計算することと、前記軸と平行な複数の第2の線に沿った前記輪郭の長軸方向の厚さを計算することと、前記第1及び第2の線によって定義された前記輪郭の内部の領域の一部を前記トルソとして指定することとによって、前記厚さ評価させ、前記第1及び第2の線に沿った前記横断方向の厚さ及び前記長軸方向の厚さは特定された横断方向のスレショルド及び長軸方向のスレショルドよりも小さくないことを特徴とするコンピュータ・ソフトウェア・プロダクト。
  38. 請求項37記載のコンピュータ・ソフトウェア・プロダクトにおいて、前記命令は、前記コンピュータに、前記基準位置からの前記トルソの代表距離を前記深度マップに基づいて決定させ、前記ピクセルの距離が前記代表距離よりも小さい前記トルソをオーバレイする領域を前記対象物の腕と識別させることを特徴とするコンピュータ・ソフトウェア・プロダクト。
  39. 請求項29ないし請求項35のいずれかの請求項に記載のコンピュータ・ソフトウェア・プロダクトにおいて、前記命令は、前記コンピュータに、前記輪郭を分析させ前記1又は複数の手足の1又は複数の対応する中心軸を発見させることを特徴とするコンピュータ・ソフトウェア・プロダクト。
  40. 請求項39記載のコンピュータ・ソフトウェア・プロダクトにおいて、前記命令は、前記コンピュータに、前記手足の少なくとも1つを包囲する前記輪郭を浸食することによって前記1又は複数の中心軸を発見させることを特徴とするコンピュータ・ソフトウェア・プロダクト。
  41. 請求項39記載のコンピュータ・ソフトウェア・プロダクトにおいて、前記中心軸は湾曲しており、前記命令は、前記コンピュータに、前記中心軸に適合する直線状のセグメントを発見することにより前記1又は複数の手足のスティック形状を表現を導かせることを特徴とするコンピュータ・ソフトウェア・プロダクト。
  42. 請求項29ないし請求項35のいずれかの請求項に記載のコンピュータ・ソフトウェア・プロダクトにおいて、前記1又は複数の手足は前記対象物の腕を含み、前記命令は、前記コンピュータに、前記トルソにおける肩の地点と前記腕における手のひらの地点とを識別することと、前記肩と前記手のひらとの地点を通過して前記腕の肘において一致する2つの直線状のセグメントを識別することとにより、前記腕のスティック形状の表現を導くことを特徴とするコンピュータ・ソフトウェア・プロダクト。
JP2009508667A 2006-05-11 2007-05-10 深度マップによるヒューマノイド形状のモデル化 Active JP5167248B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US79995206P 2006-05-11 2006-05-11
US60/799,952 2006-05-11
PCT/IL2007/000574 WO2007132451A2 (en) 2006-05-11 2007-05-10 Modeling of humanoid forms from depth maps

Publications (3)

Publication Number Publication Date
JP2009536731A true JP2009536731A (ja) 2009-10-15
JP2009536731A5 JP2009536731A5 (ja) 2012-04-12
JP5167248B2 JP5167248B2 (ja) 2013-03-21

Family

ID=38694295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009508667A Active JP5167248B2 (ja) 2006-05-11 2007-05-10 深度マップによるヒューマノイド形状のモデル化

Country Status (4)

Country Link
US (1) US8249334B2 (ja)
JP (1) JP5167248B2 (ja)
CN (2) CN101657825B (ja)
WO (1) WO2007132451A2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011253521A (ja) * 2010-05-31 2011-12-15 Primesense Ltd 3次元場面の分析
JP2013507688A (ja) * 2009-10-07 2013-03-04 マイクロソフト コーポレーション ヒューマントラッキングシステム
JP2013089252A (ja) * 2011-10-21 2013-05-13 Lg Innotek Co Ltd 映像処理方法及び装置
WO2013187202A1 (ja) * 2012-06-12 2013-12-19 株式会社島精機製作所 3次元計測装置及び3次元計測方法
US9282241B2 (en) 2012-05-30 2016-03-08 Panasonic Intellectual Property Corporation Of America Image processing device, image processing method, and image processing program
US9582717B2 (en) 2009-10-07 2017-02-28 Microsoft Technology Licensing, Llc Systems and methods for tracking a model
US9984461B2 (en) 2014-06-27 2018-05-29 Huawei Technologies Co., Ltd. Method, apparatus, and terminal for obtaining vital sign data of target object
JP2020515351A (ja) * 2017-03-27 2020-05-28 スノー コーポレーション オブジェクトの形状に関する情報を取得する方法および装置
JP2020139891A (ja) * 2019-02-28 2020-09-03 クモノスコーポレーション株式会社 球形マーカー検出方法

Families Citing this family (192)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101657825B (zh) 2006-05-11 2014-02-19 普莱姆传感有限公司 根据深度图对人形进行建模
US8265793B2 (en) 2007-03-20 2012-09-11 Irobot Corporation Mobile robot for telecommunication
US7970176B2 (en) * 2007-10-02 2011-06-28 Omek Interactive, Inc. Method and system for gesture classification
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US8471898B2 (en) * 2008-02-05 2013-06-25 Disney Enterprises, Inc. Medial axis decomposition of 2D objects to synthesize binocular depth
US9196080B2 (en) 2008-02-05 2015-11-24 Disney Enterprises, Inc. Medial axis decomposition of 2D objects to synthesize binocular depth
US8113991B2 (en) * 2008-06-02 2012-02-14 Omek Interactive, Ltd. Method and system for interactive fitness training program
US8704832B2 (en) 2008-09-20 2014-04-22 Mixamo, Inc. Interactive design, synthesis and delivery of 3D character motion data through the web
WO2010038822A1 (ja) * 2008-10-01 2010-04-08 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理方法、情報記憶媒体及びプログラム
US8749556B2 (en) 2008-10-14 2014-06-10 Mixamo, Inc. Data compression for real-time streaming of deformable 3D models for 3D animation
US8659596B2 (en) 2008-11-24 2014-02-25 Mixamo, Inc. Real time generation of animation-ready 3D character models
US8982122B2 (en) 2008-11-24 2015-03-17 Mixamo, Inc. Real time concurrent design of shape, texture, and motion for 3D character animation
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8588465B2 (en) * 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US20100259547A1 (en) 2009-02-12 2010-10-14 Mixamo, Inc. Web platform for interactive design, synthesis and delivery of 3d character motion data
CN102317977A (zh) * 2009-02-17 2012-01-11 奥美可互动有限责任公司 用于姿势识别的方法和系统
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US20100285877A1 (en) * 2009-05-05 2010-11-11 Mixamo, Inc. Distributed markerless motion capture
EP2430614B1 (de) * 2009-05-11 2013-09-18 Universität zu Lübeck Verfahren zur echtzeitfähigen, rechnergestützten analyse einer eine veränderliche pose enthaltenden bildsequenz
US8565479B2 (en) 2009-08-13 2013-10-22 Primesense Ltd. Extraction of skeletons from 3D maps
KR101640039B1 (ko) * 2009-09-22 2016-07-18 삼성전자주식회사 영상 처리 장치 및 방법
KR101616926B1 (ko) * 2009-09-22 2016-05-02 삼성전자주식회사 영상 처리 장치 및 방법
US8867820B2 (en) * 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
CN102103696A (zh) * 2009-12-21 2011-06-22 鸿富锦精密工业(深圳)有限公司 人脸辨识系统、方法及具有该系统的身份识别装置
JP2011133273A (ja) * 2009-12-22 2011-07-07 Canon Inc 推定装置及びその制御方法、プログラム
CN102147917A (zh) * 2010-02-08 2011-08-10 三星电子株式会社 检测类棍状目标部件的方法
US20110211749A1 (en) * 2010-02-28 2011-09-01 Kar Han Tan System And Method For Processing Video Using Depth Sensor Information
US8787663B2 (en) 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
CN102188819B (zh) * 2010-03-11 2014-04-02 鼎亿数码科技(上海)有限公司 电子游戏控制装置及方法
US9535493B2 (en) * 2010-04-13 2017-01-03 Nokia Technologies Oy Apparatus, method, computer program and user interface
US8928672B2 (en) 2010-04-28 2015-01-06 Mixamo, Inc. Real-time automatic concatenation of 3D animation sequences
US9014848B2 (en) 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
US9400503B2 (en) 2010-05-20 2016-07-26 Irobot Corporation Mobile human interface robot
WO2011146259A2 (en) 2010-05-20 2011-11-24 Irobot Corporation Mobile human interface robot
US8935005B2 (en) 2010-05-20 2015-01-13 Irobot Corporation Operating a mobile robot
US8918213B2 (en) 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US8966400B2 (en) * 2010-06-07 2015-02-24 Empire Technology Development Llc User movement interpretation in computer generated reality
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
JP5791131B2 (ja) 2010-07-20 2015-10-07 アップル インコーポレイテッド 自然な相互作用のための相互作用的現実拡張
US9201501B2 (en) 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
US8797328B2 (en) 2010-07-23 2014-08-05 Mixamo, Inc. Automatic generation of 3D character animation from 3D meshes
US8649592B2 (en) 2010-08-30 2014-02-11 University Of Illinois At Urbana-Champaign System for background subtraction with 3D camera
US8582867B2 (en) 2010-09-16 2013-11-12 Primesense Ltd Learning-based pose estimation from depth maps
US8959013B2 (en) * 2010-09-27 2015-02-17 Apple Inc. Virtual keyboard for a non-tactile three dimensional user interface
US9542975B2 (en) 2010-10-25 2017-01-10 Sony Interactive Entertainment Inc. Centralized database for 3-D and other information in videos
US9195345B2 (en) * 2010-10-28 2015-11-24 Microsoft Technology Licensing, Llc Position aware gestures with visual feedback as input method
US9349040B2 (en) * 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
WO2012078636A1 (en) 2010-12-07 2012-06-14 University Of Iowa Research Foundation Optimal, user-friendly, object background separation
US8872762B2 (en) 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8385596B2 (en) * 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US9177381B2 (en) * 2010-12-22 2015-11-03 Nani Holdings IP, LLC Depth estimate determination, systems and methods
US8488888B2 (en) * 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
DE112011104645T5 (de) 2010-12-30 2013-10-10 Irobot Corp. Mobiler Mensch-Schnittstellen-Roboter
US8930019B2 (en) 2010-12-30 2015-01-06 Irobot Corporation Mobile human interface robot
KR101795574B1 (ko) 2011-01-06 2017-11-13 삼성전자주식회사 모션에 의해 제어되는 전자기기 및 그 제어 방법
KR20120080072A (ko) * 2011-01-06 2012-07-16 삼성전자주식회사 모션에 의해 제어되는 디스플레이 장치 및 그 모션 제어 방법
KR101858531B1 (ko) 2011-01-06 2018-05-17 삼성전자주식회사 모션에 의해 제어되는 디스플레이 장치 및 그 모션 제어 방법
AU2012207076A1 (en) 2011-01-20 2013-08-15 University Of Iowa Research Foundation Automated determination of arteriovenous ratio in images of blood vessels
US20140035909A1 (en) * 2011-01-20 2014-02-06 University Of Iowa Research Foundation Systems and methods for generating a three-dimensional shape from stereo color images
US8824823B1 (en) * 2011-01-20 2014-09-02 Verint Americas Inc. Increased quality of image objects based on depth in scene
US9268996B1 (en) 2011-01-20 2016-02-23 Verint Systems Inc. Evaluation of models generated from objects in video
US8401242B2 (en) * 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
CN106125921B (zh) 2011-02-09 2019-01-15 苹果公司 3d映射环境中的凝视检测
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
KR20120117165A (ko) * 2011-04-14 2012-10-24 삼성전자주식회사 3차원 영상의 생성 방법 및 이를 이용하는 내시경 장치
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
KR101227569B1 (ko) 2011-05-26 2013-01-29 한국과학기술연구원 골프 스윙 분석을 위한 신체 부위별 위치 추적 장치 및 방법
US8526734B2 (en) * 2011-06-01 2013-09-03 Microsoft Corporation Three-dimensional background removal for vision system
US9594430B2 (en) * 2011-06-01 2017-03-14 Microsoft Technology Licensing, Llc Three-dimensional foreground selection for vision system
US9098110B2 (en) * 2011-06-06 2015-08-04 Microsoft Technology Licensing, Llc Head rotation tracking from depth-based center of mass
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
CN102855459B (zh) * 2011-06-30 2015-11-25 株式会社理光 用于特定前景物体的检测验证的方法和系统
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US10049482B2 (en) 2011-07-22 2018-08-14 Adobe Systems Incorporated Systems and methods for animation recommendations
KR101815975B1 (ko) * 2011-07-27 2018-01-09 삼성전자주식회사 객체 자세 검색 장치 및 방법
CN102289818B (zh) * 2011-07-27 2012-12-05 中国民航大学 一种基于图形分析的肘部定位方法
FR2978855B1 (fr) * 2011-08-04 2013-09-27 Commissariat Energie Atomique Procede et dispositif de calcul d'une carte de profondeur a partir d'une unique image
US8971572B1 (en) 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US9122311B2 (en) 2011-08-24 2015-09-01 Apple Inc. Visual feedback for tactile and non-tactile user interfaces
CN102324041B (zh) * 2011-09-09 2014-12-03 深圳泰山在线科技有限公司 像素归类方法、关节体姿态识别方法及鼠标指令生成方法
US9002099B2 (en) 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
FR2980292B1 (fr) 2011-09-16 2013-10-11 Prynel Procede et systeme d'acquisition et de traitement d'images pour la detection du mouvement
US9672609B1 (en) * 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
CN102521646B (zh) * 2011-11-11 2015-01-21 浙江捷尚视觉科技股份有限公司 基于深度信息聚类的复杂场景人数统计方法
US10748325B2 (en) 2011-11-17 2020-08-18 Adobe Inc. System and method for automatic rigging of three dimensional characters for facial animation
US8958631B2 (en) 2011-12-02 2015-02-17 Intel Corporation System and method for automatically defining and identifying a gesture
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
JP6044079B2 (ja) * 2012-02-06 2016-12-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
US8958911B2 (en) 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
US9747495B2 (en) 2012-03-06 2017-08-29 Adobe Systems Incorporated Systems and methods for creating and distributing modifiable animated video messages
US9959634B2 (en) * 2012-03-13 2018-05-01 Google Llc Method and system for identifying depth data associated with an object
US9377863B2 (en) 2012-03-26 2016-06-28 Apple Inc. Gaze-enhanced virtual touchscreen
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
US9047507B2 (en) 2012-05-02 2015-06-02 Apple Inc. Upper-body skeleton extraction from depth maps
US9545196B2 (en) 2012-05-04 2017-01-17 University Of Iowa Research Foundation Automated assessment of glaucoma loss from optical coherence tomography
JP2015525381A (ja) * 2012-05-04 2015-09-03 オブロング・インダストリーズ・インコーポレーテッド 相互ユーザ手追跡および形状認識ユーザ・インターフェース
EP2674913B1 (en) 2012-06-14 2014-07-23 Softkinetic Software Three-dimensional object modelling fitting & tracking.
CN102778953B (zh) * 2012-06-28 2015-06-24 华东师范大学 基于Kinect的皮影戏远程数字表演的体感控制方法
CN102800126A (zh) * 2012-07-04 2012-11-28 浙江大学 基于多模态融合的实时人体三维姿态恢复的方法
WO2014037939A1 (en) * 2012-09-05 2014-03-13 Body Pass Ltd. System and method for deriving accurate body size measures from a sequence of 2d images
TWI466062B (zh) * 2012-10-04 2014-12-21 Ind Tech Res Inst 重建三維模型的方法與三維模型重建裝置
US9384585B2 (en) * 2012-10-23 2016-07-05 Electronics And Telecommunications Research Institute 3-dimensional shape reconstruction device using depth image and color image and the method
US9019267B2 (en) * 2012-10-30 2015-04-28 Apple Inc. Depth mapping with enhanced resolution
JP2014089665A (ja) * 2012-10-31 2014-05-15 Toshiba Corp 画像処理装置、画像処理方法、及び画像処理プログラム
DE102012110460A1 (de) * 2012-10-31 2014-04-30 Audi Ag Verfahren zum Eingeben eines Steuerbefehls für eine Komponente eines Kraftwagens
US9124635B2 (en) 2012-11-30 2015-09-01 Intel Corporation Verified sensor data processing
US9020189B2 (en) * 2012-12-07 2015-04-28 The Nielsen Company (Us), Llc Methods and apparatus to monitor environments
TWI454968B (zh) 2012-12-24 2014-10-01 Ind Tech Res Inst 三維互動裝置及其操控方法
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9052746B2 (en) * 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9135516B2 (en) * 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US10360672B2 (en) 2013-03-15 2019-07-23 University Of Iowa Research Foundation Automated separation of binary overlapping trees
WO2014168500A1 (en) * 2013-04-08 2014-10-16 Lsi Corporation Front-end architecture for image processing
US10341611B2 (en) 2013-04-30 2019-07-02 Inuitive Ltd. System and method for video conferencing
JP6152475B2 (ja) 2013-06-23 2017-06-21 インテル・コーポレーション 受取人が興味のあるギフトをクラウドソーシングすることのような、文脈関係情報に基づくユーザ情報の選択的シェアリング
KR101913319B1 (ko) * 2013-07-16 2019-01-14 삼성전자주식회사 깊이 영상에서 인터페이싱 영역을 검출하는 방법 및 장치
US9542626B2 (en) * 2013-09-06 2017-01-10 Toyota Jidosha Kabushiki Kaisha Augmenting layer-based object detection with deep convolutional neural networks
US9355334B1 (en) * 2013-09-06 2016-05-31 Toyota Jidosha Kabushiki Kaisha Efficient layer-based object recognition
US9485433B2 (en) 2013-12-31 2016-11-01 Personify, Inc. Systems and methods for iterative adjustment of video-capture settings based on identified persona
WO2015143435A1 (en) 2014-03-21 2015-09-24 University Of Iowa Research Foundation Graph search using non-euclidean deformed graph
CN105303152B (zh) * 2014-07-15 2019-03-22 中国人民解放军理工大学 一种人体再识别方法
USD733141S1 (en) 2014-09-10 2015-06-30 Faro Technologies, Inc. Laser scanner
PL411338A1 (pl) * 2015-02-23 2016-08-29 Samsung Electronics Polska Spółka Z Ograniczoną Odpowiedzialnością Sposób interakcji z wirtualnymi obiektami w przestrzeni trójwymiarowej oraz system do interakcji z wirtualnymi obiektami w przestrzeni trójwymiarowej
US9594967B2 (en) * 2015-03-31 2017-03-14 Google Inc. Method and apparatus for identifying a person by measuring body part distances of the person
US10115194B2 (en) 2015-04-06 2018-10-30 IDx, LLC Systems and methods for feature detection in retinal images
US9984519B2 (en) 2015-04-10 2018-05-29 Google Llc Method and system for optical user recognition
US9715620B2 (en) * 2015-05-15 2017-07-25 Itseez 3D, Inc. Method to position a parallelepiped bounded scanning volume around a person
US9916668B2 (en) 2015-05-19 2018-03-13 Personify, Inc. Methods and systems for identifying background in video data using geometric primitives
US9563962B2 (en) 2015-05-19 2017-02-07 Personify, Inc. Methods and systems for assigning pixels distance-cost values using a flood fill technique
US9792692B2 (en) * 2015-05-29 2017-10-17 Ncr Corporation Depth-based image element removal
JP6584862B2 (ja) * 2015-08-20 2019-10-02 株式会社デンソーテン 物体検出装置、物体検出システム、物体検出方法及びプログラム
US9922244B2 (en) * 2015-09-03 2018-03-20 Gestigon Gmbh Fast and robust identification of extremities of an object within a scene
US10610133B2 (en) 2015-11-05 2020-04-07 Google Llc Using active IR sensor to monitor sleep
CN105469113B (zh) * 2015-11-19 2019-03-22 广州新节奏智能科技股份有限公司 一种二维视频流中的人体骨骼点追踪方法及系统
US10248839B2 (en) * 2015-11-30 2019-04-02 Intel Corporation Locating objects within depth images
US10043279B1 (en) 2015-12-07 2018-08-07 Apple Inc. Robust detection and classification of body parts in a depth map
US10318813B1 (en) 2016-03-11 2019-06-11 Gracenote, Inc. Digital video fingerprinting using motion segmentation
DK3466068T3 (da) * 2016-06-03 2021-02-15 Utku Buyuksahin Et system og en metode til at tage og generere 3d-billeder
US9940721B2 (en) * 2016-06-10 2018-04-10 Hand Held Products, Inc. Scene change detection in a dimensioner
US9883155B2 (en) 2016-06-14 2018-01-30 Personify, Inc. Methods and systems for combining foreground video and background video using chromatic matching
US10062198B2 (en) 2016-06-23 2018-08-28 LoomAi, Inc. Systems and methods for generating computer ready animation models of a human head from captured data images
US10559111B2 (en) 2016-06-23 2020-02-11 LoomAi, Inc. Systems and methods for generating computer ready animation models of a human head from captured data images
JP6598748B2 (ja) * 2016-08-26 2019-10-30 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法
US10366278B2 (en) 2016-09-20 2019-07-30 Apple Inc. Curvature-based face detector
US9881207B1 (en) * 2016-10-25 2018-01-30 Personify, Inc. Methods and systems for real-time user extraction using deep learning networks
WO2018120038A1 (zh) * 2016-12-30 2018-07-05 深圳前海达闼云端智能科技有限公司 一种目标检测的方法及装置
CN107169262B (zh) * 2017-03-31 2021-11-23 百度在线网络技术(北京)有限公司 推荐塑身方案的方法、装置、设备和计算机存储介质
CN107230226A (zh) * 2017-05-15 2017-10-03 深圳奥比中光科技有限公司 人体关联关系的判断方法、装置及存储装置
CN107341179B (zh) * 2017-05-26 2020-09-18 深圳奥比中光科技有限公司 标准运动数据库的生成方法、装置及存储装置
CN107335192A (zh) * 2017-05-26 2017-11-10 深圳奥比中光科技有限公司 运动辅助训练方法、装置及存储装置
US11494897B2 (en) 2017-07-07 2022-11-08 William F. WILEY Application to determine reading/working distance
US10527711B2 (en) 2017-07-10 2020-01-07 Aurora Flight Sciences Corporation Laser speckle system and method for an aircraft
DE202017104506U1 (de) 2017-07-28 2017-09-05 Apple Inc. Krümmungsbasierter Gesichtsdetektor
EP3467782A1 (en) * 2017-10-06 2019-04-10 Thomson Licensing Method and device for generating points of a 3d scene
CN108563329B (zh) * 2018-03-23 2021-04-27 上海数迹智能科技有限公司 一种基于深度图的人体手臂位置参数提取算法
US10198845B1 (en) 2018-05-29 2019-02-05 LoomAi, Inc. Methods and systems for animating facial expressions
US11212506B2 (en) 2018-07-31 2021-12-28 Intel Corporation Reduced rendering of six-degree of freedom video
US10887574B2 (en) 2018-07-31 2021-01-05 Intel Corporation Selective packing of patches for immersive video
US10893299B2 (en) 2018-07-31 2021-01-12 Intel Corporation Surface normal vector processing mechanism
US11178373B2 (en) 2018-07-31 2021-11-16 Intel Corporation Adaptive resolution of point cloud and viewpoint prediction for video streaming in computing environments
US10762394B2 (en) * 2018-07-31 2020-09-01 Intel Corporation System and method for 3D blob classification and transmission
CN109146906B (zh) * 2018-08-22 2021-03-23 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
US10909373B1 (en) * 2018-08-24 2021-02-02 Snap Inc. Augmented reality system using structured light
US11057631B2 (en) 2018-10-10 2021-07-06 Intel Corporation Point cloud coding standard conformance definition in computing environments
CN111353930B (zh) * 2018-12-21 2022-05-24 北京市商汤科技开发有限公司 数据处理方法及装置、电子设备及存储介质
CN109685025A (zh) * 2018-12-27 2019-04-26 中科院合肥技术创新工程院 肩部特征和坐姿行为识别方法
CN110135382B (zh) * 2019-05-22 2021-07-27 北京华捷艾米科技有限公司 一种人体检测方法和装置
US20220319105A1 (en) * 2019-07-10 2022-10-06 Sony Interactive Entertainment Inc. Image display apparatus, image display system, and image display method
US11551393B2 (en) 2019-07-23 2023-01-10 LoomAi, Inc. Systems and methods for animation generation
CN111144212B (zh) * 2019-11-26 2023-06-23 北京华捷艾米科技有限公司 一种深度图像目标分割方法及装置
US20210245047A1 (en) 2020-02-10 2021-08-12 Intel Corporation Continuum architecture for cloud gaming
CN111366916B (zh) * 2020-02-17 2021-04-06 山东睿思奥图智能科技有限公司 确定交互目标与机器人之间距离的方法、装置及电子设备
US11284847B2 (en) * 2020-06-30 2022-03-29 GE Precision Healthcare LLC X-ray imaging system and method
CN112036232B (zh) * 2020-07-10 2023-07-18 中科院成都信息技术股份有限公司 一种图像表格结构识别方法、系统、终端以及存储介质
CN112587903A (zh) * 2020-11-30 2021-04-02 珠海大横琴科技发展有限公司 一种基于深度学习的短跑运动员起跑训练方法及系统
KR20230144042A (ko) 2021-02-08 2023-10-13 사이트풀 컴퓨터스 리미티드 생산성을 위한 확장 현실
EP4295314A1 (en) 2021-02-08 2023-12-27 Sightful Computers Ltd Content sharing in extended reality
EP4288950A1 (en) 2021-02-08 2023-12-13 Sightful Computers Ltd User interactions in extended reality
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
US20230334795A1 (en) 2022-01-25 2023-10-19 Multinarity Ltd Dual mode presentation of user interface elements
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0329806A (ja) * 1989-06-28 1991-02-07 Furuno Electric Co Ltd 物体形状測定方法
JPH10235584A (ja) * 1997-02-26 1998-09-08 Kao Corp 物品認識方法及び装置
JP2003220055A (ja) * 2001-11-20 2003-08-05 Konica Corp 特徴量抽出方法、被写体認識方法および画像処理装置ならびに画像処理プログラム
US20050031166A1 (en) * 2003-05-29 2005-02-10 Kikuo Fujimura Visual tracking using depth data

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6384859B1 (en) * 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
US5852672A (en) * 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects
RU2109336C1 (ru) * 1995-07-14 1998-04-20 Нурахмед Нурисламович Латыпов Способ погружения пользователя в виртуальную реальность и устройство для его реализации
EP0768511A1 (en) * 1995-10-16 1997-04-16 European Community Optical three-dimensional profilometry method based on processing speckle images in partially coherent light, and interferometer implementing such a method
US5864635A (en) * 1996-06-14 1999-01-26 International Business Machines Corporation Distinguishing gestures from handwriting in a pen based computer by stroke analysis
US5862256A (en) * 1996-06-14 1999-01-19 International Business Machines Corporation Distinguishing gestures from handwriting in a pen based computer by size discrimination
US6002808A (en) * 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
AU2211799A (en) 1998-01-06 1999-07-26 Video Mouse Group, The Human motion following computer mouse and game controller
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7003134B1 (en) * 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
JP3974359B2 (ja) * 2000-10-31 2007-09-12 株式会社東芝 オンライン文字認識装置及び方法並びにコンピュータ読み取り可能な記憶媒体及びオンライン文字認識プログラム
US6816615B2 (en) * 2000-11-10 2004-11-09 Microsoft Corporation Implicit page breaks for digitally represented handwriting
US6831632B2 (en) * 2001-04-09 2004-12-14 I. C. + Technologies Ltd. Apparatus and methods for hand motion tracking and handwriting recognition
US7259747B2 (en) * 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US7123761B2 (en) * 2001-11-20 2006-10-17 Konica Corporation Feature extracting method, subject recognizing method and image processing apparatus
JP4050055B2 (ja) * 2002-01-10 2008-02-20 株式会社リコー 手書き文字一括変換装置、手書き文字一括変換方法およびプログラム
US7340077B2 (en) * 2002-02-15 2008-03-04 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US7203356B2 (en) * 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
US7348963B2 (en) * 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7170492B2 (en) * 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US6857746B2 (en) * 2002-07-01 2005-02-22 Io2 Technology, Llc Method and system for free-space imaging display and interface
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
JP4318465B2 (ja) * 2002-11-08 2009-08-26 コニカミノルタホールディングス株式会社 人物検出装置および人物検出方法
US7576727B2 (en) * 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
CN1512298A (zh) * 2002-12-26 2004-07-14 �ʼҷ����ֵ��ӹɷ����޹�˾ 三维手写识别的方法及其系统
KR100518824B1 (ko) * 2003-03-17 2005-10-05 삼성전자주식회사 필기 모션 획 구분 인식 시스템 및 그 인식방법
KR100465241B1 (ko) * 2003-03-17 2005-01-13 삼성전자주식회사 가상 필기 평면을 이용한 모션 인식 시스템 및 그 인식방법
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
JP4723799B2 (ja) 2003-07-08 2011-07-13 株式会社ソニー・コンピュータエンタテインメント 制御システムおよび制御方法
US7317450B2 (en) * 2003-09-26 2008-01-08 Khomo Malome T Spatial chirographic sign reader
KR101094119B1 (ko) * 2003-10-24 2011-12-15 인텔렉츄얼 벤처스 홀딩 67 엘엘씨 양방향 비디오 디스플레이 시스템 운용 방법 및 시스템
WO2005041579A2 (en) * 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US7302099B2 (en) * 2003-11-10 2007-11-27 Microsoft Corporation Stroke segmentation for template-based cursive handwriting recognition
US20050215319A1 (en) 2004-03-23 2005-09-29 Harmonix Music Systems, Inc. Method and apparatus for controlling a three-dimensional character in a three-dimensional gaming environment
US8487879B2 (en) * 2004-10-29 2013-07-16 Microsoft Corporation Systems and methods for interacting with a computer through handwriting to a screen
US7428542B1 (en) * 2005-05-31 2008-09-23 Reactrix Systems, Inc. Method and system for combining nodes into a mega-node
US8022928B2 (en) * 2005-08-22 2011-09-20 Qinzhong Ye Free-space pointing and handwriting
US8390821B2 (en) * 2005-10-11 2013-03-05 Primesense Ltd. Three-dimensional sensing using speckle patterns
EP1934945A4 (en) 2005-10-11 2016-01-20 Apple Inc METHOD AND SYSTEM FOR RECONSTRUCTING AN OBJECT
TWI301590B (en) * 2005-12-30 2008-10-01 Ibm Handwriting input method, apparatus, system and computer recording medium with a program recorded thereon of capturing video data of real-time handwriting strokes for recognition
US20070230789A1 (en) * 2006-04-03 2007-10-04 Inventec Appliances Corp. Method of controlling an electronic device by handwriting
CN101657825B (zh) 2006-05-11 2014-02-19 普莱姆传感有限公司 根据深度图对人形进行建模
GB2438449C (en) 2006-05-24 2018-05-30 Sony Computer Entertainment Europe Ltd Control of data processing
US20090009593A1 (en) * 2006-11-29 2009-01-08 F.Poszat Hu, Llc Three dimensional projection display
US8005294B2 (en) * 2006-11-29 2011-08-23 The Mitre Corporation Cursive character handwriting recognition system and method
JP2008242929A (ja) * 2007-03-28 2008-10-09 Oki Data Corp 手書き入力システム
TWI433052B (zh) 2007-04-02 2014-04-01 Primesense Ltd 使用投影圖案之深度製圖
US20080252596A1 (en) * 2007-04-10 2008-10-16 Matthew Bell Display Using a Three-Dimensional vision System
US20090078473A1 (en) * 2007-09-26 2009-03-26 Digital Pen Systems Handwriting Capture For Determining Absolute Position Within A Form Layout Using Pen Position Triangulation
TWI343544B (en) * 2007-09-26 2011-06-11 Inventec Appliances Corp A handwriting record device
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US8165398B2 (en) * 2008-05-30 2012-04-24 Sony Ericsson Mobile Communications Ab Method and device for handwriting detection
US8456517B2 (en) 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
WO2010103482A2 (en) * 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
US8565479B2 (en) * 2009-08-13 2013-10-22 Primesense Ltd. Extraction of skeletons from 3D maps
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
US20110292036A1 (en) * 2010-05-31 2011-12-01 Primesense Ltd. Depth sensor with application interface
US8594425B2 (en) * 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
US8582867B2 (en) * 2010-09-16 2013-11-12 Primesense Ltd Learning-based pose estimation from depth maps

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0329806A (ja) * 1989-06-28 1991-02-07 Furuno Electric Co Ltd 物体形状測定方法
JPH10235584A (ja) * 1997-02-26 1998-09-08 Kao Corp 物品認識方法及び装置
JP2003220055A (ja) * 2001-11-20 2003-08-05 Konica Corp 特徴量抽出方法、被写体認識方法および画像処理装置ならびに画像処理プログラム
US20050031166A1 (en) * 2003-05-29 2005-02-10 Kikuo Fujimura Visual tracking using depth data
JP2007514211A (ja) * 2003-05-29 2007-05-31 本田技研工業株式会社 深度データを用いたビジュアルトラッキング

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9582717B2 (en) 2009-10-07 2017-02-28 Microsoft Technology Licensing, Llc Systems and methods for tracking a model
US8861839B2 (en) 2009-10-07 2014-10-14 Microsoft Corporation Human tracking system
US9821226B2 (en) 2009-10-07 2017-11-21 Microsoft Technology Licensing, Llc Human tracking system
US8970487B2 (en) 2009-10-07 2015-03-03 Microsoft Technology Licensing, Llc Human tracking system
JP2013507688A (ja) * 2009-10-07 2013-03-04 マイクロソフト コーポレーション ヒューマントラッキングシステム
US9522328B2 (en) 2009-10-07 2016-12-20 Microsoft Technology Licensing, Llc Human tracking system
JP2011253521A (ja) * 2010-05-31 2011-12-15 Primesense Ltd 3次元場面の分析
JP2013089252A (ja) * 2011-10-21 2013-05-13 Lg Innotek Co Ltd 映像処理方法及び装置
US9282241B2 (en) 2012-05-30 2016-03-08 Panasonic Intellectual Property Corporation Of America Image processing device, image processing method, and image processing program
WO2013187202A1 (ja) * 2012-06-12 2013-12-19 株式会社島精機製作所 3次元計測装置及び3次元計測方法
US9984461B2 (en) 2014-06-27 2018-05-29 Huawei Technologies Co., Ltd. Method, apparatus, and terminal for obtaining vital sign data of target object
KR101922039B1 (ko) * 2014-06-27 2018-11-26 후아웨이 테크놀러지 컴퍼니 리미티드 목표 물체의 증상 데이터를 획득하기 위한 방법, 장치, 및 단말
JP2020515351A (ja) * 2017-03-27 2020-05-28 スノー コーポレーション オブジェクトの形状に関する情報を取得する方法および装置
US11403864B2 (en) 2017-03-27 2022-08-02 Snow Corporation Method and apparatus for acquiring information on shape of object
JP2020139891A (ja) * 2019-02-28 2020-09-03 クモノスコーポレーション株式会社 球形マーカー検出方法
JP7208061B2 (ja) 2019-02-28 2023-01-18 クモノスコーポレーション株式会社 球形マーカー検出方法

Also Published As

Publication number Publication date
US8249334B2 (en) 2012-08-21
JP5167248B2 (ja) 2013-03-21
WO2007132451A2 (en) 2007-11-22
CN103778635A (zh) 2014-05-07
CN101657825B (zh) 2014-02-19
WO2007132451A3 (en) 2009-04-16
CN101657825A (zh) 2010-02-24
US20100034457A1 (en) 2010-02-11
CN103778635B (zh) 2016-09-28

Similar Documents

Publication Publication Date Title
JP5167248B2 (ja) 深度マップによるヒューマノイド形状のモデル化
JP2009536731A5 (ja)
US9594950B2 (en) Depth mapping with enhanced resolution
US9898651B2 (en) Upper-body skeleton extraction from depth maps
US9525862B2 (en) Method for estimating a camera motion and for determining a three-dimensional model of a real environment
US9196045B2 (en) Analysis of three-dimensional scenes
KR101616926B1 (ko) 영상 처리 장치 및 방법
US9235753B2 (en) Extraction of skeletons from 3D maps
JP6723061B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
KR20180087947A (ko) 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치
KR100939294B1 (ko) 3차원 공간에서의 사람 움직임 추적 방법 및 장치
JP2018119833A (ja) 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体
JP3144400B2 (ja) ジェスチャ認識装置及び方法
CN117238031A (zh) 一种虚拟人的动作捕捉方法与系统
Riecický et al. Optical-inertial Synchronization of MoCap Suit with Single Camera Setup for Reliable Position Tracking.
Cordea et al. 3D head pose recovery for interactive virtual reality avatars
Madaras et al. Position estimation and calibration of inertial motion capture systems using single camera
Merriman Real-Time 3D Person Tracking and Dense Stereo Maps Using GPU Acceleration

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100420

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111124

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20120221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121221

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5167248

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250