JP2010519629A - 画像内の3次元物体のポーズを決定する方法及びデバイス並びに物体追跡のための少なくとも1つのキー画像を創出する方法及びデバイス - Google Patents

画像内の3次元物体のポーズを決定する方法及びデバイス並びに物体追跡のための少なくとも1つのキー画像を創出する方法及びデバイス Download PDF

Info

Publication number
JP2010519629A
JP2010519629A JP2009550305A JP2009550305A JP2010519629A JP 2010519629 A JP2010519629 A JP 2010519629A JP 2009550305 A JP2009550305 A JP 2009550305A JP 2009550305 A JP2009550305 A JP 2009550305A JP 2010519629 A JP2010519629 A JP 2010519629A
Authority
JP
Japan
Prior art keywords
image
dimensional
pose
determining
generic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009550305A
Other languages
English (en)
Other versions
JP2010519629A5 (ja
Inventor
ルフェーブル,バランタン
リベ,ニコラ
Original Assignee
トタル イメルシオン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トタル イメルシオン filed Critical トタル イメルシオン
Publication of JP2010519629A publication Critical patent/JP2010519629A/ja
Publication of JP2010519629A5 publication Critical patent/JP2010519629A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本発明は、物体の総称的な3次元モデルを取得するステップと、少なくとも1つの2次元の表示として総称的な3次元モデルを投影して、3次元物体のポーズに関する情報のそれぞれの2次元の表示を関連させるステップと、画像内の物体に2次元の表示の選択・配置するステップと、少なくとも選択した2次元の表示に関連するポーズ情報から画像内の物体の3次元ポーズを決定するステップとを有することを特徴とする画像内の3次元物体のポーズを決定する方法及びデバイスに関する。
【選択図】図5

Description

本発明は、拡張現実としても公知である、リアルタイムでの現実及び仮想画像の合成に関する。より詳細には、画像内の3次元物体のポーズを決定する方法及びデバイス並びに3次元物体に対応する少なくとも1つのキー画像を創出する方法及びデバイスに関する。
拡張現実の物体は、ビデオストリームの画像の中に1つ以上の仮想物体を挿入できる。アプリケーションの種類によって、3次元物体の位置及び方向は、例えば、ゲームのシナリオなどから直接得た座標など、画像に表された場面外のデータ、又はプレーヤの手など場面内の特定の点の座標など、場面の特定の要素に関係したデータによって決定できる。場面の特定の要素と関係するデータによって位置と方向とが決められる場合は、カメラの動作の関数、又は場面の中のこれらの要素自体の動きの関数として、これらの要素を追跡する必要がある。要素を追跡する動作と、現実画像に仮想物体をはめ込む動作とは、別のコンピュータ、又は同一のコンピュータで実行できる。
画像ストリーム内の要素を追跡する多くの方法がある。ターゲット追跡アルゴリズムとも称される、要素を追跡するアルゴリズムにおいては、一般に目視できるマーカ、若しくは高周波又は赤外線などの他の手段のマーカを使用する。また、形状認識を使用して画像ストリーム内の特定の画像を追跡するアルゴリズムもある。
ローザンヌ連邦理工科大学は、マーカを使用しない視覚追跡アルゴリズムを開発した。この新規な点は、ビデオストリームの現画像と、キー画像との特定の点をマッチすることにある。キー画像は、キーフレームと称され、システムの初期化においてユーザから提供され、視覚追跡の間に更新される。
この視覚追跡の目的は、画像解析によって、現実場面内で3次元メッシュ(three-direction meshing)に利用する物体のポーズを見つけること、即ち物体の位置及び方向を見つけること、又は、その物体を撮影する固定カメラからその物体に関する付帯的な位置及び方向パラメータを見つけることである。
ビデオの現画像は、記憶された1つ以上のキー画像と比較されて、物体のポーズを推定するためにこれらの画像対の間の非常に多くのマッチを見つける。この目的を達成するために、キー画像は、ビデオストリームから捕捉した画像と、その画像内に現れる3次元モデルのポーズ(方向及び位置)との2つの要素から構成される。「オフライン」キー画像と「オンライン」キー画像との間を区別する必要がある。オフラインキー画像は、マウスなどのポインティングデバイス、又はドイプファー社製のコンピュータのポケットダイアル(商標)などの調整機器を使用して、追跡する物体が配置されるビデオストリームから手動で抽出する画像である。好適には、オフラインキー画像は、多くの画像で同一の物体のポーズを特徴付ける。オフラインキー画像は、「オフライン」で、実行されている。すなわち、アプリケーションが動作している状態(ongoing regime)以外で創出・記憶される。オンライン画像は、追跡プログラムの実行と同時に記憶される。オンラインキー画像は、エラーが小さいとき、すなわちPOI(point of interest)のマッチの間の距離が短いときに計算される。オンラインキー画像は、アプリケーションの初期化に使用したオフラインキー画像を置き換える。オンラインキー画像を使用する目的は、ドリフトとして知られ、カメラと物体との間の初期の相対的な位置から大きく移動したときに、大きくなるオフセットを減らすことである。また、新しいオンラインキー画像を取得することにより、アプリケーションは、外部光の変化、及びカメラの色彩測定の変化に対して、より強いロバストを有するようになる。しかしながら、時間が経つと物体のポーズに「振動」効果が入るという不利な点がある。新しいオンラインキー画像を取得することにより、その画像は、先のオフライン又はオンラインキー画像を置き換えて、最新のキー画像として使用される。
オフライン又はオンラインキー画像はそれぞれ、物体が存在する画像と、その物体及び画像内の物体を特徴付ける多くのPOIの配置を特徴付けるポーズとを有する。例えば、POIは、ハリスのポイント検出器(Harris points detector)を使用して構成され、画像内の高い方向性勾配値を有する位置を表す。
アプリケーションを初期化する前に、1つ以上のオフラインキー画像を決定する必要がある。一般に画像は、追跡する物体を有するビデオストリームから抽出され、その物体の3次元モデルの位置及び方向に関係する。このため、操作をする人は、ワイヤモデルと現実の物体とをマッチするための手動操作を行う。したがって、手動の準備段階は、ビデオストリームから抽出される画像内の物体のポーズの最初の推定を見つけることに含まれる。これは、物体に付された基準系とカメラに関する基準系との間を変換する行列に対応する初期のアフィン変換TO→Cをフォーマットすることを意味する。初期のアフィン変換は、場面の中心など物体の初期位置に関する変換、即ちカメラの基準系と物体の基準系との間の基準系の変更に関係した第1の変換TP→Oと、場面の中心に位置する初期位置から物体が実際にキー画像において位置している位置及び方向に物体の移動および回転に関する第2の変換Tp→Cとに分けることができる。ここで、TO→C=TP→O・Tp→Cである。α、β、及びγが画像の中心の初期の位置からキー画像の位置への物体の転換に対応し、θ、φ、及びψがX、Y、及びZ軸に関して画像の中心の初期の位置からー画像の位置への物体の回転に対応する場合、変換TP→Oは、以下の行列の形式で表される。
Figure 2010519629
このモデルを使用することによって、物体の基準系で表された物体の3次元モデルの座標点と、カメラの基準系の座標点との間の関係が確立する。
アプリケーションの初期化において、オフラインキー画像を処理して、アプリケーションの起動時に選択するパラメータの関数としてPOIを配置する。これらのパラメータは、使用するアプリケーションの種類をそれぞれ実験的に特定し、マッチする方向の中心を調整し、現実環境の特性に従って物体のポーズを推測する高い質を生み出す。そして、現画像における現実物体がオフラインキー画像の1つの同一画像のポーズと近接するポーズを有する場合は、マッチ数は多くなる。そして、現実物体に対して物体の仮想3次元モデルの鍵となるアフィン変換を見つけることが可能になる。
このようなマッチが見つかった場合、アルゴリズムは、動作状態に進む。物体の移動は、1つのフレームから他のフレームに追跡され、ドリフトは、初期化時に含まれたオフラインキー画像と、アプリケーションの実行時に計算されたオンラインキー画像とに含まれる情報を使用して補償される。
追跡アプリケーションは、ハリスのポイント検出器の修正版などのPOIの検出、及び3次元モデルに配置されたPOIを画像面に再投影技術の2種類のアルゴリズムを組み合わせる。この再投影は、1つのフレームから他のフレームへの空間変換の結果を予測する。これら2つのアルゴリズムを組み合わせることにより、6自由度である、ロバスト物体追跡が提供される。
一般的に言えば、画像の点Pは、現実場面の点Pの投射である。ここで、P〜PI・PE・TP→C・Pとなり、ここでPIは、カメラの固有パラメータの行列、即ちカメラの焦点値、画像の中心、及びオフセットを示し、PEは、カメラの外因性パラメータの行列、即ち現実空間におけるカメラの位置を示し、TP→Cは、追跡物体に関する基準系とカメラの基準系との間を変換するアファイン行列を示す。ここでは、物体の相対的な位置をカメラの相対的な位置に相対することのみを考える。これは、カメラの光学的中心に現実場面の基準系を位置することを意味する。これにより、式P〜PI・TP→C・Pとなる。ここで、TP→Cは、カメラの基準系における物体のポーズの行列である。行列PIは公知であるので、追跡の問題は、行列TP→Cを決定することである。
なお、しかしながら、エラー測定結果が多すぎる場合、即ち、現キー画像と現画像との間のマッチ数が少なすぎる場合は、追跡は、非同期化され(物体のポーズの推定がもはや十分にコヒーレントではないと考えられ)、同一のオフラインキー画像を使用した初期化段階が必要となる。
物体のポーズは、ビデオストリームからの現画像のPOIと、現キー画像のPOIと、ビデオストリームからの予測画像のPOIとの間のマッチに従って推定される。これらの動作は、マッチング段階と称される。もっとも重要な相関関係から、ソフトウェアは、観測結果にもっとも対応した物体のポーズを算出する。
図1及び2は、この追跡アプリケーションを説明する。
多くの場合、提案されるソリュージョンは、研究に起因し、商業的システムを構築する際の制約を考慮しない。具体的には、ロバスト性に関する問題、追跡システムの初期化のために必要な1つ又はいくつかのオフラインキー画像を創出する手動段階を必要とせずに早急にアプリケーションを起動する必要性の問題、「非同期化」エラー検出(追跡する物体を「見失った」とき)の問題、及びそのようなエラーのあとにリアルタイムで再度自動初期化する問題については、多くの場合考慮されていない。
本発明は、上述の問題の少なくとも1つを解消する。
したがって、本発明は、画像内の3次元物体のポーズ決定方法であって、
物体の総称的な3次元モデルを取得するステップと、
少なくとも1つの2次元の表示として総称的な3次元モデルを投射して、3次元物体のポーズに関する情報のそれぞれの2次元の表示を関連させるステップと、
画像内の物体に2次元の表示を選択・配置するステップと、
少なくとも選択した2次元の表示に関連するポーズ情報から画像内の物体の3次元ポーズを決定するステップと、
を有することを特徴とする。
したがって、特にビデオストリームの3次元物体の自動追跡を使用する拡張現実アプリケーションの初期化キー画像を創出する観点から、本発明に係る方法は、画像内の3次元物体のポーズを自動的に決定する。この決定は、物体モデルの取得と、少なくとも1つの2次元の表示としての後の投射に基づき、画像内の物体の表示を配置して物体のポーズを決定する。
1つの特定の特徴に従うと、本発明に係る方法は、3次元物体から物体の総称的な3次元モデルを構成する準備ステップを有する。
1つの特定の特徴に従うと、総称的な3次元モデルは、物体のメッシュである。
1つの実施形態では、本発明に係る方法は、画像内の物体を3次元に配置する準備ステップを有する。
この特徴は、画像内の物体の2次元の表示に配置することを容易にする。
他の実施形態では、本発明に係る方法は、画像内の物体の特徴点を決定するステップを有する。
この特徴は、画像内の物体の2次元の表示を配置すること、及び2次元の表示が配置されるときに画像内の物体の3次元ポーズを決定することを容易にする。
1つの特定の特徴に従うと、本発明に係る方法は、物体の総称的な3次元モデルの特徴点を決定する準備ステップを有する。
この特徴に従うと、2次元の表示を配置するステップは、2次元の表示が配置されたとき、画像内の物体の3次元のポーズを決定することを容易にする。
他の特定の特徴に従うと、画像内の物体の3次元ポーズを決定するステップは、さらにそのように決定された物体の総称的な3次元モデルの特徴点と、そのように決定された画像内の物体の特徴点との間の距離に依存する。
また、本発明は、3次元環境内の少なくとも1つの3次元物体を表す画像を有する少なくとも1つのキー画像を創出する方法であって、
特定の初期化位置において物体を表す少なくとも1つの画像を取得するステップと、
画像内の3次元物体のポーズを決定する本発明の方法によって、少なくとも1つの画像内の3次元物体のポーズを決定するステップと、
少なくとも1つの取得した画像と、環境内の物体の関連するポーズとから少なくとも1つのキー画像を創出するステップと、
を有することを特徴とする。
したがって、本発明に係る方法は、特にビデオストリームの3次元物体の自動追跡を使用する拡張現実アプリケーションの初期化又は再初期化の観点から、キー画像の創出を自動化する。
さらに、本発明は、画像内の3次元物体のポーズを決定するデバイスであって、
物体の総称的な3次元モデルを取得する手段と、
少なくとも1つの2次元の表示として総称的な3次元モデルを投影して、3次元物体のポーズに関する情報のそれぞれの2次元の表示を関連させる手段と、
画像内の物体に2次元の表示の選択・配置する手段と、
少なくとも選択した2次元の表示に関連するポーズ情報から画像内の物体の3次元ポーズを決定する手段と、
を有することを特徴とする。
同様に、本発明は、3次元環境内の少なくとも1つの3次元物体を表す画像を有する少なくとも1つのキー画像を創出するデバイスであって、
特定の初期化位置において物体を表す少なくとも1つの画像を取得する手段と、
画像内の3次元物体のポーズを決定するデバイスによって少なくとも1つの画像内の3次元物体のポーズを決定する手段と、
少なくとも1つの取得した画像と、環境内の物体の関連するポーズとから少なくとも1つのキー画像を創出する手段と、
を有することを特徴とするデバイスを提案する。
これらのデバイスは、詳細に上述した方法と同じ利点を有している。したがって、ここでは繰り返して説明しない。
また、本発明は、コンピュータ、又はマイクロプロセッサによって部分的に、又は全体的に読み出し可能であり、着脱可能な、又は着脱不可能な記憶手段であって、それぞれの上述の方法のステップを実行するコンピュータプログラムのコード化された命令を含む記憶手段を有する。
さらに、本発明は、それぞれの上述の方法のステップを実行するのに適応する命令を含むコンピュータプログラムを有する。
本発明の他の利点、目的、及び特徴は、添付した図面を参照することによって限定されない例を以下の詳細な説明によって明らかになる。
ローザンヌ連邦理工科大学で開発された物体追跡アプリケーションの本質的概念を概略的に示す図である。 キー画像からのビデオストリームと、ビデオストリームからの先の画像とから画像内の物体のポーズを決定する方法の特定のステップを示す図である。 本発明を使用する環境において任意の形状の3次元物体の1つ以上のキー画像の創出を概略的に示す図である。 本発明の少なくとも一部を実施するデバイスの一例を示す図である。 本発明に係る画像解析に基づく総称的アルゴリズムを示す図である。 顔のキー画像を創出する本発明の画像解析アルゴリズムを示す図である。 顔の総称的3次元メッシュから得られる2次元モデルの創出を示す図である。
本発明の方法の特有の目的は、物体追跡アプリケーションとビデオストリームの画像との非同期化の後に起こる初期化及び再初期化の段階を自動化する観点から、環境内の少なくとも1つの3次元物体の少なくとも1つのキー画像を、特に自動的に、創出することである。
1つの実施形態では、1つのキー画像は、非常に正確な画像解析手段によって画像内の物体のポーズがリアルタイムで見つかるときは特に、初期化及び再初期化段階を自動化するのに十分である。
また、それにも関わらず、多くのキー画像は、追跡する物体とカメラとの間のどんな関係のポーズのアプリケーションでも初期化が可能である。
図3は、本発明に係る物体追跡アプリケーションを使用する環境において、初期化キー画像としても知られる、物体の1つ以上のキー画像を創出する全体的なスキームを示す図である。
図3に示すように、環境内の物体の少なくとも1つのキー画像の創出、及びこれらのキー画像を使用する追跡アプリケーションの実行(300)は、1つ、又はいくつかの初期化キー画像を創出する段階(I)、先に創出した画像又はキー画像を使用する追跡初期化段階(II)、アプリケーションが動作している状態であって、新しい初期化キー画像の創出に使用する物体追跡段階(III)、という相互に関係した3つの段階を有する。
第1のキー画像を創出する段階(I)は、主として初期位置における3次元物体を表す画像の取得を有する。この取得は、特にビデオカメラ、又はスチルカメラのような画像形成手段を使用してもたらされる。3次元物体を有する画像を取得する(ステップ305)と、取得した第1の画像の一部、及び画像の視点に従って環境内の関連がある物体のポーズを有する第1のキー画像が創出される(ステップ320)。通常、この第1のキー画像を構成するために、後で画像内の物体に対応する3次元メッシュを手動で配置する必要がある。しかしながら、このステップは、煩雑である。
したがって、本発明は、キー画像の創出に先立ち、画像解析モジュールを導入して(ステップ310)、ユーザが介することなく画像内の物体のポーズを見つける。この目的を達成するために、本発明に従って、画像内に見つかる物体の種類の予備知識と、それに関するいくつかの特性の知識により、現実空間の物体のポーズを推定することが可能になる。
このアプローチは、画像内の顔のポーズを取り出す問題などのときに、特に有益である。目や口のような顔の形状を使用して物体のポーズを決定することができる。
より強いロバストを有する追跡アルゴリズムを作成するために、カメラと物体の間の複数の相対的なポーズと対応する一連のキー画像を捕捉することがしばしば重要になる。
したがって、この段階Iのステップは、ユーザが介する必要なく反復して複数のキー画像を創出できる。
初期化段階(II)の間、追跡アプリケーションは、追跡する物体を有するビデオストリーム内の物体を表すキー画像を段階Iの間に創出された1つ以上の初期化キー画像から探索することによって初期化される(ステップ320)。
物体のポーズがビデオストリームからの第1の画像において決定され、現キー画像が構成されているとき(ステップ320)、追跡アプリケーションは、追跡機構(ステップ325)を使用してビデオストリームの一連の画像内の物体を見つけることができる(段階III)。この機構によると、物体の移動(場面内での物体の移動、又はカメラの移動により生じた場面内の移動)は、1つのフレームから他のフレームに追跡され、初期化時に保持された初期化キー画像と、適用できるときはアプリケーションの実行で算出される初期化キー画像とに含まれる情報を使用して補償されるドリフトとなる。後に、これらの画像自体を初期化キー画像として使用して再度アプリケーションを自動的に初期化できる。
計測されたエラーが非常に大きい場合は、追跡は非同期化して、再初期化する段階が必要となる。再初期化は、上述の初期化段階(ステップ320)と同様である。
なお、1つ又はいくつかのキー画像を創出するスキームは、画像内に存する他の物体にも対応する新しいキー画像を繰り返して創出できることは重要である。それぞれの物体の少なくとも1つのキー画像の創出が終了すると、ビデオストリームの中の多くの物体を追跡することが可能になる。
図4は、本発明を実施するように構成されるデバイスを概略的に示す図である。デバイス400は、マイクロコンピュータ、ワークステーション、又はゲーム制御盤などである。
好適には、デバイス400は、通信バス402を有し、これは以下と接続される。
‐中央処理装置(CPU)、又はマイクロプロセッサ404。
‐オペレーティングシステム及びプログラム「プログ」を有するリードオンリメモリ(ROM)406。
‐変数を記憶するように構成されるレジスタと、上述のプログラムを実行するときに創出・修正されるパラメータを有するランダムアクセスメモリ、又はキャッシュメモリ408。
‐カメラと接続するビデオ取得カード410。
‐スクリーン又はプロジェクタ418と接続するグラフィックカード416。
また、デバイス400は、オプションとして以下を有することができる。
‐上述のプログラム(「プログ」)と、本発明に従って処理されたデータ、又は将来処理されるデータとを有するハードディスク420。
‐キーボード422と、マウス424、若しくは本発明に係るプログラムとユーザとが相互に作用できるライトペン、タッチスクリーン、又は遠方制御などの他のポインティングデバイス。
‐インタネットなどの分散型通信ネットワーク428と接続してデータを送受信するように構成された通信インタフェース426。
‐センサ(図示せず)と接続するデータ取得カード414
‐本発明に従って処理されたデータ、又は将来処理されるデータを書き込み、読み出すように構成されたメモリカードリーダ(図示せず)。
通信バスは、デバイス400に含まれる様々な素子、又はデバイス400と接続される様々な素子との間の通信及び相互作用を提供する。バスの説明は、本発明を限定するものではなく、特に中央処理装置は、直接的に又はデバイス400の他の素子を介して、デバイス400の他の素子に命令を通信できる。
プログラミングデバイスが本発明に係る方法を実施することができるそれぞれのプログラムの実行コードは、ハードディスク420、又はリードオンリメモリ406などに記憶される。
また、プログラムの実行コードは、通信ネットワーク428を介して、インタフェース426を介して受信して、上述の方法と全く同じ方法で記憶できる。
メモリカードは、コンパクトディスク(CD又はDVD)などの情報媒体と置き換えることができる。一般に、メモリカードは、コンピュータ、又はマイクロプロセッサにより読み取り可能であり、デバイスに組み入れられ、又はデバイスに組み入れられず、場合によっては着脱可能である、本発明に係る方法を実行する1つ以上のプログラムを記憶するように構成された情報記憶媒体と置き換えることができる。
より一般的には、プログラムは、実行する前にデバイス400の記憶手段の1つにロードできる。
中央処理装置404は、本発明に係るプログラムの命令又はソフトウェアコード部分の実行を制御・命令する。プログラムの命令は、ハードディスク420、若しくはリードオンリメモリ406、又は上述の他の記憶素子に記憶される。電源を入れると、ハードディスク420、又はリードオンリメモリ406などの不揮発性メモリに記憶されたプログラムは、本発明の実施に必要な変数及びパラメータを記憶するレジスタとともに、本発明のプログラムの実行コードを有するランダムアクセスメモリ408に転送される。
なお、本発明に係るデバイスを有する通信デバイスは、同様にプログラミングされたデバイスにできる。そして、そのデバイスは、特定用途用集積回路(ASIC)に固定してプログラミングされるなどしたコンピュータプログラムのコードを有する。
また、ビデオカード416からの画像は、通信インタフェース426と、分散型通信ネットワーク428とを介してスクリーン又はプロジェクタ418に転送できる。同様に、カメラ412は、デバイス400と分離されたビデオ取得カード410´と接続して、通信インタフェース426と、分散型通信ネットワーク428とを介してデバイス400にカメラ412の画像を転送できる。
本発明に係る方法で提供される実施の単純化によって、キー画像は、専門家によらないで創出できる。キー画像のセットを創出した後に、追跡アプリケーションは、そのセットの基準で初期化され、標準的な方法で使用してビデオストリームから一連の画像の中の物体を追跡する。例えば、物体の位置及び方向を考慮して場面の物体に動画像列を埋め込み、また場面の物体の解析に従ってカメラの動きを決定する。この場合、物体は、場面の一部であるため、場面の中の物体のポーズを見つけることは、物体に関連するカメラのポーズを見つけることを意味する。そして、物体と、場面の幾何学的モデルとの間の幾何学的変換が公知であれば、場面の仮想要素を付加することが可能になる。これはその場合である。したがって、このアプローチによって、場面の配置に応じて動く動画仮想物体(animated virtual objects)を有する現実場面が拡張する。
画像解析を使用する本発明に係る総称的アルゴリズムは、次に図5を参照しながら説明される。このアルゴリズムは、2つの段階を有し、一方はオフラインで実行され、他方はオンラインで実行される。特に、第2の段階は、物体追跡アルゴリズムの初期化又は再初期化のそれぞれの段階で実行される。
オフラインで実行するステップ505から520までは、はじめに画像内の追跡物体の形状情報を取得するステップ(ステップ505)が含まれる。この情報は、ビデオストリーム内の追跡物体の種類に特に関係する。
例えば、この情報は、環境内に位置する1つ以上の顔の物体に関係し、又は風景の中の1つ以上の木に関係することができる。
そして、ステップ510では、物体の3次元の総称的モデルは、現実の物体、とりわけ物体のメッシュにできる、ビデオストリームで見つけられる現実の物体の総称的構造から構成される。
ステップ515において、このメッシュの物体の特徴要素は、特に手動によって識別・配置される。顔に関しては、これは特に鼻、目、及び口を参照する。
そして、識別された特徴要素を有するメッシュは、1つ以上の2次元の表示上に投影され、3次元物体を表すポーズに関して、これらの表示情報のそれぞれに関連する(ステップ520)。したがって、2次元の表示は、3次元物体にできる1つのポーズとそれぞれ対応する。
この段階の間、メッシュは、可能性がある複数の位置、方向、及び大きさでサンプリングされる。このため、(使用に応じて)パラメータ空間内のランダムな、又は非ランダムな様々な値に対応する多くのモデルが構成される。これらのパラメータは、特に3次元空間に規定される。この空間は、Z軸の回転に対応するヨー→ψ、X軸の回転に対応するピッチ→θ、Y軸の回転に対応するロール→φ、という方向パラメータを有する。また、パラメータは、画像のメッシュの投影上にサンプリングできる。この投影は、位置パラメータ(tx、ty)と、2つのスケール因子(sx、sy)とを有して、追跡される物体の一般的な形状を考慮に入れる。
さらに2次元における対応する特性要素の配置は、2次元における総称的なメッシュの表示に関連する。
アルゴリズムの第2の段階は、「オンライン」で実行される。
このため、先に生成された3次元物体の全ての2次元の表示は、利用可能になる(ステップ525)。
画像は、ビデオ、又は他の捕捉用周辺機器による画像のストリームから抽出される(ステップ530)。
後続のステップにおいて物体のポーズの探索を単純化するために、抽出された画像において、画像内の物体は、2次元又は3次元において場所をほぼ特定される(ステップ535、画像内の物体の大きさは、深度情報を生じさせることができる)。
例えば、ハール離散ウェーブレット技術(Haar discrete wavelet technique)を使用して、同種類でわずかな違いを有する数百の物体からあらかじめ取得した類似するモデルの画像を検索できる。このステップが終了すると、例えば、画像内で探索される物体を包含するフレーム、及び画像内で探索される物体の一部を包含するフレームが特定される。
このステップに続いて、画像内の物体の特徴要素を探索するステップ540がある。
これらの特徴要素は、物体の一部である点、線分、又は曲線にできる。物体の位置及び方向における重要な情報は、これらの要素から推定できる。画像解析がこれに関係する。例えば、階調度の解析、異なる色空間における色彩測定のしきい値の決定、LoG(Laplacian of Gaussian)フィルタ又はソーベルフィルタなどのフィルタの適用、エネルギの最小化、特に画像内で見つけられる物体の色などを考慮して2次元において物体の輪郭を見つける輪郭(曲線)抽出などの動作をもたらす。
一方において2次元の表示のセットから、他方において画像から、2次元の表示を画像から物体に選択・配置して、その後画像内の物体のポーズを決定する(ステップ550)。特に、配置は、2次元の表示と画像内の物体との間のマッチの探索に対応する。
ポーズは、少なくとも選択された2次元の表示に関するポーズ情報から決定される。
また、ポーズは、見つかった特徴要素の間の距離からも決定される。
このステップの最後に、物体の方向及び位置を特に含む3次元物体のポーズが決定される。
図3のステップ320において、この情報を使用して、リアルタイムでビデオストリーム内の物体の追跡するアプリケーションのための初期化キー画像を創出する。
1つの実施形態では、アプリケーションは、リアルタイムでビデオストリーム内の顔などの3次元物体のポーズを見つけて、追跡する物体の質を高めることができる。この種のアプリケーションは、ビデオストリーム中に存在するいずれの種類の「顔」の物体にも機能する。
例としてここでは顔について考察するが、ユーザは、監視スクリーンなどを使用して、様々な合成の3次元物体によって質が高められた顔、具体的には、帽子又は眼鏡を現実の顔に付加した顔を見ることができる。このようにして、ユーザは、既知の仮想の特徴又はユーザが先にモデル化した選択の特徴を抽象化できる。
顔の追跡の初期化の際に、ビデオストリームからの画像の抽出と、総称的な顔に対応するメッシュの配置を手動で行う(初期化キー画像の手動での創出する)従来技術と異なり、本発明に係る方法は、アプリケーションを起動するときにメッシュを自動的に配置する。
なお、この種の実施形態では、画像解析手段によってアプリケーションの初期化の際に直接創出されるため、ただ1つの初期化キーのみが必要であることは重要である。ユーザが自分自身を捕捉用周辺機器の前に位置したときに、画像解析は、初期化キー画像を構成する。
しかしながら、第1のキー画像と同様な方法、又は非同期化イベントにおける再初期化段階の間など、「オンライン」で創出された初期化キー画像を再使用できる動作状態の間のいずれか一方で新しいキー画像を創出することが同様に可能である。
したがって、本発明によれば、総称的な顔に対応するメッシュは、人の顔の一般的な集団におけるデータを使用してあらかじめモデル化される。
これらの集団は、個々が非常に類似するので、アルゴリズムは、アプリケーションと相互作用する種々のユーザに対して、より強いロバストを有する。
本発明は、特に画像解析ソリュージョンを使用して画像内の特定の特徴点を見つけることによって、初期化段階を自動化する。一例を考えると、特徴点は、目、口、鼻、眉、及び顎とすることができる。ここでは非包括的に説明され、実行するアプリケーションの種類に応じて特定されるこの情報は、顔に対応するメッシュを自動的、写実的、且つ正確に配置する。メッシュの初期位置調整の推定におけるオフセットは、後続の追跡アプリケーションの実行に非常に悪い影響を与えるおそれがある。
図6は、本発明に係る、顔のキー画像を創出する画像解析アルゴリズムを示す図である。
探索画像解析は、初めにビデオストリームの画像における顔の位置をより正確に見つける(ステップ600)。この目的を達成するために、画像解析は、ハール離散ウェーブレット技術などを使用して、数百の異なる顔からあらかじめ取得した類似するモデルの画像を探索する。このステップが終了すると、画像内で決定された顔を包含するフレームと、顔の特定の特徴エリア(目又は口の周りなど)を特定する限られたフレームとが特定される。そして、これによって、より正確な顔の要素の探索が可能になる。顔の特定要素の位置についてのこの第1の近似は、これらの特徴要素を正確に検出するには不十分である可能性がある。
したがって、次のステップ(ステップ605)は、これらの領域において、顔の位置及び方向に関して重要な情報となる、顔の特徴的な点、線分、及び曲線をより正確に決定することを有する。例えば、鼻の軸、目、眉、及び口が問題となる。これらの要素は、画像解析手段によって見つかる。この目的を達成するために、階調度解析、単純な形状の認証(目の周りの卵形)、色彩測定しきい値の決定(口の色彩を特徴付けるようなもの)、(顔の輪郭を際立たせる)Logフィルタ(ガウスのラプラシアンフィルタ)、又は(特徴点を取り出す)ソーベルフィルタなどのフィルタの適用、エネルギの最小化、特に肌の色などを考慮した輪郭(曲線)の抽出などの動作を生じる。
また、画像内のこれらの要素の探索は、顔の総称的な寸法特性における一般的な情報を用いて単純化できる。
様々な位置における総称的な3次元メッシュを取得して種々の要因に対応する段階は、次に説明する(図7)。
この段階では、メッシュは、複数の位置、方向、及び寸法からサンプリングされる。このため、(使用によって)様々なランダム又は非ランダムな値に対応する多くのモデルがパラメータ空間に構成される。これらのパラメータは、具体的には3次元空間に規定される。その空間は、ヨー、ピッチ、及びロールといった種々の方向パラメータを有する。これらのパラメータは、非常に小さくできる。ユーザは、おおよそカメラの正面に位置すると考えられる。また、パラメータは、画像内のメッシュの投射上でサンプリングできる。この投射は、ユーザの頭の一般的な形状を考慮して、位置パラメータ(tx、ty)と、2つの寸法要因(sx、sy)とを有することができる。これらのパラメータも非常に小さくできる。
したがって、図7に示すように、この取得するステップは、総称的な3次元メッシュから取得した、単純化され且つ投影された2次元モデルを創出する。ここで、3次元ポーズパラメータは、キー画像の創出に関連する。
図6を再び参照すると、アルゴリズムは、総称的なメッシュの調整を続けて(ステップ610)、3次元物体のポーズを自動的に探索する(ステップ615)。このため、メッシュは、調整され、全ての投射に基づいて見つかる画像内の3次元物体のポーズは、顔の総称的なメッシュと適切な情報とに対応する。
したがって、投射され且つ単純化されたメッシュは、距離関数によって顔における適切な情報、つまり点、線分、及び曲線と比較される。
最終的には、相関関係動作は、ビデオストリームから抽出した初期画像内のユーザの顔のポーズ及び寸法を予測する。3次元の総称的なメッシュと追跡に使用するメッシュとの間を変換する行列の取り出しに関する全てのパラメータは、公知である。
ビデオストリームから抽出した画像内の顔のポーズは、知られているので、第1の初期化キー画像は、創出される。これを直接使用して、顔を追跡するアプリケーションを自動的に初期化できる。このキー画像に含まれるポーズにユーザが近接する毎に、初期化が起動される。それにも関わらず、複数の初期化キー画像を創出して、カメラに対する顔の様々なポーズにおいて、よりロバストが強い初期化をすることが可能である。
さらに、画像内の顔の重要なエリアの位置検出の不正確さを克服するために、ユーザがキー画像を創出するときなどに、ユーザは、カメラと向き合わなければならない可能性がある。これにより、物体のポーズの自動探索の間の自由度の変動が減少する。そのためには、カメラに向き合う正しい位置をユーザに理解させるスクリーンターゲットを付加することも可能である。
幾何学的見地から、総称的なメッシュの初期位置と変更した位置との間の変換行列は、式S.R.Tで表すことができる。ここで、Sはスケーリング行列を示し、Rはローテーション行列を示し、Tはトランスレーション行列を示す。
なお、本発明に関して、画像内の顔のポーズを推定する動作を繰り返してビデオストリームに多くのユーザを見つけることができることは重要である。
当然のことながら、特定の要件を充足したとき、本発明に係る分野の当業者は、先の説明に修正を加えることができる。

Claims (20)

  1. 画像内の3次元物体のポーズ決定方法であって、
    前記物体の総称的な3次元モデルを取得するステップと、
    少なくとも1つの2次元の表示として前記総称的な3次元モデルを投射して、前記3次元物体の前記ポーズに関する情報のそれぞれの2次元の表示を関連させるステップと、
    前記画像内の前記物体に2次元の表示を選択・配置するステップと、
    少なくとも前記選択した2次元の表示に関連する前記ポーズ情報から前記画像内の前記物体の前記3次元ポーズを決定するステップと、
    を有することを特徴とするポーズ決定方法。
  2. 前記3次元物体から前記物体の総称的な3次元モデルを構成する準備ステップを有する請求項1に記載のポーズ決定方法。
  3. 前記総称的な3次元モデルは、前記物体のメッシュである請求項1又は請求項2に記載のポーズ決定方法。
  4. 前記画像内の前記物体を3次元に配置する準備ステップを有する請求項1〜請求項3の何れか一項に記載のポーズ決定方法。
  5. 前記画像内の前記物体の特徴点を決定するステップを有する請求項1〜請求項4の何れか一項に記載のポーズ決定方法。
  6. 前記物体の前記総称的な3次元モデルの特徴点を決定する準備ステップを有する請求項5に記載のポーズ決定方法。
  7. 前記画像内の前記物体の前記3次元ポーズを決定するステップは、さらにそのように決定された前記物体の前記総称的3次元モデルの前記特徴点と、そのように決定された前記画像内の前記物体の前記特徴点との間の距離に依存する請求項6に記載のポーズ決定方法。
  8. 3次元環境内の少なくとも1つの3次元物体を表す画像を有する少なくとも1つのキー画像を創出する方法であって、
    特定の初期化位置において前記物体を表す少なくとも1つの画像を取得するステップと、
    画像内の3次元物体のポーズを決定する請求項1〜請求項7の何れか記載された方法によって、前記少なくとも1つの画像内の前記3次元物体の前記ポーズを決定するステップと、
    前記少なくとも1つの取得した画像と、環境内の前記物体の前記関連するポーズとから少なくとも1つのキー画像を創出するステップと、
    を有することを特徴とする画像創出方法。
  9. 画像内の3次元物体のポーズを決定する請求項1〜請求項7の何れか記載された前記方法のそれぞれのステップを実行するように構成される命令を有するコンピュータプログラム。
  10. 少なくとも1つのキー画像を創出する請求項8に記載された前記方法のそれぞれのステップを実行するように構成される命令を有するコンピュータプログラム。
  11. 画像内の3次元物体のポーズを決定する請求項1〜請求項7の何れか記載された前記方法のそれぞれのステップを実行するコンピュータプログラムの命令コードを有するコンピュータ、又はマイクロプロセッサによって部分的に、又は全体的に読み出し可能であり、着脱可能な、又は着脱不可能な情報記憶手段。
  12. 少なくとも1つのキー画像を創出する請求項8に記載された前記方法のそれぞれのステップを実行するコンピュータプログラムの命令コードを有するコンピュータ、又はマイクロプロセッサによって部分的に、又は全体的に読み出し可能であり、着脱可能な、又は着脱不可能な情報記憶手段。
  13. 画像内の3次元物体のポーズを決定するデバイスであって、
    前記物体の総称的な3次元モデルを取得する手段と、
    少なくとも1つの2次元の表示として前記総称的な3次元モデルを投影して、前記3次元物体の前記ポーズに関する情報のそれぞれの2次元の表示を関連させる手段と、
    前記画像内の前記物体に2次元の表示を選択・配置する手段と、
    少なくとも前記選択した2次元の表示に関連する前記ポーズ情報から前記画像内の前記物体の前記3次元ポーズを決定する手段と、
    を有することを特徴とするデバイス。
  14. 前記3次元物体から前記物体の総称的な3次元モデルを構成する手段を有する請求項13に記載のデバイス。
  15. 前記総称的な3次元モデルは、前記物体のメッシュである請求項13又は請求項14に記載のデバイス。
  16. 前記画像内の前記物体を3次元に配置する手段を有する請求項13〜請求項15の何れか一項に記載のデバイス。
  17. 前記画像内の前記物体の特徴点を決定する手段を有する請求項13〜請求項16の何れか一項に記載のデバイス。
  18. 前記物体の前記総称的な3次元モデルの特徴点を決定する手段を有する請求項17に記載のデバイス。
  19. 前記画像内の前記物体の前記3次元ポーズを決定する手段は、そのように決定された前記物体の前記総称的な3次元モデルの前記特徴点と、そのように決定された前記画像内の前記物体の前記特徴点との間の距離にも依存して、前記画像内の前記物体の前記3次元ポーズを決定するように構成される、請求項18に記載のデバイス。
  20. 3次元環境内の少なくとも1つの3次元物体を表す画像を有する少なくとも1つのキー画像を創出するデバイスであって、
    特定の初期化位置において前記物体を表す少なくとも1つの画像を取得する手段と、
    画像内の3次元物体のポーズを決定する請求項13〜請求項19の何れかに記載の前記デバイスによって前記少なくとも1つの画像内の前記3次元物体の前記ポーズを決定する手段と、
    前記少なくとも1つの取得した画像と、環境内の前記物体の前記関連するポーズとから少なくとも1つのキー画像を創出する手段と、
    を有することを特徴とするデバイス。
JP2009550305A 2007-02-23 2008-02-22 画像内の3次元物体のポーズを決定する方法及びデバイス並びに物体追跡のための少なくとも1つのキー画像を創出する方法及びデバイス Pending JP2010519629A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0753482A FR2913128B1 (fr) 2007-02-23 2007-02-23 Procede et dispositif de determination de la pose d'un objet tridimensionnel dans une image et procede et dispositif de creation d'au moins une image cle
PCT/FR2008/000236 WO2008125754A1 (fr) 2007-02-23 2008-02-22 Procede et dispositif de determination de la pose d'un objet tridimensionnel dans une image et procede et dispositif de creation d'au moins une image cle pour le suivi d'objets

Publications (2)

Publication Number Publication Date
JP2010519629A true JP2010519629A (ja) 2010-06-03
JP2010519629A5 JP2010519629A5 (ja) 2011-03-10

Family

ID=38606701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009550305A Pending JP2010519629A (ja) 2007-02-23 2008-02-22 画像内の3次元物体のポーズを決定する方法及びデバイス並びに物体追跡のための少なくとも1つのキー画像を創出する方法及びデバイス

Country Status (6)

Country Link
US (1) US8675972B2 (ja)
EP (1) EP2132709A1 (ja)
JP (1) JP2010519629A (ja)
KR (1) KR20090114471A (ja)
FR (1) FR2913128B1 (ja)
WO (1) WO2008125754A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013092407A (ja) * 2011-10-25 2013-05-16 Kddi Corp 3次元座標取得装置、カメラ姿勢推定装置、プログラム
JP2013122708A (ja) * 2011-12-12 2013-06-20 Namco Bandai Games Inc プログラム、情報記憶媒体、端末及びサーバ
JP2013242790A (ja) * 2012-05-22 2013-12-05 Nippon Telegr & Teleph Corp <Ntt> 移動物体ポーズ算出装置、移動物体ポーズ算出方法、及びプログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009049073A1 (de) 2009-10-12 2011-04-21 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung
JP5709906B2 (ja) 2010-02-24 2015-04-30 アイピープレックス ホールディングス コーポレーション 視覚障害者支援用拡張現実パノラマ
US8509522B2 (en) * 2010-10-15 2013-08-13 Autodesk, Inc. Camera translation using rotation from device
US20130010068A1 (en) * 2011-04-12 2013-01-10 Radiation Monitoring Devices, Inc. Augmented reality system
US9437011B2 (en) 2012-06-11 2016-09-06 Samsung Electronics Co., Ltd. Method and apparatus for estimating a pose of a head for a person
US10013623B2 (en) * 2012-06-29 2018-07-03 Blackberry Limited System and method for determining the position of an object displaying media content
EP2704055A1 (en) 2012-08-31 2014-03-05 Layar B.V. Determining space to display content in augmented reality
US10283162B2 (en) * 2014-02-05 2019-05-07 Avatar Merger Sub II, LLC Method for triggering events in a video
US9892543B2 (en) 2016-02-26 2018-02-13 Carnegie Mellon University Systems and methods for estimating pose of textureless objects
JP6872742B2 (ja) * 2016-06-30 2021-05-19 学校法人明治大学 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
CN108345821B (zh) * 2017-01-24 2022-03-08 成都理想境界科技有限公司 面部追踪方法及设备
WO2019069369A1 (ja) * 2017-10-03 2019-04-11 富士通株式会社 姿勢認識システム、画像補正プログラムおよび画像補正方法
US11308312B2 (en) * 2018-02-15 2022-04-19 DMAI, Inc. System and method for reconstructing unoccupied 3D space
US11653072B2 (en) * 2018-09-12 2023-05-16 Zuma Beach Ip Pty Ltd Method and system for generating interactive media content
CN110148092B (zh) * 2019-04-16 2022-12-13 无锡海鸿信息技术有限公司 基于机器视觉的青少年坐姿及情绪状态的分析方法
CN110111428B (zh) * 2019-05-28 2023-06-20 艾瑞迈迪科技石家庄有限公司 一种应用于增强现实的虚拟目标标定方法及装置
CN112233018B (zh) * 2020-09-22 2023-01-06 天津大学 基于三维形变模型的参考图引导的人脸超分辨率方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058896A (ja) * 2001-08-10 2003-02-28 Nec Corp 位置姿勢認識装置とその位置姿勢認識方法、及び位置姿勢認識プログラム
JP2003308533A (ja) * 2002-04-17 2003-10-31 Mitsubishi Electric Corp ドライバの顔画像処理装置
JP2006048639A (ja) * 2004-06-29 2006-02-16 Canon Inc 情報処理方法および情報処理装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6207474B1 (en) * 1998-03-09 2001-03-27 Micron Technology, Inc. Method of forming a stack of packaged memory die and resulting apparatus
US6671391B1 (en) * 2000-05-26 2003-12-30 Microsoft Corp. Pose-adaptive face detection system and process
JP4692773B2 (ja) * 2004-03-03 2011-06-01 日本電気株式会社 物体の姿勢推定及び照合システム、物体の姿勢推定及び照合方法、並びにそのためのプログラム
US7536030B2 (en) * 2005-11-30 2009-05-19 Microsoft Corporation Real-time Bayesian 3D pose tracking

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058896A (ja) * 2001-08-10 2003-02-28 Nec Corp 位置姿勢認識装置とその位置姿勢認識方法、及び位置姿勢認識プログラム
JP2003308533A (ja) * 2002-04-17 2003-10-31 Mitsubishi Electric Corp ドライバの顔画像処理装置
JP2006048639A (ja) * 2004-06-29 2006-02-16 Canon Inc 情報処理方法および情報処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN5010002389; VACCHETTI L: IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE V26 N10, 200410, P1385-1391, IEEE SERVICE CENTER *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013092407A (ja) * 2011-10-25 2013-05-16 Kddi Corp 3次元座標取得装置、カメラ姿勢推定装置、プログラム
JP2013122708A (ja) * 2011-12-12 2013-06-20 Namco Bandai Games Inc プログラム、情報記憶媒体、端末及びサーバ
JP2013242790A (ja) * 2012-05-22 2013-12-05 Nippon Telegr & Teleph Corp <Ntt> 移動物体ポーズ算出装置、移動物体ポーズ算出方法、及びプログラム

Also Published As

Publication number Publication date
FR2913128A1 (fr) 2008-08-29
KR20090114471A (ko) 2009-11-03
WO2008125754A8 (fr) 2009-09-17
EP2132709A1 (fr) 2009-12-16
US8675972B2 (en) 2014-03-18
WO2008125754A1 (fr) 2008-10-23
FR2913128B1 (fr) 2009-08-28
US20100316281A1 (en) 2010-12-16

Similar Documents

Publication Publication Date Title
JP2010519629A (ja) 画像内の3次元物体のポーズを決定する方法及びデバイス並びに物体追跡のための少なくとも1つのキー画像を創出する方法及びデバイス
US20220004758A1 (en) Eye pose identification using eye features
CN111243093B (zh) 三维人脸网格的生成方法、装置、设备及存储介质
JP5668091B2 (ja) 3dカメラポーズ推定方法
KR101997500B1 (ko) 개인화된 3d 얼굴 모델 생성 방법 및 장치
KR101135186B1 (ko) 상호작용형 실시간 증강현실 시스템과 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
JP5167248B2 (ja) 深度マップによるヒューマノイド形状のモデル化
EP1960970B1 (en) Stereo video for gaming
CN109934847B (zh) 弱纹理三维物体姿态估计的方法和装置
US8879787B2 (en) Information processing device and information processing method
US8428306B2 (en) Information processor and information processing method for performing process adapted to user motion
US8614705B2 (en) Method and device for creating at least two key frames corresponding to a three-dimensional object
JP2009536731A5 (ja)
US20160210761A1 (en) 3d reconstruction
US10380758B2 (en) Method for tracking subject head position from monocular-source image sequence
US9727776B2 (en) Object orientation estimation
JP5526465B2 (ja) 爪位置データ検出装置及び爪位置データ検出方法、並びに爪位置データ検出プログラム
CN106462738B (zh) 用于构建个人的面部的模型的方法、用于使用这样的模型分析姿态的方法和设备
JP2010152556A (ja) 画像処理装置および画像処理方法
CN117238031B (zh) 一种虚拟人的动作捕捉方法与系统
JP2017227687A (ja) カメラアセンブリ、そのカメラアセンブリを用いる手指形状検出システム、そのカメラアセンブリを用いる手指形状検出方法、その検出方法を実施するプログラム、及び、そのプログラムの記憶媒体
JP6929043B2 (ja) 画像処理装置、画像処理方法
US11954943B2 (en) Method for generating synthetic data
JP2009104569A (ja) カラーリストバンドを用いた手指形状推定装置及び手指形状推定方法、並びにプログラム
Merriman Real-Time 3D Person Tracking and Dense Stereo Maps Using GPU Acceleration

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120117

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120417

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120424

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120821

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121121

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130702