JP2010526295A - ビデオカメラとtvモニタを使用した3次元オブジェクトのスキャン - Google Patents

ビデオカメラとtvモニタを使用した3次元オブジェクトのスキャン Download PDF

Info

Publication number
JP2010526295A
JP2010526295A JP2010506455A JP2010506455A JP2010526295A JP 2010526295 A JP2010526295 A JP 2010526295A JP 2010506455 A JP2010506455 A JP 2010506455A JP 2010506455 A JP2010506455 A JP 2010506455A JP 2010526295 A JP2010526295 A JP 2010526295A
Authority
JP
Japan
Prior art keywords
image
illumination pattern
surface orientation
shadow
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010506455A
Other languages
English (en)
Inventor
オスマン スティーブン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Publication of JP2010526295A publication Critical patent/JP2010526295A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/30Polynomial surface description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light

Abstract

システムは、ディスプレイ装置に照明パターンを表示させて、物理的オブジェクトを付随的に照明することによって、物理的オブジェクトの3次元コンピュータモデルを作成する。このパターンによって照明されているオブジェクトの画像を、ビデオカメラが取得する。パターンは、オブジェクトの表面の陰影が大きく異なる画像を取得するために、動きと複数の色を含んでいてもよい。オブジェクトの表面上の点の向きを決定するために、取得したオブジェクトの画像に含まれる陰影値が解析される。システムは、取得した画像の品質を評価し、オブジェクトの特定の属性に合うパターンを選択する。点の陰影値を、較正陰影オブジェクトから取得した照明モデルまたは陰影値と比較することによって、点の向きが決定される。点の向きにモデル表面がフィットされる。アプリケーションは、どのような目的についてもモデルを使用することができ、これには、カスタマイズした仮想オブジェクトの作成および交換、オブジェクトのトラッキングの向上、ビデオ会議アプリケーションなどが含まれる。

Description

本発明は、オブジェクトの2次元画像からそのオブジェクトの3次元モデルを作成するための方法およびデバイスに関する。
関連出願への相互参照
本願は、2007年8月17日出願の米国特許出願第11/840,813「ビデオカメラとTVモニタを使用した3次元オブジェクトのスキャン(3D Object Scanning Using Video Camera and TV Monitor」、ならびに2007年4月24日出願の米国仮特許出願第60/913,793号「ビデオカメラとTVモニタを使用した3次元オブジェクトのスキャン(3D Object Scanning Using Video Camera and TV Monitor」に対する優先権を主張し、これらの出願を参照によりここに援用する。
コンピュータグラフィック画像の多くは、所定の視点から観た、シーン内の3次元モデルとの光の相互作用、いわゆるインタラクションを数学的にモデリングすることによって生成される。この処理はレンダリングと呼ばれ、所定の視点から観たシーンの2次元画像を生成するものであり、現実のシーンの写真を撮影することにたとえることができる。時間の経過に伴ってシーンを徐々に変えつつ、シーンの画像のシーケンスをレンダリングすることによって、アニメーションシーケンスを作成することができる。ゲーム、その他の教育用または娯楽用のアプリケーションなどのインタラクティブなソフトウェアアプリケーションは、多くの場合、レンダリング用のソフトウェアおよびハードウェアを使用して、ユーザ入力を受けてインタラクティブなフレームレートでコンピュータグラフィック画像を生成する。
通常、複雑な3次元の製図またはモデリング用のアプリケーションを使用して、コンピュータグラフィックアーティストにより、インタラクティブなソフトウェアアプリケーション内に3次元モデルが作成される。また、モデル作成者(sculptor)が、オブジェクトの物理的モデルを作成し、このモデルが、特殊な3次元スキャナを用いて3次元コンピュータグラフィックモデルに変換されうる。このような手法の全てでは、特殊なハードウェアとソフトウェアのほか、高度な技術を有するアーティストが必要となる。この複雑さのため、インタラクティブなソフトウェアアプリケーションに含まれる3次元オブジェクトは、通常、ソフトウェアの供給業者が供給するオブジェクトか、あるいは、3次元モデリングアプリケーションを利用できるユーザによって提供されるオブジェクトに限られている。
このため、インタラクティブなソフトウェアアプリケーションのためのオブジェクト物理的オブジェクトの3次元グラフィックモデルをユーザが作成できるようにするシステムおよび方法が望まれている。また、モデリングまたは製図用のアプリケーションを使用せずに、3次元コンピュータグラフィックモデルを作成できることが望まれている。更に、このシステムが、低価格で広く利用可能なコンシューマ向け電子機器を使用して実装できることが更に望まれている。
本発明の一実施形態は、物理的オブジェクトの3次元コンピュータグラフィックモデルを作成するためのシステムを有する。ディスプレイ装置に表示される照明パターンが、物理的オブジェクトを付随的に照明する。この照明パターンによって照明されている物理的オブジェクトの1つ以上の画像を、ビデオカメラが取得する。照明パターンは、ビデオカメラが、物理的オブジェクトの表面の陰影が大きく異なる画像を取得できるように、動きと複数の色を含んでいてもよい。物理的オブジェクト上の点の表面の向き(surface orientation)を決定するために、取得した物理的オブジェクトの画像に含まれる陰影値が解析される。本発明の一実施形態は、取得した画像の品質と適否を評価し、この評価結果を使用して、表示する別の適切な照明パターンを選択しうる。照明パターンは、物理的オブジェクトの特定の光学的、幾何学的および物理的な属性に合わせて調整することができ、タイプの異なる物体を用いることでシステムの汎用性を高めることができる。
一実施形態では、照明モデルが、照明パターンによって生成される物理的オブジェクトの画像内の各陰影値から、表面の向きの候補を1つ以上決定する。別の実施形態では、各照明パターンの陰影値が、既知の幾何学的形状を有し、同じ照明パターンで照明される較正物体の類似する陰影値と相互参照されうる。モデル表面を、モデル点の表面の向きにフィットすることができるまで、物理的オブジェクトの別の画像と追加の照明パターンとにより、物理的オブジェクトのモデル上の点に対する表面の向きの候補の組が絞られる。
本発明の実施形態は、どのような目的についても物理的オブジェクトのモデルをアプリケーションに提供することができ、これには、ユーザによるカスタマイズした仮想物体の作成および交換、物理的オブジェクトのトラッキングの向上、ビデオ会議アプリケーションなどが含まれる。
本発明の一実施形態に係る、物理的オブジェクトの3次元コンピュータグラフィックモデルを作成するためのシステムを示す。 本発明の一実施形態との使用に適した、物理的オブジェクト上の点の表面の向きを推定するための手法を示す。 本発明の一実施形態との使用に適した、物理的オブジェクト上の点の表面の向きを推定するための手法を示す。 本発明の一実施形態に係る、3次元コンピュータグラフィックモデルを作成するための方法を示す。 本発明の一実施形態との使用に適した表示パターンの例を示す。 本発明の一実施形態との使用に適した表示パターンの例を示す。 本発明の一実施形態との使用に適した表示パターンの例を示す。 本発明の一実施形態との使用に適した表示パターンの例を示す。 本発明の一実施形態との使用に適した較正オブジェクトの例を示す。 本発明の一実施形態との使用に適した較正オブジェクトの例を示す。 本発明の一実施形態との使用に適した較正オブジェクトの例を示す。 本発明の一実施形態の実装における使用に適したコンピュータシステムの例を示す。 本発明の一実施形態の実装における使用に適したプロセッサの例を示す。
本発明について図面を参照して説明する。
図1は、本発明の一実施形態に係る、物理的オブジェクトの3次元コンピュータグラフィックモデルを作成するためのシステム100を示す。システム100は、コンピュータ装置105を備え、これは、パーソナルコンピュータ、セットトップエンタテインメントボックス、家庭用またはポータブル式のビデオゲームコンソール、個人情報端末またはビデオ会議装置など、どのようなコンピューティング装置であってもよい。装置105は、有線または無線のインタフェースを介して、ビデオカメラ110に接続されている。一実施形態では、カメラ110が装置105に内蔵されている。他の実施形態では、カメラ110は装置105と別個に存在する。カメラ110は、静止画または動画をキャプチャし、この画像を装置105とやり取りするように構成されている。一実施形態では、カメラ110は1つ以上の内蔵式ライト112を更に備え、このライトは、可視照明または赤外照明を提供するように選択的に作動させることができる。同様に、カメラ110は、可視光および/または赤外光を含む画像をキャプチャすることもできる。代表的な実施形態では、カメラ110は、インターネットまたは他の広域ネットワークを介したビデオ会議に広く使用されている、低コストのウェブカメラと同様のものであってもよい。
システム100は、カメラ110のほかに、ディスプレイ装置115も備える。ディスプレイ装置115は、ブラウン管、LED、LCD、OLEDおよび/またはプラズマディスプレイ技術などの、どのようなタイプの表示技術を採用しているテレビジョンまたはコンピュータモニタでもよい。装置105はディスプレイ115と接続されており、これにより、装置105によって生成されるコンピュータグラフィック画像およびパターンがディスプレイ装置115によって表示される。
システム100の一実施形態では、ディスプレイ装置115によって生成される画像が、スキャン対象のオブジェクト120を照明するように、ディスプレイ装置115が配置されている。オブジェクト120は、ユーザが選択したどのような物理的オブジェクトであってもよい。ディスプレイ装置115は、スクリーンやほかの任意のオブジェクトに、画像またはパターンを投影するためのプロジェクタではないが、ディスプレイ装置115は、一般に、画像を表示している間は、オブジェクトを付随的に照明するのに十分明るい。
カメラ110は、ディスプレイ装置115によって生成される1つ以上のパターンによってオブジェクト120が照明されているときに、オブジェクト120の画像をキャプチャする。下で詳しく説明するように、オブジェクト120の正確なモデルを作成するために、ディスプレイ装置115によって多くの異なる照明パターンを出力することができる。また、ユーザは、オブジェクト120を回転または移動させて、その位置および向きを変えることができ、これにより、全角度からのオブジェクト120の完全なモデルを作成することができる。装置105は、この画像を解析することによって、オブジェクト120の3次元コンピュータグラフィックモデルを構築することができる。その後、この3次元コンピュータグラフィックモデルを、装置105またはその他のデバイスによって実行されるインタラクティブなソフトウェアアプリケーションが、その動作に取り込みうる。
1つ以上の画像からオブジェクトの構造または形状を決定するための手法が、従来技術において数多く知られている。一般的な一手法では、1つ以上の光源からの照明に応じたオブジェクトの陰影から、オブジェクトの表面上の点の向きを求める。図2A〜2Bは、本発明の一実施形態との使用に適した、物理的オブジェクト上の点の表面の向きを推定するための手法を示す。
図2Aは、オブジェクト上のある点におけるオブジェクト表面の向きに基づいて、その点における陰影を規定する一般照明モデル200を示す。照明モデル200では、表面207上の点205の陰影は、点205における表面207の法線ベクトル210と、点205から光源まで延びる光ベクトル215との間の角度に基づく。例えば、Phong照明モデルは、ベクトル210,215間のドット積または角度に基づき、ある点に、拡散陰影値を割り当てる。更に、照明モデル200は、光ベクトル215の反射225と、点205からカメラまたは観察者まで延びる視点ベクトル220との間の角度における、点205の陰影の一部に基づきうる。例えば、Phong照明モデルは、ベクトル220,225間のドット積または角度の指数値に基づき、鏡面陰影値を割り当てる。
表面上の点の陰影は、表面の向きに基づくことから、陰影値から表面の向きを求めることができることになる。一般に、1つの光源からの所定の陰影値は、多数の可能な表面の向きに対応しうる。しかし、異なる位置で複数の光源からの画像を解析することによって、ある表面点に対する候補の向きの数を、通常は1つの向きに絞り込むことができる。その後、画像および得られた抽出された表面の向きのデータに対する追加の処理(例えば、ノイズリダクションやその他のフィルタリング、背景抽出、シルエット抽出、メッシュ生成、組み合わせおよび単純化など)を使用することで、オブジェクトの3次元コンピュータモデルを構築することができる。
図2Bは、オブジェクト250の画像を示す。オブジェクトを異なる光源から照明し、多数の点における表面の陰影を解析することによって、オブジェクト表面の向きを求めることができる。ベクトル255a〜255tを含むベクトル場は、オブジェクト250の表面の法線ベクトルを定義している。本発明の一実施形態は、表面をこのベクトル場にフィットさせて、オブジェクト250のコンピュータグラフィックモデルを定義する。ベクトル場255内のベクトルの数は、説明を目的として示しており、本発明の実施形態は、任意の数のベクトルを有するベクトル場を使用して、オブジェクトのモデルの表面を定義することができ、ベクトルの数は、カメラの解像度およびアプリケーションの要件のみによって制限される。
この手法の従来の実装においては、オブジェクトおよびカメラに対して特定の位置に、専用の光源が必要であった。多くの場合、正確かつ完全なオブジェクトを作成するために、このような光源を、特定のオブジェクトにおける固有の幾何学的、物理的および光学的な特性に合わせて調整する必要があった。
これに対し、本発明の実施形態は、ディスプレイ装置が生成する画像またはパターンを、オブジェクトを照明するための光源として使用する。ディスプレイ装置は、従来の光源では通常生成することができない複雑かつ変化するパターンを生成することができるため、本発明の実施形態は、ユーザによる光源の複雑な手動での調整を必要とせずに、多くの異なるタイプのオブジェクトのモデルを作成するために使用することができる。
図3は、本発明の一実施形態に係る、3次元コンピュータグラフィックモデルを作成するための方法300を示す。任意選択のステップ305では、陰影パラメータを較正する。一実施形態では、ステップ305において、ディスプレイ装置に1つ以上の照明パターンを表示させて、既知のオブジェクトの表面の陰影値を測定し、カメラによってキャプチャした陰影値を、既知の表面の向きの値と対応させる。
ステップ310において、表示する照明パターンを選択する。一実施形態では、システムは、選択可能な多くの所定の照明パターンまたはアルゴリズムにより生成された照明パターンを有する。別の実施形態では、オブジェクトに対して光源が移動したときに、表面の陰影の変化をカメラがキャプチャすることができるように、照明パターンにアニメーションが含まれてもよい。下で詳しく説明するように、各照明パターンは、任意のタイプのオブジェクトと使用するに適しているか、あるいは、特定の幾何学的、物理的および/または光学的な特性を有するオブジェクトに関する詳細をキャプチャすることができるように調整されうる。ステップ310の最初の実行では、通常、一般的な照明パターンが選択される。その後、ステップ310が実行されるときには、この照明パターンを用いてキャプチャした画像と、モデルの幾何学的形状とを使用して、より特化した照明パターンが選択されうる。
ステップ315において、選択した照明パターンを表示し、オブジェクトの表面の陰影の1つ以上の画像を、カメラを使用してキャプチャする。一実施形態では、ステップ315において、照明パターンと空白のパターンを交互に表示する。この2つのパターンに関連する画像の差により、オブジェクトの表面の陰影に対する周囲の光源またはその他の光源の影響が除去または低減される。
ステップ320において、ステップ315で取得した1つ以上の画像のオブジェクト表面の陰影が、モデルの幾何学的形状の決定に使用するために適しているかどうかを判定する。例えば、画像の全体あるいは大半が空白の場合、この画像はオブジェクトの表面の向きの抽出には適していない。空白の画像は、オブジェクトが、照明パターンからの光を十分に反射しない場合、例えば、緑のオブジェクトに、青の照明パターンが投影された場合などに得られうる。適否の評価基準には、このほかに、かなりの画像ノイズがあるかどうか、画像が焦点が合っており、適切に露出されているかどうか、画像内のオブジェクトのシルエットが以前の画像から得られたシルエットと似ているかどうか、オブジェクトに関連する画像の一部が連続しているか、あるいは画像のこの一部に多くの空白領域またはギャップがあるかどうか、陰影が他の画像の陰影と矛盾がないかどうか、などがある。
ステップ315でキャプチャした画像内のオブジェクトの陰影が、オブジェクトのモデルの作成に使用するのに適さない場合、方法300が、ステップ320からステップ310に戻り、異なる照明パターンを選択する。一実施形態では、ステップ310において、どの照明パターンから、オブジェクトの適切な画像または不適当な画像が得られたかの情報に基づいて、オブジェクトの別の画像をキャプチャするための適切な照明パターンを選択する。例えば、青の照明パターンにより空白の画像が得られ、オブジェクトが青色光を全く反射しないかほとんど反射しないことが示された場合、ステップ310の実施形態は、この後使用する照明パターンの選択を、赤色光または緑色光を含む照明パターンに限定しうる。
逆に、ステップ315でキャプチャした1つ以上の画像が十分な品質のオブジェクトの陰影を含む場合、方法300が、ステップ320からステップ325に進む。ステップ325において、ステップ315でキャプチャした画像内のオブジェクトの陰影を使用して、幾何学的形状を更新する。一実施形態では、オブジェクトのシルエットが決定され、その内部が多くのメッシュ点と共に生成される。各メッシュ点に重複しているかまたはその近くに存在する1つ以上の画像点の陰影値を使用して、メッシュ点ごとに1つ以上の表面の向きの候補が決定される。1つ以上の照明モデルを使用して、陰影値から表面の向きの候補が決定されうる。異なる照明パターンから得た追加の画像の処理が進むと、メッシュ点ごとの表面の向きの値の候補の数が絞られていく。
一実施形態では、全てのとりうる表面の向きを含むように、各メッシュ点を初期化することによって、メッシュ点ごとの表面の向きの値の候補の数が絞られうる。あるメッシュ点に対して、照明パターンから表面の向きの候補の組が決定されると、表面の向きの候補のこの組と、メッシュ点の表面の向きの以前の候補との共通部分、いわゆるインターセクション部分が決定される。次に、表面の向きの候補のこの共通する部分集合が、メッシュ点の残った表面の向きの候補として記憶される。方法300がその後繰り返されて、追加の照明パターンから得た別の表面の向きの候補について、メッシュ点のこの残った表面の向きとの共通部分が求められる。カメラからの測定誤差に対処するために、平均および最小自乗近似などの近似法および推定法が使用されうる。
ステップ330において、オブジェクトモデルの幾何学的形状が完全に定義されたかどうかを判定する。一実施形態では、ステップ330において、メッシュ点の実質的部分、つまり、全てまたは大半あるいは過半数に対して、残った表面の向きの候補が1つである場合、オブジェクトモデルの幾何学的形状が十分に完全であると判定する。別の実施形態では、補間により、ほかの任意のメッシュ点の表面の向きが決定されうる。メッシュ点の表面の向きが決定されると、表面の向きにフィットするモデル表面が定義される。モデル表面は、三角形、ポリゴン、NURBS、部分分割表面、パーティクルシステム、あるいは従来技術において公知のオブジェクトの幾何学的形状のほかの任意の数学的表現などの高次曲面を使用して定義することができる。
幾何学的形状が完全に規定されると、方法300はステップ335に進み、オブジェクトモデルを出力する。完全ではない場合、方法300はステップ310に進み、追加の照明パターンを選択する。一実施形態では、ステップ310のその後の繰り返しで選択される照明パターンは、メッシュ点の残った表面の向きの候補の数およびタイプにより、少なくとも部分的に決定される。
例えば、オブジェクトの表面点の表面の向きの候補に基づき、オブジェクトの表面の一部が凸状か凹状の場合、ステップ310の一実施形態は、凸状と凹状の幾何学的形状を区別するように設定された照明パターンを選択しうる。例えば、オブジェクトの凸状部分が下から照明されると、この部分の底部がこの部分の上部よりも明るくなる。逆に、オブジェクトの凹状部分が下から照明されると、この部分の上部がこの部分の底部よりも明るくなる。
別の実施形態では、前はカメラから見えなかったオブジェクトのほかの部分の幾何学的形状を決定するために、ユーザが、オブジェクトを新しい位置に回転させて、ステップ310〜330を繰り返すように指示しうる。オブジェクトの、全角度からの完全かつ閉じた形状(version)を生成するために、この幾何学的形状が、以前のオブジェクトの向きで特定されたオブジェクトの幾何学的形状と結合されうる。別の実施形態では、閉じたオブジェクトを作成するために、1つ以上の向きから決定されたオブジェクトの幾何学的形状が、予め定義されているオブジェクトの幾何学的形状と結合されうる。例えば、ユーザの顔の幾何学的形状を決定するために、方法300を使用することができる。この幾何学的形状を、予め定義されている頭部モデルと結合することができる。別の実施形態では、オブジェクトの画像から、テクスチャマップまたはその他の表面の陰影情報も生成される。一実施形態では、この生成は、画像の1つまたは画像の組み合わせを選択し、背景を除去して、その後、モデル表面に画像を投影して、テクスチャ座標を決定することによって行うことができる。
本発明の実施形態は、さまざまな異なるタイプの照明パターンを使用して、オブジェクトの表面上の点の向きを決定しうる。一般に、照明パターンは、1つ以上の方向からオブジェクトの表面に光を投影するように設定されている。図4A〜4Dは、本発明の一実施形態との使用に適した照明パターンの例を示す。
図4Aは、照明パターンの例400を示す。照明パターン400には、パターンの左上隅の赤色光の領域405、右上隅の緑色光の領域410、および下中央の青色光の領域415が含まれる。照明パターン400は、カラービデオカメラと使用するために適合されている。代表的なカラービデオカメラは、赤色光、緑色光および青色光を画像内で同時にキャプチャすることができるため、照明パターン400により、カメラは、1つの画像内で、異なる位置の3つの異なる光源からのオブジェクトの陰影をキャプチャすることができる。この例では、画像内の赤色光の全て(すなわち各ピクセルの赤色成分)は領域405に由来し、画像内の緑色光の全て(すなわち各ピクセルの緑色成分)は領域410に由来し、画像内の青色光の全て(すなわち各ピクセルの青色成分)は領域415に由来する。
照明パターンの例400は、オブジェクト表面が全ての色の光をほぼ均等に反射すると仮定している。光の色によってオブジェクト表面の反射光量が異なることを補償するために、各色成分の陰影値のスケーリングまたは正規化を行うことができる。別例として、図4Bは、第2の照明パターン420を示す。照明パターン420は、色領域の位置が入れ替わっている点を除き、パターン400と同様である。照明パターン420では、赤色領域430が右上隅に、緑色領域435が下中央に、青色領域425が左上隅に位置している。本発明の一実施形態は、領域405と領域425、領域410と領域430、および領域415と領域435からのオブジェクトの陰影をそれぞれ比較することによって、オブジェクトの色の反射特性の差を補償することができる。例えば、領域405と領域425からの陰影値の比は、オブジェクトの赤青色と青色光の表面反射率の差の比に比例する。
色を使用することに加えて、可動光源に応じたオブジェクトの表面の陰影の変化を観察するために、照明パターンが、並進および回転などの動きを使用してもよい。図4Cは、第1の位置および向きにおける照明された三角形445を含む照明パターンの例440を示す。図4Dは、別の位置および向きにおける同様の三角形465を含む照明パターンの例460を示す。異なる位置および向きの間で三角形が移動したときのオブジェクトの陰影の画像をキャプチャすることによって、オブジェクトの表面上の点の向きを判別することが可能となる。
上で説明したように、表面光反射の陰影または照明モデルを使用して、光源からの点の陰影値に基づいて、その点に対する表面の向きの候補を決定することができる。別の実施形態では、表面の向きの解析の精度を改善するために、表面の向きが既知である較正オブジェクトを使用することができる。一実施形態では、システムは、1つ以上の照明パターンによって較正オブジェクトを照明する。多数の表面点における較正オブジェクトの表面の陰影が、カメラによってキャプチャされる。較正オブジェクトの幾何学的形状が既知であるため、各表面点の表面の向きもわかっている。このため、システムは、照明パターンごとに、各陰影値を1つ以上の表面の向きの候補と関連させたデータ構造を記憶している。同じ照明パターンを用いて未知のオブジェクトを解析する場合に、表面点の陰影値を使用して、このデータ構造から表面の向きの候補の組を取得することができる。
図5A〜5Cは、本発明の一実施形態との使用に適した較正オブジェクトの例を示す。図5Aは、第1の照明パターン500によって照明されている較正オブジェクトの例を示す。この例では、較正オブジェクトは球体である。第1の照明パターンが、較正オブジェクトを正面から(head on)照明している場合、領域505はほぼ同じ陰影値を有することになる。較正オブジェクトの幾何学的形状が既知であるため、領域505は、表面法線ベクトル510a〜510hを含む表面の向きの候補の組と関連している。同じ照明パターンを用いて未知のオブジェクトを解析するときに、領域505と似た陰影値を有する任意の表面点が、表面の向きの候補の組510の一部または全てを割り当てられる。第1の照明パターンについて、別の陰影値を有する較正オブジェクトの表面の他の領域に対しても、同様の解析が実行されうる。
図5Bは、第2の照明パターン520によって照明されている較正オブジェクトの同じ例を示す。この例では、第2の照明パターン520は、較正オブジェクトを側面から照明する。較正オブジェクトの表面の領域525は、ほぼ同じ陰影値を有する。較正オブジェクトの幾何学的形状が既知であるため、領域525は、表面法線ベクトル530a〜530hを含む表面の向きの候補の組と関連している。同じ照明パターンを用いて未知のオブジェクトを解析するときに、領域525と似た陰影値を有する任意の表面点が、表面の向きの候補の組530の一部または全てを割り当てられる。第2の照明パターンについて、別の陰影値を有する較正オブジェクトの表面の他の領域に対しても、同様の解析が実行されうる。
特殊な較正オブジェクトの代替案として、本発明の一実施形態は、ユーザの顔の特徴を較正オブジェクトとして使用してもよい。図5Cは、照明パターンによって照明されているユーザの顔の例550を示す。ユーザの顔の特定の特徴は、既知の幾何学的形状を有しうる。例えば、鼻560の先、額555および目565の両方は、ほぼ球形である。本発明の一実施形態は、これらの顔の特徴のいずれかまたは両方の照明パターンからの陰影を使用して、陰影値を表面の向きの候補と関連させることができる。
本発明の実施形態を使用して作成されたオブジェクトモデルは、多くの方法でインタラクティブなソフトウェアアプリケーションに取り込むことができる。例えば、ユーザの好きなオブジェクトのモデルが、ユーザの仮想空間を装飾するか、または、他のユーザへの電子ギフトとしてプレゼントするために使用されてもよい。ユーザは、ゲームのキャラクタに自分の顔を追加することができる。ポリゴンラスタライゼーション法およびレイトレーシングレンダリング法などの従来技術において公知の任意のレンダリング手法を使用して、オブジェクトモデルを、レンダリングしてユーザに対して表示することができる。
別の例では、本発明の一実施形態は、ビデオ会議アプリケーションにおいてカメラ位置を修正することができる。通常、ビデオ会議のユーザは、カメラではなくビデオスクリーンを見ている。ビデオ会議アプリケーションでは、カメラは、一般にスクリーンの横または上に置かれるため、ビデオ会議でユーザ同士が目線を合わせることが困難である。本発明の一実施形態は、上で説明した手法を使用して、ユーザの頭部のモデルを作成する。このモデルを使用して、ユーザの頭部に対するカメラの位置が決定される。本発明の一実施形態のアプリケーションは、この情報に基づいて、キャプチャしたビデオをモデル上にテクスチャとしてマッピングし、ユーザの頭部のモデルを、正面からキャプチャしたビデオテクスチャで覆ってレンダリングする。これは、ユーザがカメラを直接見ている効果をシミュレーションする。
更に別の実施形態では、システムはディスプレイ装置から投影される照明パターンを使用して、オブジェクトの初期の高解像度モデルを作成する。システムは、次に、ディスプレイ装置の一部からの可視照明パターン、あるいはカメラあるいはもう一方に関連する光源から投影されている可視または赤外の照明パターンを使用して、オブジェクトの低解像度モデルをキャプチャすることができる。この低解像度モデルは、オブジェクトの位置および向きの変化をトラッキングする、あるいは、ユーザの顔の表情の変化など、オブジェクトの形の連続的な変化をキャプチャするために、アプリケーションによって使用されうる。この変化を使用して、高解像度のオブジェクトのモデルの位置または形状を変更することができる。低解像度モデルからのこの情報は、ユーザの表情をゲームのキャラクタの表情に反映させたり、アプリケーション内の仮想オブジェクトを、ユーザによる物理的オブジェクトの移動に追従させたりなど、アプリケーションへの入力として使用することができる。
図6は、本発明の一実施形態の実装における使用に適したコンピュータシステム1000の例を示す。図6は、本発明の一実施形態の実施に適した、パーソナルコンピュータ、ビデオゲームコンソール、個人情報端末またはその他のデジタルデバイスなどの、コンピュータシステム1000のブロック図である。コンピュータシステム1000は、ソフトウェアアプリケーションを実行し、ロジック関数および任意選択でオペレーティングシステムを実装するための中央処理装置(CPU)1005を備える。CPU1005は、1つ以上の処理コアから構成されうる。メモリ1010は、CPU1005によって使用されるアプリケーションおよびデータを記憶する。記憶域1015は、アプリケーションおよびデータのための不揮発性記憶域を提供し、固定ディスクドライブ、リムーバブルディスクドライブ、フラッシュメモリデバイス、CD−ROM、DVD−ROM、ブルーレイ、HD−DVD、またはその他の光記憶デバイスなどを備えうる。ユーザ入力デバイス1020は、一人以上のユーザからのユーザ入力をコンピュータシステム1000に伝達するものであり、その例として、キーボード、マウス、ジョイスティック、タッチパッド、タッチスクリーン、静止カメラ、ビデオカメラおよび/またはマイクロフォンなどが挙げられる。ネットワークインタフェース1025は、コンピュータシステム1000が、電子通信ネットワークを介して他のコンピュータシステムと通信できるようにし、これには、ローカルエリアネットワーク、あるいはインターネット等の広域ネットワークを介した有線通信または無線通信などが挙げられる。音声プロセッサ1055は、CPU1005、メモリ1010および/または記憶域1015によって提供される命令および/またはデータからアナログまたはデジタルの音声出力を生成するように適合されている。CPU1005、メモリ1010、データ記憶域1015、ユーザ入力デバイス1020、ネットワークインタフェース1025および音声プロセッサ1055などのコンピュータシステム1000の構成要素は、1本以上のデータバス1060を介して接続されている。別の実施形態では、静止画カメラまたはビデオカメラ1065は、データバス1060によって接続されている。カメラ1065が、USBインタフェースまたはFirewireインタフェース、無線インタフェースなどの外部インタフェース、あるいはデータバス1065との内部インタフェースを介して接続されてもよい。
データバス1060およびコンピュータシステム1000の構成要素に、グラフィックサブシステム1030が更に接続されている。グラフィックサブシステム1030は、グラフィック処理装置(GPU)1035およびグラフィックメモリ1040を備える。グラフィックメモリ1040は、出力画像のピクセルごとにピクセルデータを記憶するために使用されるディスプレイメモリ(例えば、フレームバッファ)を備える。グラフィックメモリ1040は、GPU1035と同じデバイスに一体化されても、別個のデバイスとしてGPU1035と接続されても、メモリ1010内に実装されてもよい。CPU1005からグラフィックメモリ1040にピクセルデータが直接提供されうる。別の実施形態では、CPU1005は、所望の出力画像を定義しているデータおよび/または命令をGPU1035に提供し、GPU1035が、これらから1つ以上の出力画像のピクセルデータを生成する。所望の出力画像を定義しているデータまたは命令は、メモリ1010および/またはグラフィックメモリ1040に記憶されうる。一実施形態では、GPU1035は、シーンのための幾何学的形状、照明、陰影、テクスチャ、動きおよび/またはカメラパラメータを定義している命令およびデータから、出力画像のためのピクセルデータを生成するための3Dレンダリング機能を備えている。GPU1035は、シェーダ(shader)プログラムを実行することができるプログラマブル実行ユニットも1つ以上備えうる。
グラフィックサブシステム1030は、グラフィックメモリ1040からの画像をディスプレイ装置1050に表示させるために、ピクセルデータを周期的に出力する。ディスプレイ装置1050はコンピュータシステム1000からの信号を受けて、視覚的情報を表示することができる装置であればどのようなものであってもよく、CRT、LCD、プラズマディスプレイおよびOLEDディスプレイなどを備える。コンピュータシステム1000は、ディスプレイ装置1050にアナログまたはデジタルの信号を提供しうる。
本発明の一実施形態では、CPU1005は、1つ以上の処理コアを有する1つ以上の汎用マイクロプロセッサである。本発明の別の実施形態は、メディアアプリケーションおよびインタラクティブなエンタテインメントアプリケーションなどの、高度な並列処理を行い演算量の多いアプリケーションのために特別に適合されたマイクロプロセッサアーキテクチャを有する1つ以上のCPUを使用して実装されてもよい。図7は、本発明の一実施形態の実装に適したプロセッサの例を示す。
プロセッサ2000は、それぞれが独立したプログラムを並列に実行することができるプロセッサエレメントを多数備える。プロセッサ2000は、PPEプロセッサエレメント2005を有する。PPEプロセッサエレメントは、CISC、RISC、あるいは従来技術において公知のほかのタイプのマイクロプロセッサアーキテクチャの汎用プロセッサである。一例では、PPEプロセッサエレメント2005は、64ビットマルチスレッド対応RISCアーキテクチャのマイクロプロセッサ(PowerPCアーキテクチャなど)である。PPEプロセッサエレメント2005は、1レベル、2レベルまたはそれ以上のレベルに分割され、PPEプロセッサエレメント2005によって実行されるデータおよび命令を一時的に保持するキャッシュメモリ2007を備えうる。
プロセッサ2000は、パフォーマンス向上のために、多数のSPEプロセッサエレメント2010を有する。本例では、プロセッサ2000は、8つのSPEプロセッサエレメント2010A〜2010Hを有するが、別の例では、プロセッサのSPEプロセッサエレメントの個数が変わってもよい。SPEプロセッサエレメント2010は、データのストリーム処理に適合されている。ストリーム処理では、データの大きな組にある各項目に対して、プログラムが繰り返し実行される。ストリーム処理を容易にするために、SPEプロセッサエレメント2010は、複数のデータオペランドにSIMD命令を同時に実行することができる命令実行ユニットを備えうる。SPEプロセッサエレメント2010は、より一般的な処理タスクのために、一命令一データ(SISD)を実行することができる命令ユニットも備えうる。
SPEプロセッサエレメント2010Aなど、各SPEプロセッサエレメントは、ローカルデータおよび命令記憶域2012Aを有する。データおよび命令は、DMAユニット2014Aを介して、ローカルデータおよび命令記憶域2012Aとの間で転送されうる。ユニット2014AなどのDMAユニットは、プロセッサの監視がなくても、SPEプロセッサエレメント2010のそれぞれとの間でデータを転送することができ、これにより、SPEプロセッサエレメント2010がストールすることなく連続的な処理が可能となる。
データおよび命令は、メモリおよびI/Oインタフェース2015を介して、プロセッサ2000によって入出力される。データおよび命令は、プロセッサバス2020を介して、メモリおよびI/Oインタフェース2015、PPEプロセッサエレメント2005およびSPEプロセッサエレメント2010との間で伝達されうる。
上で説明したコンピュータシステムの例は、説明を目的として挙げたものであり、本発明の実施形態は、カメラと、近くにあるオブジェクトを照明することができる任意のタイプのディスプレイ装置とを備えた、どのようなタイプのシステムとも動作するように、容易に適合させることができる。他の実施形態は、当業者であれば、本明細書および図から想到することができる。別の実施形態では、上で開示した本発明のコンビネーションまたはサブコンビネーションを有利に作製することができる。理解しやすいように、アーキテクチャのブロック図およびフローチャートをグループ化している。しかし、本発明の代替の実施形態では、ブロックの組み合わせ、新しいブロックの追加、ブロックの組み替えなどが考察される。
このため、本明細書および図面は、限定的な意味ではなく、例示としてみなすべきである。しかし、特許請求の範囲に記載する本発明の広範な趣旨および範囲を逸脱することなく、さまざまな変形および変更を行うことができることが明らかである。

Claims (31)

  1. 物理的オブジェクトのコンピュータグラフィックモデルを作成するための方法であって、
    第1の照明パターンを選択するステップと、
    前記第1の照明パターンが、物理的オブジェクトを照明するように、前記第1の照明パターンをディスプレイ装置に表示するステップと、
    前記第1の照明パターンによって照明されている前記物理的オブジェクトの少なくとも1つの画像であって、前記物理的オブジェクト上の点に対応し、陰影値を有する画像点を含む画像を取得するステップと、
    前記画像が前記物理的オブジェクトのコンピュータグラフィックモデルの作成に適しているかどうかを決定するステップと、
    前記画像が適していると判定されると、前記陰影値から、それぞれが前記画像点の少なくとも一部に関連しているコンピュータグラフィックモデルのモデル点の組のそれぞれに対して、表面の向きの候補を決定するステップと、
    前記画像が適していないと判定されると、第2の照明パターンを選択し、前記第2の照明パターンに対して、前記表示ステップ、取得ステップおよび前記画像の判定ステップを繰り返すステップと、を有する方法。
  2. 前記第1の照明パターンは属性の第1の値を含み、前記第2の照明パターンは、前記属性の前記第1の値に基づいて選択される請求項1に記載の方法。
  3. 前記第2の照明パターンを選択するステップは、照明パターンに対して、照明パターンの組から、前記第1の値とは異なる前記属性の第2の値を含む前記第2の照明パターンに基づいて前記第2の照明パターンを選択するステップを有する請求項2に記載の方法。
  4. 前記属性は、前記第1の照明パターンの相当の部分を構成する色である請求項2に記載の方法。
  5. モデル点の組のそれぞれに対して、表面の向きの候補を決定するステップは、
    各メッシュ点に関連する前記画像点の部分の陰影値を特定するステップと、
    メッシュ点ごとに、前記特定された陰影値に対応する表面の向きの候補の第1の組を関連させるステップと、を有する請求項1に記載の方法。
  6. メッシュ点ごとに、以前に前記メッシュ点と関連していた表面の向きの候補の第2の組と、表面の向きの候補の前記第1の組との共通部分を決定するステップと、
    メッシュ点ごとに、表面の向きの候補の前記共通部分を前記メッシュ点と関連させるステップと、を更に有する請求項5に記載の方法。
  7. 前記特定された陰影値に対応する表面の向きの候補の前記第1の組を関連させるステップは、
    前記特定された陰影値および照明モデルから、表面の向きの候補の前記第1の組を得るステップを有する請求項5に記載の方法。
  8. 前記特定された陰影値に対応する表面の向きの候補の前記第1の組を関連させるステップは、
    前記陰影値を、既知の幾何学的形状を有し、前記第1の照明パターンによって照明される較正オブジェクトの画像から得られた較正陰影値と対応させるステップと、
    前記較正陰影値に対応する前記較正オブジェクトの前記既知の幾何学的形状の一部から、表面の向きの候補の前記第1の組を定義するステップと、を有する請求項5に記載の方法。
  9. 前記較正オブジェクトはユーザの顔の一部分である請求項8に記載の方法。
  10. 前記メッシュ点の少なくとも実質的部分のそれぞれが、1つの表面の向きの候補に関連しているかどうかを判定するステップと、
    前記メッシュ点の前記少なくとも実質的部分のそれぞれが、前記1つの表面の向きの候補に関連していると判定されると、前記メッシュ点の前記実質的部分の前記表面の向きの候補にフィットする前記コンピュータグラフィックモデルの表面を定義するステップと、を更に有する請求項1に記載の方法。
  11. 物理的オブジェクトのコンピュータグラフィックモデルを作成するためのシステムであって、
    ディスプレイ装置と接続するように適合され、前記ディスプレイ装置によって出力される画像の第1の組を生成し、物理的オブジェクトの付随的な照明を提供するように適合された第1のインタフェースロジックを有する第1のインタフェースと、
    カメラデバイスと接続するように適合され、前記カメラデバイスによってキャプチャされた、画像の前記第1の組によって付随的に照明される前記物理的オブジェクトの画像を含む画像の第2の組を受信するように適合された第2のインタフェースロジックを有する第2のインタフェースと、
    前記画像の第2の組内で、前記物理的オブジェクトの前記画像を特定するように適合された第1のロジックと、
    前記物理的オブジェクトの前記特定された画像に対応するメッシュ点を含むコンピュータグラフィックモデルを定義するように適合された第2のロジックと、
    前記メッシュ点のそれぞれに対応する前記物理的オブジェクトの前記特定された画像の一部から、前記コンピュータグラフィックモデルの前記メッシュ点のそれぞれに対して表面の向きの候補を決定するように適合された第3のロジックと、
    前記メッシュ点の少なくとも実質的部分がそれぞれ1つの表面の向きの候補を有すると、表面を、前記メッシュ点の表面の向きの候補と整合する前記メッシュ点にフィットするように適合された第4のロジックと、を有するシステム。
  12. 前記第2のインタフェースは内部インタフェースであり、前記システムは前記カメラデバイスを更に有する請求項11に記載のシステム。
  13. 前記第2のインタフェースは外部インタフェースである請求項11に記載のシステム。
  14. 前記第1のインタフェースは内部インタフェースであり、前記システムは前記ディスプレイ装置を更に有する請求項11に記載のシステム。
  15. 前記第1のインタフェースは外部インタフェースである請求項11に記載のシステム。
  16. 前記第1のロジックは、前記第2の画像の組のなかから、前記物理的オブジェクトを十分に表していない画像を特定し、前記第1のインタフェースロジックにフィードバック標識を提供するように更に適合され、前記第1のインタフェースロジックは、前記フィードバック標識を受けて前記ディスプレイ装置に代わりの画像の組を提供するように更に適合されている請求項11に記載のシステム。
  17. 前記第2の画像の組のなかから、前記物理的オブジェクトを十分に表していない前記画像は第1の属性値に関連し、前記代わりの画像の組は前記第1の属性値と異なる第2の属性値に関連する請求項16に記載のシステム。
  18. 前記属性は、前記第2の画像の組のなかから、前記物理的オブジェクトを十分に表していない前記画像を構成する色である請求項17に記載のシステム。
  19. 前記第3のロジックは、前記メッシュ点のそれぞれおよび照明モデルと対応する前記物理的オブジェクトの前記特定された画像の前記一部から表面の向きの候補の前記組を得るように更に適合されている請求項11に記載のシステム。
  20. 前記第3のロジックは、前記メッシュ点のそれぞれに対応する前記物理的オブジェクトの前記特定された画像の前記一部を、既知の幾何学的形状を有する較正オブジェクトの画像から得られ、画像の前記第1の組の少なくとも一部によって照明される較正陰影値と対応させ、
    前記較正陰影値に対応する前記較正オブジェクトの前記既知の幾何学的形状の一部から、表面の向きの候補の前記の組を定義するように更に適合されている請求項11に記載のシステム。
  21. 前記較正オブジェクトはユーザの顔の一部分である請求項20に記載のシステム。
  22. コンピュータに動作を実行させるように適合された命令を含む計算機可読媒体であって、前記動作は、
    第1の照明パターンを選択するステップと、
    前記第1の照明パターンが、物理的オブジェクトを照明するように、前記第1の照明パターンをディスプレイ装置に表示するステップと、
    前記第1の照明パターンによって照明されている前記物理的オブジェクトの少なくとも1つの画像であって、前記物理的オブジェクト上の点に対応し、陰影値を有する画像点を含む画像を取得するステップと、
    前記画像が前記物理的オブジェクトのコンピュータグラフィックモデルの作成に適しているかどうかを決定するステップと、
    前記画像が適していると判定されると、前記陰影値から、それぞれが前記画像点の少なくとも一部に関連しているコンピュータグラフィックモデルのモデル点の組のそれぞれに対して、表面の向きの候補を決定するステップと、
    前記画像が適していないと判定されると、第2の照明パターンを選択し、前記第2の照明パターンに対して、前記表示ステップ、取得ステップおよび前記画像の判定ステップを繰り返すステップと、を有する計算機可読媒体。
  23. 前記第1の照明パターンは属性の第1の値を含み、前記第2の照明パターンは、前記属性の前記第1の値に基づいて選択される請求項22に記載の計算機可読媒体法。
  24. 前記第2の照明パターンを選択するステップは、照明パターンに対して、照明パターンの組から、前記第1の値とは異なる前記属性の第2の値を含む前記第2の照明パターンに基づいて前記第2の照明パターンを選択するステップを有する請求項23に記載の計算機可読媒体。
  25. 前記属性は、前記第1の照明パターンの相当の部分を構成する色である請求項23に記載の計算機可読媒体。
  26. モデル点の組のそれぞれに対して、表面の向きの候補を決定するステップは、
    各メッシュ点に関連する前記画像点の部分の陰影値を特定するステップと、
    メッシュ点ごとに、前記特定された陰影値に対応する表面の向きの候補の第1の組を結びつけるステップと、を有する請求項22に記載の計算機可読媒体。
  27. メッシュ点ごとに、以前に前記メッシュ点と関連していた表面の向きの候補の第2の組と、表面の向きの候補の前記第1の組との共通部分を決定するステップと、
    メッシュ点ごとに、表面の向きの候補の前記共通部分を前記メッシュ点と関連させるステップと、を更に有する請求項26に記載の計算機可読媒体。
  28. 前記特定された陰影値に対応する表面の向きの候補の前記第1の組を関連させるステップは、
    前記特定された陰影値および照明モデルから、表面の向きの候補の前記第1の組を得るステップを有する請求項26に記載の計算機可読媒体。
  29. 前記特定された陰影値に対応する表面の向きの候補の前記第1の組を関連させるステップは、
    前記陰影値を、既知の幾何学的形状を有し、前記第1の照明パターンによって照明される較正オブジェクトの画像から得られた較正陰影値と対応させるステップと、
    前記較正陰影値に対応する前記較正オブジェクトの前記既知の幾何学的形状の一部から、表面の向きの候補の前記第1の組を定義するステップと、を有する請求項26に記載の計算機可読媒体。
  30. 前記較正オブジェクトはユーザの顔の一部分である請求項29に記載の計算機可読媒体。
  31. 前記メッシュ点の少なくとも実質的部分のそれぞれが、1つの表面の向きの候補に関連しているかどうかを判定するステップと、
    前記メッシュ点の前記少なくとも実質的部分のそれぞれが、前記1つの表面の向きの候補に関連していると判定されると、前記メッシュ点の前記実質的部分の前記表面の向きの候補にフィットする前記コンピュータグラフィックモデルの表面を定義するステップと、を更に有する請求項22に記載の計算機可読媒体。
JP2010506455A 2007-04-24 2008-04-23 ビデオカメラとtvモニタを使用した3次元オブジェクトのスキャン Pending JP2010526295A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US91379307P 2007-04-24 2007-04-24
US11/840,813 US8218903B2 (en) 2007-04-24 2007-08-17 3D object scanning using video camera and TV monitor
PCT/US2008/061288 WO2008134368A1 (en) 2007-04-24 2008-04-23 3d object scanning using video camera and tv monitor

Publications (1)

Publication Number Publication Date
JP2010526295A true JP2010526295A (ja) 2010-07-29

Family

ID=39886394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010506455A Pending JP2010526295A (ja) 2007-04-24 2008-04-23 ビデオカメラとtvモニタを使用した3次元オブジェクトのスキャン

Country Status (5)

Country Link
US (1) US8218903B2 (ja)
EP (1) EP2147412B1 (ja)
JP (1) JP2010526295A (ja)
CN (2) CN101669146B (ja)
WO (1) WO2008134368A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101612979B1 (ko) * 2008-10-02 2016-04-15 엘지전자 주식회사 화질 조정 방법 및 그를 이용한 영상 표시 장치.
JP5567908B2 (ja) * 2009-06-24 2014-08-06 キヤノン株式会社 3次元計測装置、その計測方法及びプログラム
US9015241B2 (en) * 2009-12-17 2015-04-21 At&T Intellectual Property I, L.P. Apparatus and method for video conferencing
KR20120067888A (ko) * 2010-12-16 2012-06-26 한국전자통신연구원 스테레오 영상 처리 장치 및 그 방법
JP5746529B2 (ja) * 2011-03-16 2015-07-08 キヤノン株式会社 三次元距離計測装置、三次元距離計測方法、およびプログラム
JP5538483B2 (ja) * 2012-06-29 2014-07-02 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
US20140028799A1 (en) * 2012-07-25 2014-01-30 James Kuffner Use of Color and Intensity Modulation of a Display for Three-Dimensional Object Information
US9554049B2 (en) 2012-12-04 2017-01-24 Ebay Inc. Guided video capture for item listings
CN103927784B (zh) * 2014-04-17 2017-07-18 中国科学院深圳先进技术研究院 一种主动式三维扫描方法
US9922452B2 (en) * 2015-09-17 2018-03-20 Samsung Electronics Co., Ltd. Apparatus and method for adjusting brightness of image
CA2941333A1 (en) * 2015-10-30 2017-04-30 Wal-Mart Stores, Inc. Virtual conference room
CA2948761A1 (en) * 2015-11-23 2017-05-23 Wal-Mart Stores, Inc. Virtual training system
CN105577972B (zh) * 2015-12-28 2018-05-11 苏州佳世达光电有限公司 扫描方法及扫描装置
EP3436791B1 (en) 2016-07-26 2020-12-23 Hewlett-Packard Development Company, L.P. Determining illumination direction with three-dimensional illumination charts
EP4268757A3 (en) * 2017-10-06 2023-12-06 Advanced Scanners, Inc. Generation of one or more edges of luminosity to form three-dimensional models of objects
CN108038913A (zh) * 2017-12-08 2018-05-15 苏州蜗牛数字科技股份有限公司 一种基于摄影测量生成写实模型和贴图的方法
US10909373B1 (en) * 2018-08-24 2021-02-02 Snap Inc. Augmented reality system using structured light

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05181980A (ja) * 1991-10-30 1993-07-23 Sony Corp 三次元形状復元方法とその装置
JPH07296185A (ja) * 1994-04-28 1995-11-10 Canon Inc 3次元画像表示装置
JPH08227462A (ja) * 1995-02-21 1996-09-03 Hitachi Ltd 動画像の変化点検出方法及び装置
JPH0950538A (ja) * 1995-05-31 1997-02-18 Nec Corp 等高線からの三次元データ作成システム
JPH1144515A (ja) * 1997-07-25 1999-02-16 Seiko Epson Corp 能動型光照射器、光検出器、及び、3次元画像入力装置
JPH11331875A (ja) * 1998-05-19 1999-11-30 Matsushita Electric Ind Co Ltd 3次元情報伝送方法
JP2001147110A (ja) * 1999-11-22 2001-05-29 Sony Corp ランダムパターン生成装置とその方法、距離画像生成装置とその方法、およびプログラム提供媒体
JP2002163681A (ja) * 2000-10-06 2002-06-07 Canon Inc 画像処理装置
JP2003077007A (ja) * 2001-08-31 2003-03-14 Roland Dg Corp 3次元形状データの生成方法
JP2003203220A (ja) * 2002-01-07 2003-07-18 Canon Inc 三次元画像処理方法、三次元画像処理装置、三次元画像処理システムおよび三次元画像処理プログラム
JP2004157968A (ja) * 2002-04-18 2004-06-03 Canon Europa Nv 3次元コンピュータモデリング
JP2005024438A (ja) * 2003-07-04 2005-01-27 Murakami Corp 曲面鏡の鏡面精度検査方法、曲面鏡の鏡面精度検査装置、曲面鏡の鏡面精度検査用パターンの作成方法および曲面鏡の鏡面精度検査用パターン
JP2006221639A (ja) * 2005-02-07 2006-08-24 Sony Computer Entertainment Inc グラフィック処理を用いた粒子操作方法及び装置
JP2007064627A (ja) * 2005-08-01 2007-03-15 Topcon Corp 三次元計測システム及びその方法
JP2007101276A (ja) * 2005-09-30 2007-04-19 Topcon Corp 三次元計測用投影装置及びシステム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9717656D0 (en) 1997-08-20 1997-10-22 Videologic Ltd Shading three dimensional images
US6362822B1 (en) * 1999-03-12 2002-03-26 Terminal Reality, Inc. Lighting and shadowing methods and arrangements for use in computer graphic simulations
US6369879B1 (en) * 2000-10-24 2002-04-09 The Regents Of The University Of California Method and apparatus for determining the coordinates of an object
US6704447B2 (en) * 2001-02-21 2004-03-09 Justsystem Corporation Method and apparatus for using illumination from a display for computer vision based user interfaces and biometric authentication
US6765572B2 (en) * 2001-04-23 2004-07-20 Koninklijke Philips Electronics N.V. Virtual modeling by voxel-clipping shadow-cast
US7317812B1 (en) * 2002-11-15 2008-01-08 Videomining Corporation Method and apparatus for robustly tracking objects
GB0301775D0 (en) * 2003-01-25 2003-02-26 Wilson John E Device and method for 3Dimaging
DE10344922B4 (de) * 2003-09-25 2008-06-26 Siemens Audiologische Technik Gmbh Rundum-Scanner
US20050243085A1 (en) * 2004-05-03 2005-11-03 Microsoft Corporation Model 3D construction application program interface
CA2579903C (en) * 2004-09-17 2012-03-13 Cyberextruder.Com, Inc. System, method, and apparatus for generating a three-dimensional representation from one or more two-dimensional images
US8139068B2 (en) 2005-07-29 2012-03-20 Autodesk, Inc. Three-dimensional animation of soft tissue of characters using controls associated with a surface mesh
US7801768B2 (en) * 2005-09-15 2010-09-21 Microsoft Corporation Budget-dependent pseudo bid in auction

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05181980A (ja) * 1991-10-30 1993-07-23 Sony Corp 三次元形状復元方法とその装置
JPH07296185A (ja) * 1994-04-28 1995-11-10 Canon Inc 3次元画像表示装置
JPH08227462A (ja) * 1995-02-21 1996-09-03 Hitachi Ltd 動画像の変化点検出方法及び装置
JPH0950538A (ja) * 1995-05-31 1997-02-18 Nec Corp 等高線からの三次元データ作成システム
JPH1144515A (ja) * 1997-07-25 1999-02-16 Seiko Epson Corp 能動型光照射器、光検出器、及び、3次元画像入力装置
JPH11331875A (ja) * 1998-05-19 1999-11-30 Matsushita Electric Ind Co Ltd 3次元情報伝送方法
JP2001147110A (ja) * 1999-11-22 2001-05-29 Sony Corp ランダムパターン生成装置とその方法、距離画像生成装置とその方法、およびプログラム提供媒体
JP2002163681A (ja) * 2000-10-06 2002-06-07 Canon Inc 画像処理装置
JP2003077007A (ja) * 2001-08-31 2003-03-14 Roland Dg Corp 3次元形状データの生成方法
JP2003203220A (ja) * 2002-01-07 2003-07-18 Canon Inc 三次元画像処理方法、三次元画像処理装置、三次元画像処理システムおよび三次元画像処理プログラム
JP2004157968A (ja) * 2002-04-18 2004-06-03 Canon Europa Nv 3次元コンピュータモデリング
JP2005024438A (ja) * 2003-07-04 2005-01-27 Murakami Corp 曲面鏡の鏡面精度検査方法、曲面鏡の鏡面精度検査装置、曲面鏡の鏡面精度検査用パターンの作成方法および曲面鏡の鏡面精度検査用パターン
JP2006221639A (ja) * 2005-02-07 2006-08-24 Sony Computer Entertainment Inc グラフィック処理を用いた粒子操作方法及び装置
JP2007064627A (ja) * 2005-08-01 2007-03-15 Topcon Corp 三次元計測システム及びその方法
JP2007101276A (ja) * 2005-09-30 2007-04-19 Topcon Corp 三次元計測用投影装置及びシステム

Also Published As

Publication number Publication date
EP2147412B1 (en) 2019-09-18
US20080266294A1 (en) 2008-10-30
CN103489216A (zh) 2014-01-01
CN101669146A (zh) 2010-03-10
EP2147412A1 (en) 2010-01-27
US8218903B2 (en) 2012-07-10
CN103489216B (zh) 2018-06-01
CN101669146B (zh) 2013-10-16
EP2147412A4 (en) 2015-10-07
WO2008134368A1 (en) 2008-11-06

Similar Documents

Publication Publication Date Title
US8218903B2 (en) 3D object scanning using video camera and TV monitor
US11069135B2 (en) On-set facial performance capture and transfer to a three-dimensional computer-generated model
US11694392B2 (en) Environment synthesis for lighting an object
US11671717B2 (en) Camera systems for motion capture
US11640672B2 (en) Method and system for wireless ultra-low footprint body scanning
JP4945642B2 (ja) 3d画像の色補正の方法及びそのシステム
JP5299173B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
US10192342B1 (en) Using stand-in camera to determine grid for rendering an image from a virtual camera
Fukamizu et al. Elamorph projection: Deformation of 3d shape by dynamic projection mapping
JP2016162392A (ja) 3次元画像処理装置および3次元画像処理システム
JP5526239B2 (ja) デジタルピクチャを生成するための方法、デバイス、およびコンピュータ可読媒体
Marques et al. Deep Light Source Estimation for Mixed Reality.
WO2018182938A1 (en) Method and system for wireless ultra-low footprint body scanning
Zhang et al. Real-Time 3-D Reconstruction for Facilitating the Development of Game-based Virtual Laboratories
GB2584192A (en) On-set facial performance capture and transfer to a three-dimensional computer-generated model
Karlsson et al. Rendering Realistic Augmented Objects Using a Image Based Lighting Approach
US10109062B1 (en) Non-coherent point tracking and solving for ambiguous images and geometry
Jiddi Photometric registration of indoor real scenes using an RGB-D camera with application to mixed reality
Kindsvater et al. A Tabletop for the Natural Inspection of Decorative Surfaces.
Shen THE PURDUE UNIVERSITY GRADUATE SCHOOL STATEMENT OF DISSERTATION APPROVAL
Tuceryan et al. Extraction and Integration of Physical Illumination in Dynamic Augmented Reality Environments
Zink Kinect Programming with Direct3D 11
Leão et al. Geometric Modifications Applied To Real Elements In Augmented Reality
Real-Time et al. 2006-2007 Final Year Project Report (1st Term)
Duce et al. A Formal Specification of a Graphics System in the

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100714

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100818

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101126

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120828

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121029

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130305