JP2003099799A - 変化のないシーン内の静止した3dの物理的な物体の動きをシミュレートするための方法 - Google Patents

変化のないシーン内の静止した3dの物理的な物体の動きをシミュレートするための方法

Info

Publication number
JP2003099799A
JP2003099799A JP2002230011A JP2002230011A JP2003099799A JP 2003099799 A JP2003099799 A JP 2003099799A JP 2002230011 A JP2002230011 A JP 2002230011A JP 2002230011 A JP2002230011 A JP 2002230011A JP 2003099799 A JP2003099799 A JP 2003099799A
Authority
JP
Japan
Prior art keywords
physical object
scene
motion
stationary
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002230011A
Other languages
English (en)
Inventor
Ramesh Raskar
ラメッシュ・ラスカー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2003099799A publication Critical patent/JP2003099799A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

(57)【要約】 【解決手段】 コンピュータによって実施される方法
が、最初に3Dの物理的な物体およびシーンの3Dグラ
フィックスモデルを取得することにより、変化のないシ
ーン内の静止した3Dの物理的な物体の動きをシミュレ
ートする。プロジェクタが、3Dの物理的な物体と、シ
ーンと、3Dモデルとに位置合わせされる。その後、そ
のモデルは複数の部分にセグメント化され、その部分の
所望の外観および仮想的な動きを反映させるために、各
部分がグラフィックスオーサリングツールを用いて編集
される。 【効果】 編集された部分はレンダリングされ、3Dの
物理的な物体およびシーン上に映像としてリアルタイム
に投影され、3Dの物理的な物体およびシーンに、所望
の外観および仮想的な動きを与える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は全般にグラフィック
スをレンダリングすることに関し、より詳細にはシーン
内の静止した物体の動きをシミュレートすることに関す
る。
【0002】
【従来の技術】コンピュータグラフィックスシステム
は、実在あるいは架空の物体およびシーンの画像を取得
あるいは合成し、その後、これらを仮想世界において再
現することができる。最近になって、コンピュータシス
テムは、その逆を、すなわちコンピュータグラフィック
ス画像を現実世界に「挿入すること」も試みている。主
に、これは、映画の中で特殊な効果を得るために、およ
びリアルタイムに迫真性を高めるために間接的に行われ
る。さらに最近では、映写機を用いて、現実の物理環境
において直接、画像をレンダリングする動きがある。
【0003】コンピュータグラフィックスは多くの進歩
を遂げているが、コンピュータはさらに、物理的な形状
および空間的な関係に関して、実際の物質による体験の
代わりに用いられなければならない。建築家、都市計画
立案者、自動車エンジニア、芸術家およびアニメ製作者
のような設計者達は依然として、その設計を終了する前
に、物理的なモデルを彫刻することに助けを求める。こ
れを行うための1つの理由は、物理的なモデルへのヒュ
ーマンインターフェースが全体として直感的であること
である。その場合には、操作するための制御手段や、視
認あるいは装着するための表示装置が存在しない。代わ
りに、そのモデルは、全体的に凝視し、あるいは興味の
ある構成要素に重点を置きながら、視覚的、空間的およ
び時間的な点の全てにおいて非常に正確に、多くの視野
から視認することができる。
【0004】物体あるいはシーンが自然(白色)光によ
って照明されるとき、それは、その表面によって反射さ
れる特定の波長の光にしたがって感知される。表面の属
性は感知される光のスペクトルにのみ依存するので、物
体の多くの属性は、物体の属性を光源に組み入れ、中間
色の物体において等価な効果を達成することにより、効
果的にシミュレートすることができる。したがって、非
現実的な外観であっても視覚化することができる。
【0005】調度品を備えた居間と、人々とのフィルム
を取得するために、回転式の映画用カメラが用いられて
きた。その際、部屋および調度品は昼白色に着色され、
そのフィルムは、本来のカメラと正確に位置合わせされ
た回転式のプロジェクタを用いて、壁および調度品に投
影し直される。Naimarkによる「Displacements」(Exhi
bit at the San Francisco Museum of Modern Art, San
Francisco, CA 1984)を参照されたい。記録用の(acqu
iring)カメラと表示用のプロジェクタとのこの決定的な
位置合わせは、ほとんどのシステムに共通であり、それ
らのシステムは、物理的な物体を照明するために、予め
記録された画像あるいは一連の画像を用いる。
【0006】実在の水晶球内部に架空の占い師の顔を動
画化するために、プロジェクタおよび光ファイバの束が
用いられてきた。Liljegren等に1990年12月18
日に付与された「Figure with back projected image u
sing fiber optics」というタイトルの米国特許第4,
978,216号を参照されたい。細部を拡大された修
正写真のスライドを、高輝度のプロジェクタとともに用
いて、非常に大きな建築学的規模で画像をレンダリング
している。最近になってこの概念を具現化したものが、
よく知られている、フランスのロワール地方のブロア城
のLe Sonet Lumiereである。さらに、
現在では、橋のような大規模な構造を照明するために、
この手段は世界中の至るところで用いられている。
【0007】全てのこれらのシステムは人目を引くよう
な視覚化を達成する。しかしながら、1つのプロジェク
タの場合であっても、煩わしい位置合わせプロセスに数
時間を要する可能性がある。「Luminous Ro
om」プロジェクトは、同じ場所に配置されたカメラ−
プロジェクタの対をI/Oバルブとして取り扱い、画像
を読み取り、部屋あるいは指定された作業空間の実在の
物理的環境の平坦な表面上にその画像を投影する。Unde
rkoffler等による「Emancipated pixels: Real-world g
raphics in the luminous room」(SIGGRAPH '99, pp.
385-392, 1999)を参照されたい。その主な焦点は、発
光および実在インターフェースを介して情報をやりとり
することである。そのインターフェースは同一平面上の
2Dの物理的な物体を認識し、その面において2D位置
および配向を追跡し、頭上から光を投射し、適当な日光
による影を再現した。
【0008】「Facade」プロジェクトでは、1組
の少数の写真を用いて、建築学的な記念碑をモデリング
し、レンダリングした。Debeves等による「Modeling an
d Rendering Architecture from Photographs」(SIGGR
APH '96, August 1996)を参照されたい。その主な問題
は、幾何モデル上に画像を再投影する際に生じるオクル
ージョン、サンプリングおよびブレンディングの問題に
関連していた。彼らは、コンピュータ画像および分析モ
デルを用いて、これらの問題に対処した。
【0009】実在の3次元物体あるいは構造物上に画像
を投影することができるグラフィックスシステムを有す
ることが有用であろう。また、任意の視認方向の場合
に、その画像を適合させることもできるであろう。さら
に、照明される物体の外観を自在に変更することができ
るであろう。最後に、任意の方向から視認されることが
できるように、多数のプロジェクタから1つの複雑な物
体上に画像を継ぎ目なく適合させることができるであろ
う。
【0010】
【発明が解決しようとする課題】本発明は、3次元コン
ピュータグラフィックスを視覚化するための新規の方法
を提供する。本発明は、テクスチャ、すなわち画像の拡
散成分を合成できるだけでなく、放射輝度調整手順を用
いて、任意の双方向反射率分布関数(BRDF)を仮想
的に再現することもできる。また、本発明は、深さの不
連続部の存在時に、多数の重なり合う画像の移行部にわ
たって、重み付けされた画素濃度を判定する。
【0011】
【課題を解決するための手段】3Dコンピュータグラフ
ィックスのための本発明の実例は、多数のプロジェクタ
を用いて、現実世界内の物理的な物体あるいは構造物を
写実的に動画化する。その概念は、固有の色、テクスチ
ャおよび材料特性を有する物理的な物体を、投影された
画像によって照らされた中間色の物体で置き換え、その
物体上に直接、元の外観あるいは別の外観を再現するこ
とである。このアプローチでは、その物体の所望の視覚
的特性が、プロジェクタ内に効果的に「取り込まれ
る」。
【0012】具体的には、最初に3Dの物理的な物体お
よびシーンの3Dグラフィックスモデルを取得すること
により、コンピュータにより実施される方法が、変化し
ないシーン内の静止した3Dの物理的な物体の動きをシ
ミュレートする。プロジェクタが、3Dの物理的な物
体、シーンおよび3Dモデルと位置合わせされる。その
後、そのモデルは複数の部分にセグメント化され、各部
分が、その部分の所望の外観および仮想的な動きを反映
させるために、グラフィックスオーサリングツールで編
集される。編集された部分は、レンダリングされ、3D
の物理的な物体およびシーンの上に映像としてリアルタ
イムに投影され、3Dの物理的な物体およびシーンに、
所望の外観および仮想的な動きを与える。
【0013】
【発明の実施の形態】緒言
【0014】本発明は、3次元(3D)コンピュータグ
ラフィックスおよび動画を、実在のシーンの3Dの物理
的な物体および視覚的な属性と組み合わせて、ユーザ
が、仮想的な画像で改善された物理的な物体および構造
物を視認できるようにする。本発明は、現実世界の要素
の照明を、3D画像の透視投射として取り扱い、コンピ
ュータビジョン技術を用いて画像が位置合わせされる。
本発明は、そのシーン内の拝啓である物理的な物体のた
めのテクスチャ、すなわち照明の拡散成分を提供するだ
けでなく、物体の外観およびシーンの残りの部分を変化
させるために、任意の双方向反射率分布関数(BRD
F)を仮想的に再現することもできる。言い換えると、
本発明は、観測点非依存性および観測点依存性の視覚効
果を現実世界の構造物に適用する。
【0015】本明細書は、対応する画像濃度を補正しな
がらレンダリングプロセスを誘導するために、放射輝度
調整手順を用いて、物理的な物体およびシーンを照明す
るための実用的な方法を記載する。また本発明は、多数
のプロジェクタからの画像を複雑な表面上で融合するこ
とにより、物理的な物体を完全に照明するための解法も
提供する。本発明は、深さの不連続部の存在時に、結果
的に再構成された照明に継ぎ目がないように、融合さ
れ、セグメント化された重なりの問題を解決する。ま
た、このプロセスは、種々の観測点からの多数の、深さ
を増した画像が、新規の観測点をレンダリングするため
に融合される必要がある、画像ベースレンダリング(I
BR)の応用形態によって用いられることもできる。
【0016】本発明のシステムを用いて、卓上要素、工
業用部品、クレイモデル、建造物インテリア、彫像、建
築学的な記念碑、建造物全体および橋のような物体を照
明することができる。また、本発明は、仮想的な光源の
移動、ならびに静止した対称的な物理的な物体の仮想的
な回転および直線的な動きのような動画も提供する。ま
た本発明は、移動する特徴からなる画像で、物理的なシ
ーンの種々の部分を照明することにより、静止した物体
および背景の動きをシミュレートする。本発明により、
照明を追跡させながら、混在する部屋大の仮想および現
実環境を「ウォークスルー(通り抜け)」できるように
なる。
【0017】本発明は、物理的な物体を照明することに
関連する多数の問題に対処する。第1の問題は、1つあ
るいは複数の投影された画像を3Dの物理的な物体と厳
密に一致させる必要がある、幾何学的な位置合わせの問
題である。従来技術の方法は典型的には、非常に単調
で、不正確な手動による方法を用いて、この位置合わせ
を達成する。以下では、本明細書は、自動化された位置
合わせ方法を記載する。
【0018】第2の問題は、物理的な物体の外観を変更
することに関する問題である。たとえば、本発明は、光
沢のない物体を光沢のある物体に見せるための技術、お
よび静止した物体を回転させるための技術を提供する。
第3の問題は、セルフオクルージョンに起因する影およ
び不連続部の存在時に、重要な物理的な物体を完全に照
明することに関する問題である。第4の問題は、移動す
る物体の外観を変化させることに関する問題である。た
とえば、本発明は、物体の外観、そしておそらく背景を
変化させながら、移動する物体を照明するための解法を
提供する。
【0019】システム概観
【0020】モデル取得
【0021】図1に示されるように、本発明によるシス
テム100は、物体の3Dグラフィックスモデル111
を取得するために、現実世界の3次元(3D)の物理的
な物体あるいは構造物101を走査することにより開始
する。たとえば、3Dの物理的な物体101は、タージ
マハルの縮小された木製の複製物である。タージマハル
の縮小模型は、中間色(白色)に吹付け塗装される。そ
の寸法は約70cm×70×35cmである。
【0022】3Dの物理的な物体101は、たとえば、
0.5mmの精度で読取り値を与える3D触針センサに
よって走査されることができる。また、スキャナ110
は、ソナーあるいはレーザレンジング、ステレオビジョ
ン、3Dイメージング等のような他の技術を用いて、3
Dの物理的な物体101を表す3Dグラフィックスモデ
ル111の正確な幾何学的構造を取得することもでき
る。
【0023】グラフィックスモデルは、コンピュータメ
モリに、三角形メッシュ、ポイントクラウド、ボリュー
メトリックデータとして格納されることができる。グラ
フィックスデータ構造をレンダリングするための他の容
易な方法を用いて、3Dの物理的な物体101を表すこ
ともできる。好ましい実施形態では、タージマハルモデ
ル111は21,000個の三角形から形成される。こ
の時点では、モデル111は観測点に依存し、「装飾さ
れていない」ことに留意されたい。すなわち、そのモデ
ルは、接続される頂点とその配向(垂直線)とによって
完全に指定される。
【0024】物体が走査される間に、物体の表面上で1
組の3D較正点112が選択され、3Dグラフィックス
モデル内の対応する3Dモデル較正点が特定される。モ
デル較正点は、以下にさらに詳細に記載されるように、
較正画像内の対応する較正画素114に関連付けられ
る。たとえば、較正点112は、3Dの物理的な物体1
01の角の場所を特定するのを容易にする。3D較正点
および画素は、以下にさらに詳細に記載される、オプシ
ョンの自動化された位置合わせステップ400によって
用いられる。このステップは、プロジェクタ160と物
体101とを「位置合わせする」。位置合わせステップ
400は、コンピュータグラフィックス画像をレンダリ
ングする間に用いられることになる外部および固有パラ
メータ401を判定する。透視照明装置の投影は、11
段階までの自由度、すなわち6段階の外部自由度と5段
階の内部自由度とを有する。それゆえ、必要な変換を厳
密に決定し、モデル111の投影される画像と3Dの物
理的な物体101とを位置合わせできるようにする外部
および固有パラメータを決定するために、最低6個の基
準点が要求される。較正400の精度を高めるために、
本発明では、少なくとも20の点が用いられる。
【0025】モデル編集
【0026】ステップ120の間に、3Dモデル110
は、その物体の所望の外観を反映させるために、観測点
に依存しないテクスチャおよび観測点に依存する材料特
性で改善あるいは「装飾」される。このステップは、任
意の数の利用可能なコンピュータグラフィックスオーサ
リングツールを用いることができる。典型的には、テク
スチャは着色されたパターンによって定義される。本発
明は、15個のテクスチャマップを用いる。材料外観特
性は、種々の角度から視認される際に、その物体がどの
ように見えることになるかを決定する。たとえば、光沢
があるかまたは金属製の物体は、種々の観測点および照
明配置の下では、光沢のない物体とは異なるように見え
るであろう。
【0027】標準的には、物理的な世界では、物理的な
物体の表面に関連するテクスチャおよび照明は、物体の
不可欠な部分である。本発明は、これらの物体の特性
を、以下にさらに詳細に記載される、変更された双方向
反射率分布関数(BRDF)を用いて表す。細部にわた
る仮想的な3Dグラフィックスモデル122を生成する
ために、多数のハードウエアおよびソフトウエアによる
解法が利用可能である。別の実施形態では、そのモデル
は、携帯型の仮想的な「ペイントブラシ」ツールを直
接、3Dの物理的な物体101に適用することにより、
インタラクティブに編集される。ユーザとのやりとりの
結果は、同時に、あるいは後に投影するためにコンピュ
ータメモリに格納されることができる。
【0028】レンダリング
【0029】ステップ130は、3Dの物理的な物体1
01の外観が新規の態様に変更されることができるよう
に、レンダリングエンジンを用いて、仮想的な3Dグラ
フィックスモデル122の画像131をレンダリングす
る。仮想的な3Dモデル122に加えて、レンダリング
エンジン130は、入力として、位置合わせ400中に
決定された外部および固有パラメータ401と、3Dの
物理的な物体101をユーザが視認する場所132、す
なわち従来通りの言い回しでは、「カメラ」の場所とを
取り込む。
【0030】正反射性のハイライト効果を正確に計算す
るために、本発明は、たとえば、Origin Ins
truments DynaSight(商標)光学追
跡システム135を用いて、移動するユーザの位置13
2を追跡することができる。システム135は、静止し
ている目標物の瞬間的な3次元位置を測定する、コンパ
クトな内蔵ステレオセンサを含む。そのセンサはユーザ
を自動的に捕捉し、自由な環境においてユーザを追跡す
ることができる。
【0031】その入力は、モデル111を照明するため
に用いられる仮想光の位置133も含む。
【0032】プロジェクタの姿勢(位置および配向)に
よって画定されるレンダリングの観見え方は固定された
ままであるが、ユーザの位置に応じて、シェーディング
の見え方が指定される。従来のレンダリング手段では、
視認者がプロジェクタの真後ろあるいは真向かいにいる
ものと仮定される。すなわち、視認者は、システムの光
学軸の直線上に存在する。本発明のシステム100は必
ずしもこの状態にはない。それゆえ、レンダリングエン
ジン130のための視認設定は、移動する視認者を考慮
に入れるように変更される必要がある。
【0033】図2は、この設定を実行する手順200の
ステップを示す。基本的には、手順200は、プロジェ
クタと、視認者に依存するシェーディングパラメータと
のために、個別の変換行列を設定する。その手順は、た
とえば、OpenGLレンダリングプログラムで動作す
るように設計される。
【0034】本発明により、静止した物体の動きがシミ
ュレートされるとき、静止した物体上に移動する物体の
画像が投影される。たとえば、回転対称の壷の場合、壷
の回転するモデルから生成される画像が投影され、静止
した物体の仮想的な動きの錯覚を与える。本発明は、多
数の物体から形成されるシーンを照明する際にさらにこ
の概念を利用する。本発明は、個別ではあるが、一致す
る動きに対応する画像を、そのシーンの種々の部分に投
影する。たとえば、道路上を移動する自動車の作用を生
成するために、本発明は、車輪を照明する部分が車輪の
軸を中心に回転し、一方、自動車の下側の道路あるいは
背景の他の部分が後方に移動する画像を投影する。さら
に、車輪の動きおよび背景の動きは一致する。車輪がよ
り速く回転する際に、背景はより高速に平行移動し、静
止した自動車が実際にはより高速に移動しているという
錯覚を与える。
【0035】濃度補正
【0036】ステップ140は、3Dの物理的な物体1
01の中間色の表面の配向、およびその方向に向いた表
面のための放射輝度を考慮に入れるために、レンダリン
グされた画像131の濃度を画素毎に補正する。その画
像濃度は、グラフィックスハードウエアにおいて利用可
能なαブレンディングを用いて補正されることができ
る。このステップの詳細はさらに以下に記載される。標
準的なレンダリングでは通常、画像131は、光学軸に
垂直に、かつその軸を中心にして存在する1つの平面、
たとえば表示装置の画面あるいは一枚の紙の上に投影さ
れるものと仮定される。本発明のシステム100では、
画像131は、曲面の部分を含む、種々の角度に配向さ
れた任意の数の任意の形状をなす表面を有する複雑な物
体あるいは構造物上に投影されることができる。
【0037】クロスフェーディング
【0038】上記のように、本発明は、種々の角度から
物体を眺めるために、視認者が動き回ったり(ウォーク
アラウンド)、通り抜けたり(ウォークスルー)するこ
とができるように、物体101あるいは構造物全体を照
明することができる。この場合には、多数の画像が投影
される必要がある。多数のプロジェクタ160が用いら
れる場合には、ステップ400、130、140、15
0に関する多数の事例が存在する。投影される画像は重
なり合うことができるので、最終的な投影可能な画像1
51を得るために、以下にさらに詳細に記載される付加
的な補正ステップ150が適用される必要がある。この
ステップ150は、重なり合う領域内の画像をフェザリ
ングあるいはブレンディングする。フェザリングあるい
はブレンディングされた画像151は、3Dの物理的な
物体101を照明するために、最終ステップとしてプロ
ジェクタ160に供給される。一実施形態では、本発明
は、1024×768の解像度で画素を表示する2つの
デジタルプロジェクタを用いる。
【0039】この時点で、視認者位置、物体の配向およ
び仮想的な照明が変化することを考慮に入れるように、
投影される画像が動的に変化できることに留意された
い。別法では、ユーザが1つの場所から種々の角度で物
体を視認できるようにするために物体を回転させること
ができるか、あるいは画像が、静止した物体が回転して
いるかのように見せることができる。照明される環境と
して、ユーザが仮想的に収容される大規模な構造物を用
いることもできる。この場合に、プロジェクタの代わり
に、1つあるいは複数の調整可能なレーザビームを用い
て照明を行うことができる。
【0040】その方法100全体は、以下の擬似コード
によって要約することができる。 予備処理中 3Dの物理的な物体の3Dグラフィックスモデルを取得
する プロジェクタを概ね配置する 物理的な物体に対してプロジェクタの姿勢を決定する 実行中 ユーザ位置を定義する 物体の所望の外観を反映させるためにモデルを編集する ユーザ位置に基づいて、編集されたモデルを修正する 姿勢およびユーザ位置に基づく画像としてモデルをレン
ダリングする 物体の表面の配向に対して画像濃度を補正する 重なりおよびオクルージョンに対して画像濃度をブレン
ディングする 補正され、かつブレンディングされた修正画像を物体上
に投影する
【0041】ここで、仮想的な画像で物理的な物体を照
明することを現実的に取り扱うことに関する詳細と、本
発明によるシステムの構成要素およびステップとが記載
されるであろう。
【0042】照明および外観
【0043】ある物体あるいは構造物の表面の外観は、
その表面における放射輝度によって決定される。それゆ
え、本発明は、入射する放射輝度を手続き上構成し直す
ことにより、中間色表面上に任意の外観を生成する。言
い換えると、3Dの物理的な物体101の中間色表面上
の外観は、所与の視認者位置に対して画像をレンダリン
グし、濃度補正140中にその画像をワーピングするこ
とにより達成される。物理的な物体の外観を変化させる
ために、本発明では、照明と反射率との間の関係の条件
を構成し直し、3Dの物理的な物体101の任意の表面
の点において等価放射輝度を再現する。
【0044】図3aは、物理的な世界において所与のB
RDFを有する点x301において、ある一定の方向に
あり、観測者302に到達することができる放射輝度を
示す。図3bに示されるように、この放射輝度は、BR
DFを変更し、適当に配置された光源、たとえばプロジ
ェクタ画素303で点302を照明することにより模倣
することができる。以下においては、視認者および仮想
的なシーンの位置および配向を与えるときに、放射輝度
を調整し、かつプロジェクタ画素の必要な濃度を決定す
るためのプロセスが記載される。
【0045】より体系的なレンダリングの場合、本発明
は、レンダリングの視野(図3a)、すなわち従来どお
りの仮想的なカメラの視野を、シェーディングの視野
(図3b)、すなわち照明計算のための3Dの物理的な
物体101に対する視認者の位置から分離する表記法を
導入する。
【0046】本発明は、種々の光学経路の幾何学的構造
を近似する基本的なレンダリングの式で開始する。その
ような式は、Kajiyaによる「The Rendering Equation」
(Computer Graphics 20(4), pp.143-151, 1986)に記
載される。そのシーンの物理的な実現の観測者302に
到達する、方向(θ,φ)にある視認可能な表面の点x
301における放射輝度は以下のとおりである。
【0047】 L(x,θ,φ)=g(x,θ,φ)(L(x,θ,φ)+h(x,θ,φ)) (1)
【0048】ただし以下の式が成り立つ。
【0049】 h(x,θ,φ)=∫F(x,θ,φ,θ)L(x,θ)cos(θ) dω (2)
【0050】また、g(x,θ,φ)は幾何学項、すな
わち視認性および距離であり、L(x,θ,φ)はそ
の点における放射輝度であり、光源の場合のみ0以外の
値になり、F(x,θ,φ,θ,φ)はその点の
BRDFである。h(x,θ,φ)内の積分は、立体角
dωから入射する放射輝度L(x,θ,φ)の
全ての反射を計上する。放射輝度は、単位時間当たりの
エネルギー、面積および立体角の次元を有する。
【0051】投影される各画素を点放射体(point emit
ter)として取り扱うとき、距離d(x)の同じ表面の点
にあるが、拡散反射率ku(x)を有する直接的なプロ
ジェクタ照明に起因する放射輝度は、以下の式によって
表される。
【0052】 L’(x,θ,φ)=g(x,θ,φ)k(x)I(x,θ)cos(θ)/d(x ) (3)
【0053】ただし、I(x,θ,φ)は、方向
(θ,φ)に投影される画素の放射強度であり、フ
ィルタリングおよび色調表示によって打ち切られた(di
scretized)画素値に関連付けられる。
【0054】本発明は、放射強度Iについて式(3)
を解くことにより、所与の視認者位置の場合に、L
(x,θ,φ)に等価な放射輝度L’(x,θ,φ)を
再現することができる。
【0055】 I(x,θ,φ)=L(x,θ,φ)d(x)/k(x)cos(θ) ただし、k(x)>0 (4)
【0056】こうして、拡散反射率k(x)が、L
(x,θ,φ)において表される全ての波長の場合に0
でない限り、本発明は、適当に補正された画素強度で表
面属性を有効に表現することができる。しかしながら、
実際には、表示することができる値の範囲は、プロジェ
クタの輝度、ダイナミックレンジおよび画素解像度によ
って制限される。3Dの物理的な物体101が、調整可
能なレーザビームによって照明される場合には、そのビ
ームの強度は、そのビームが物体上を走査する間に相応
に変更されることができることに留意されたい。
【0057】本発明によるレンダリング130は2つの
観測点、すなわちユーザの観測点とプロジェクタの観測
点とを含む。簡単なアプローチは、最初に、図3aに示
されるようなL(x,θ,φ)によって表されるユーザ
によって視認される画像をレンダリングし、その後、従
来どおりの画像ベースレンダリング技術を用いて、この
画像をワーピングし、I(x,θ,φ)によって
表される、濃度を補正された投影画像を生成するであろ
う。Chen等による「View Interpolation fromImage Syn
thesis」(SIGGRAPH' 93, pp.279-288, 1993)およびMc
Millan等による「Plenoptic Modeling」(SIGGRAPH' 9
5, pp.39-46, 1995)を参照されたい。
【0058】視認者の位置が変化する場合、静止した照
明条件下での観測点に依存するシェーディングも実施す
ることができる。Levoy等による「Light Field Renderi
ng」(SIGGRAPH' 96, pp.31-42, 1996)を参照された
い。
【0059】しかしながら、本発明はワーピングを回避
することができる。なぜなら、表示媒体、すなわち3D
の物理的な物体101が仮想的な3Dモデル122と幾
何学的に同一であるためである。
【0060】1経路レンダリングの場合、本発明は、ユ
ーザの位置133をシェーディング観測点として取り扱
う。その際、その画像レンダリングプロセスは、プロジ
ェクタの固有および外部パラメータ401に一致する透
視投影マトリクスを利用し、その後、上記のような放射
輝度調整を行うことにより、プロジェクタの観測点から
のシーンをレンダリングすることを含む。
【0061】これら2つの観測点の分離は、いくつかの
興味深い副作用を有する。静止プロジェクタの場合、視
認性および観測点非依存性のシェーディング判定は、ユ
ーザの位置が変化している場合であっても、一度だけし
か実行される必要がない。リアルタイムのインタラクテ
ィブな実施形態を実現するために、本発明は、一般的な
レンダリングの式(1)に近似する3Dレンダリングエ
ンジン130を用いる。
【0062】BRDFプロセスは、観測点に依存する鏡
面反射成分と、観測点に依存しない拡散および周囲成分
とに分割される。観測点に依存しないシェーディング判
定は、レンダリング観測点とシェーディング観測点とが
同じであるものと仮定することにより実行されることが
できる。本発明は、2経路シャドーバッファ技術を用い
ることにより、同様に観測点に依存しない仮想的な影を
判定する。
【0063】しかしながら、従来のレンダリングエンジ
ンは、2つの個別の観測点のための観測点依存性のシェ
ーディングのための鏡面反射ハイライトに対応しない。
それゆえ、本発明は、図2に示されるような手順200
のステップを実行する。
【0064】二次散乱
【0065】3Dの物理的な物体101は拡散特性を有
する中間色表面を有するので、二次散乱を避けることが
できない。これは、照明される物体101の外観の品質
に潜在的に影響を及ぼすようになる。仮想的な3Dモデ
ル122が完全に拡散性であるとき、二次散乱を有利に
用いることができる。
【0066】フォームファクタとしてよく知られてい
る、物理的な物体101の部分間の幾何学的関係は、仮
想的な3Dモデル122の同じ部分と必然的に同一であ
る。m個の光源およびn個のパッチを用いる、仮想的な
シーンのパッチiのためのラジオシティによる解決手法
について考えてみると、以下の式が成り立つ。
【0067】
【数1】
【0068】ここで、値kは拡散反射率であり、B
はパッチjの放射輝度であり、F ,jはパッチ間のフ
ォームファクタである。放射輝度を調整した後に、シス
テム100を用いて直接的な照明の作用を再現すると
き、m個の光源の作用を生成することができる。
【0069】
【数2】
【0070】しかしながら、二次散乱に起因して、中間
色表面が拡散反射率kを有する場合には、検出される
放射輝度もn個のパッチに起因する二次散乱を含み、そ
れゆえ以下の式が与えられる。
【0071】
【数3】
【0072】所望の放射輝度と検出される放射輝度との
間の差は以下のとおりである。
【0073】
【数4】
【0074】したがって、kおよびkが同じような
値である場合には、「自由」の場合の近似的なラジオシ
ティが得られる。簡単な直接照明レンダリングの場合で
あっても、その投影は、物理的な物体の隣接する部分に
おいて、色の信憑性のある「汚れ(spilling)」を生成
する。最初の反射が厳密に再現される場合であっても、
上記の式から、中間色表面からの二次的な寄与が不正確
であることは避けられない。仮想的な物体が非ランバー
ト反射率特性を有する場合には、その差はさらに大きく
なる。
【0075】物体の表面の全ての可視部分の照明
【0076】タージマハルの縮小模型101のような複
雑な物理的な物体の場合、全ての可視表面が少なくとも
1つのプロジェクタによって照明されるように、プロジ
ェクタのための良好な1組の姿勢(位置および配向)を
判定することが問題になる。この問題は部分的には、St
uerzlingerによる「Imaging all Visible Surfaces」
(Graphics Interface '99, pp.115-122, 1999)によっ
て取り扱われた。階層的な視認性アルゴリズムを用い
て、その論文では、全表面の全ての可視部分が少なくと
も1つのプロジェクタによって照明されるような1組の
カメラの観測点が判定された。最適な1組の姿勢を判定
することに関する問題はNP困難であり、計算幾何学の
分野において知られている、O'Rourkeによる「Art Gall
ery Theoremsand Algorithms」(Oxford University Pr
ess, New York, 1987)によって記載されるアートギャ
ラリー問題に関連付けられる。
【0077】詳細なシステム構成要素および方法ステッ
【0078】上記の照明問題に加えて、物理的な物体の
画像ベースの照明は依然としていくつかの他の問題に直
面する。第1の問題は幾何学的な位置合わせの問題であ
る。各2D画像151の投影と物理的な3D物体101
とを一致させる必要がある。これは手動で行われること
ができる。しかしながら、透視装置の投影は、11段階
までの自由度を有する。それゆえ、手動で位置合わせを
達成するためのあらゆる作業は極端に単調になる可能性
があり、誤りを起こしがちである。以下においては、こ
の位置合わせを実行するための自動化技術が記載され
る。第2の問題は、解決手法が知られてない、重なり、
影およびセルフオクルージョンがあるときに、重要な物
理的な物体を完全に照明する問題である。
【0079】デジタルプロジェクタあるいは調整可能な
レーザと、リアルタイム3Dグラフィックスレンダリン
グとを用いると、画像ベースの照明のための新たなアプ
ローチが可能になる。第1に、本発明は、物体101の
幾何学的構造、プロジェクタ160、視認者132およ
び所望の仮想的な照明133の3Dの幾何学的な相互関
係(understanding)を判定する。また本発明は、重要な
濃度補正ステップ140を実行するための手順も提供
し、ステップ150において、オクルージョン、影およ
び重なり合う画像も取り扱う。
【0080】位置合わせ
【0081】人目を引く視覚化を達成する際の重要な作
業の1つは、中間色物体の外観が改善されるように、仮
想的な3Dモデル122のグラフィカルなプリミティブ
と物理的な物体101とを関連付けることである。たと
えば、本発明は、オーサリングツール120を用いて物
体の表面上に表示されることになる任意のテクスチャ画
像を指定することができる。また本発明は、物体の外観
を改善する色分布を変更することもできる。また、実在
あるいは架空の種々の照明条件下で物体を視認すること
も望まれるであろう。
【0082】図4に示されるように、本発明はプロセッ
サ401を用いて、3Dの物理的な物体101と、以下
のようにスキャナ110によって得られるモデル111
とを位置合わせする。プロセッサ401は、図1のシス
テム100を構成する全てのハードウエア構成要素に接
続される。また、このプロセッサは、メモリと、エディ
タおよびレンダリングエンジンのソフトウエアおよびハ
ードウエアとを含むこともできる。
【0083】最初に、本発明は、プロジェクタ160〜
161、全体として照明装置をそれぞれ大まかに配置
し、結果として、投影される画像が物理的な物体101
を概ね照明するようになるであろう。次に、各プロジェ
クタの場合に、較正十字線403で3Dの物理的な物体
101が照明される。次に、入力装置402を用いて、
投影された十字線403と、物理的な物体101の選択
された各3D較正点112とが位置合わせされる。これ
は、対応する2D較正画素114、すなわち十字線40
2の厳密な中心における画素の座標を決定する。その
後、3D点と2D点との間の幾何学的関係を適合させ、
物体の座標系とプロジェクタの座標系との間の剛体変換
から、プロジェクタの固有および外部パラメータ401
を決定する。その変換は、スケールに応じて3×4の透
視投影マトリクスの形をとり、それはプロジェクタの固
有および外部パラメータ401を見つけるために分解さ
れる。Faugerasによる「Three Dimensional Computer V
ision: A Geometric Viewpoint」(MIT Press, Cambrid
ge, Massachusetts, 1993)を参照されたい。レンダリ
ングステップ130は、同じ固有および外部パラメータ
401を利用し、その結果、プロジェクタが3Dの物理
的な物体101に対して大まかに配置される場合であっ
ても、投影された画像151が物理的な物体101と厳
密に位置合わせされる。
【0084】濃度補正
【0085】式(4)を用いて、3Dの物理的な物体1
01の中間色表面の反射率、プロジェクタに対する局所
的な配向および距離を考慮に入れるために、レンダリン
グされた各画像131の濃度が、各プロジェクタに対し
て画素毎に補正される(140)。1/cos(θ
補正を決定するために用いられる表面垂直線は、多角形
グラフィックスモデルの頂点においてのみ利用可能であ
るので、本発明は、近似的に補間するために、レンダリ
ングエンジン130を利用する。本発明では、3Dモデ
ル111の白色拡散バージョン、あるいは物理的モデル
101の0以外の適当な拡散反射率k(x)と一致す
るモデルを、プロジェクタの場所に配置された仮想的な
白色光で照明し、距離の二乗に反比例する減衰に対して
濃度を補正する。
【0086】結果的な画素の濃度は、シェーディング補
間に起因して曲面にわたってなだらかに、因子d(x)
/{k(x)cos(θ)}に反比例して変化す
る。照明装置160が制限されたダイナミックレンジを
有する場合には、より大きな角度で、1/cos(θ)
が2から無限大の範囲にあるので、角度θ<60での
み表面の部分が照明される。これにより、表面の大きく
傾斜した部分において、投影された画素のサンプリング
速度が低下するのが回避される。またこれは、幾何学的
な位置合わせ400における任意の誤差に起因する、位
置ずれによるアーティファクトを最小にする。以下に記
載される、重なり合う領域の位置を特定するための計算
中に、表面の大きく傾斜した部分は、任意のプロジェク
タによって照明されない、すなわち「影」の中にあるも
のと見なされる。
【0087】クロスフェーディングによるオクルージョ
ンおよび重なりの補正
【0088】3Dの物理的な物体101を完全に照明す
る場合、本発明は2つ以上のプロジェクタを用いる。こ
れにより、多数のプロジェクタから継ぎ目なく融合する
画像に関する難しい問題が生じる。単純な解決手段は単
に、1つの所与のプロジェクタのみによって、任意の所
与の表面パッチを照明するであろう。しかしながら、重
なり合うプロジェクタを取り扱う際に、主に2つの問題
がある。第1の問題は、その使用中に、製造プロセスお
よび温度による色ずれに起因して、隣接するプロジェク
タ間の色の等価性が欠如することである。Majumder等に
よる「Color Calibration of Projectors for Large Ti
led Displays」(Proceedings of IEEEVisualization 2
000, IEEE Science Press, 2000)を参照されたい。
【0089】第2の問題は、推定される幾何学的較正パ
ラメータあるいは機械的な変動において、小さな誤差に
影響を受けるのを最小限に抑えることが望ましいことで
ある。それゆえ、本発明は、ブレンディングとしても知
られている、フェザリングあるいはクロスフェーディン
グを用いて、画像が重なり合う領域内の画素の濃度を調
整する。
【0090】クロスフェーディングはこれまで、1つの
場所からのいくつかの見え方を組み合わせることによ
り、継ぎ目のないパノラマ写真モザイクを生成するため
に用いられてきた。Szeliski等による「Creating Full
View Panoramic Mosaics and Environment Maps」(SIG
GRAPH'97, Conference Proceedings, pp. 251-258, 199
7)を参照されたい。類似の技術がマルチプロジェクタ
広視野ディスプレイ、および平面投影の2次元アレイに
おいて知られている。マルチプロジェクタ広視野ディス
プレイについては、Raskar等による「Multi-Projector
Displays Using Camera-Based Registration」(Procee
dings of IEEE Visualization'99, 1999)を参照された
い。従来技術のシステムでは、重なり合う領域は典型的
には、平坦なディスプレイ表面上、および各プロジェク
タのフレームバッファ内の明瞭な連続した領域である。
【0091】図5は、従来技術のクロスフェーディング
のプロファイルを示す。この場合に、プロジェクタ50
1〜502が、1つの連続した平面500を、重なり合
うソース画像で照明し、1つの目的とする画像を生成す
る。既知の補正方法は典型的には、最も近い境界50
5、あるいは隣接する画像の寄与しない画素506への
ユークリッド距離に比例して、対応する画素の濃度50
3〜504を単に重み付けする。[0,1]の範囲にあ
る重みが、画素濃度と掛け合わされ、最終的に目的とす
る画像を決定する。
【0092】ソース画像の境界付近の画素の重みは、こ
れらの画素が目的とする画像にほとんど寄与せず、隣接
する画像に対してなだらかに移行するように、概ね0で
ある。理想的な条件下では、色が等価であるものと仮定
すると、目的とする画像における全ての画像の全て画素
の重みの寄与は最終的に1になる。1つのプロジェクタ
の色応答が他のプロジェクタのうちの任意のプロジェク
タと異なる場合であっても、目的とする画像は通常、重
なり合う領域507においてなだらかに移行する。この
重みの割当て方式は、ソース画像が、重なり合う領域5
07と、その周囲において連続した平坦な表面を照明す
るときにのみ良好に機能する。
【0093】本発明の場合には、図6に示されるよう
に、プロジェクタ601〜602によって照明される物
理的な物体101の表面600が種々の形状の部分から
構成されることができるか、あるいはそのシーンが多数
の異なる物体を含むことができ、個別の物体の集合体が
結果として、影および断片化された重なり合う領域にな
る。複雑な物体の場合にさらに重要なのは、重なり合う
領域が、結果としてオクルージョンをもたらす深さの不
連続部を有する表面を含む可能性が高いことである。こ
こで、色応答が異なる場合、結果的な濃度分布は、たと
えば点603〜604において目障りな鋭い変化を有す
る。
【0094】この問題は、画像ベースレンダリング(I
BR)において直面する問題に類似であり、その場合に
は、ワーピングされ、深さを増した画像がディスオクル
ージョンアーティファクトを生成する。多数のソース画
像が目的とする画像にワーピングするとき、特定の画像
に割り当てられる色は、画素値が互いに上書きする1つ
の目的とする画像から、あるいはソース画像からの対応
する画素の重み付けされた組み合わせとして、導出され
る必要がある。
【0095】フェザリングはその結果を実際にぼかし、
ソース画像内の対応する画素の軽微な色差を解消し、か
つ小さい位置ずれ誤差に起因するゴースト生成作用を隠
すために通常必要とされる。
【0096】この問題に対するいくつかの解決手段のう
ちの1つが、Debevec等による「Efficient View-Depend
ent Image-Based Rendering with Projective Texture-
Mapping」(Proc. of 9th Eurographics Workshop on R
endering, 1998)によって記載される。その方法は、ソ
ース画像と目的とする画像との間の角度に比例する重み
によって濃度を増減する。しかしながら、これは、その
シーンの表面にわたって、重みがなだらかに移行するこ
とを保証しない。結果として、隣接する多角形が非常に
異なる画像の組み合わせでレンダリングされ、目的とす
る画像において継ぎ目が現れるようになる。スロット6
10は、その解決手段および対応する問題に基づくサン
プル重み付け方式を示す。
【0097】本発明による方法は以下の3つの制約に依
存する。第1に、全ての対応するソース画素の濃度重み
の和は、その濃度が正規化されるように、その目的とす
る画像において1になるであろう。第2に、物理的な表
面に沿った特定のプロジェクタのソース画素の重みは、
プロジェクタ間の色差が目的とする画像において視認可
能な不連続部を持たないように、重なり合う領域内、あ
るいはその付近でなだらかに変化する。第3に、そのフ
レームバッファ内の特定のプロジェクタの画素の濃度の
重みの分布は、較正の小さな誤差、あるいは機械的変動
が鋭いエッジを生じないようになだらかである。
【0098】実際には、時間にわたって1組のプロジェ
クタ間の色品質を確保することより、正確な幾何学的較
正を達成し、かつ保持するほうが容易である。これによ
り、第3の制約条件よりも第2の制約条件のほうが重要
になる。しかしながら、たとえば、オクルージョンを生
じた部分が、605のディスプレイ表面の近くに移動す
る際に、必ずしも第2および第3の制約を満たすことが
できるとは限らない。それゆえ、これらの制約は、深さ
の不連続部および影の境界において重みの制約を侵害す
ることなく、フェザリング問題を解決することを示唆す
る。
【0099】従来技術の場合のように、最も近い境界画
素への距離を用いて画素の重みを見いだす代わりに、図
7に示されるような本発明による方法700は以下のよ
うに進行する。最初に、1つのプロジェクタによって照
明される領域に対応する第1の組の画素の位置が特定さ
れる(710)。この第1の画素にそれぞれ、1の濃度
重みが割り当てられる(720)。その後、残りの(第
2の組の)各画素の場合に、1の重みを有する最も近い
画素の位置が特定される(730)。距離を測定するた
めに、ユークリッド(直線)距離が計算される。ステッ
プ730では、深さの不連続部と交差する経路は無視さ
れる。ステップ740では、1の重みを有する最も近い
適当な画素への距離に反比例する第2の各画素に、ある
重みが割り当てられる。
【0100】色応答が異なる場合であっても、本発明に
よる方法は、図6のプロット620によって示されるよ
うに、影および断片化された重なりの存在時に、平面上
でなだらかな移行を生成する。また、本発明による方法
は、3つ以上のプロジェクタの場合に、および画像ベー
スレンダリングシステムから生じる重なりおよびオクル
ージョンの領域において画素をブレンディングする場合
に用いることもできる。
【0101】実用的な実施形態では、本発明は、2つの
バッファ、1つの深度バッファおよび1つのオーバーラ
ップバッファを用いる。深度バッファは、仮想的な3D
モデル122をレンダリングする(130)間に、重み
付けされた画素濃度で更新される。オーバーラップバッ
ファは、目的とする画像内の各画素のための整数値を含
む。その整数値は、その目的とする画素にソース画素を
導くプロジェクタの数を示す。重なり合う領域内の画
素、すなわち、オーバーラップバッファにおいて1より
大きな対応する整数値を有する画素のための重みは、従
来どおりのシャドーバッファ技術を用いる。方法700
のための擬似コード800が図8に示される。
【0102】重なり合う領域内のいくつかの画素の場合
に、1のオーバーラップ数が見いだされることができる
最も近い画素の位置を特定できない場合がある。この場
合には、最短距離が、ある大きな値であるものと仮定さ
れる。これは、離隔される領域内の重みを大きく低減
し、かつ不要な移行領域も大きく削減する。
【0103】あるシーン内の静止した物体の仮想的な動
きのシミュレーション
【0104】図9は、変化のないシーン内の静止した物
体の仮想的な動きをシミュレートするための方法900
のステップを示す。最初に、物体およびシーン901、
たとえば、白色の背景上に静止して配置される中間色の
おもちゃの自動車の3Dモデル911が生成される。そ
の後、プロジェクタ960が、上記のように、物体およ
びモデルと位置合わせされる(920)。ユーザおよび
照明の位置も与えることができる。
【0105】次に、移動する種々の部分を指示し、種々
の自由度で個別に動画化するために、3Dモデル911
がセグメント化される(930)。たとえば、セグメン
ト化された3Dモデル931において、車輪が車体から
セグメント化され、車全体がセグメント化され、背景部
分が個別の部分として残される。セグメントの数は特定
の応用形態および物体に完全に依存することは理解され
たい。
【0106】セグメント化された3Dモデル931は、
仮想的なセグメント化モデル941を形成するために編
集される(940)。種々のセグメントの仮想的な動き
は個別に、回転、平行移動および他の作用を考慮し、適
当な錯覚を生じる動きを与えることができる。
【0107】たとえば、動きのぼかしおよび移動する影
が追加されることができ、必要に応じて、反射および他
の全体的な視覚効果を追加することができる。
【0108】必要なら、種々の部分の仮想的な動きの間
の関係を強制的に一致させることができる。たとえば、
車輪の明らかな時計回りの回転が、背景上の道路表面の
後方への仮想的な動きと一致し、その自動車が前方に加
速しているという印象を与える。その後、仮想的な3D
モデルはレンダリングされ、補正されて、物体およびシ
ーン901上にリアルタイムに投影される。
【0109】応用形態
【0110】最も簡単な形態では、システム100を用
いて、日常の物体および構造物の外観を動的に変更でき
るか、あるいはそれらの上に一時的な模様を付加するこ
とができる。たとえば、技術者が、物理的な表面に影響
を及ぼすことなく、穿孔位置のような対象の領域に印を
付けることができる。都市計画者は、種々の照明条件下
で、都市モデルを視覚化することができる。ステージお
よび屋外のショーの場合、そのシステムは、背景、なら
びにシーン内の物体および支柱を変更することができ
る。彫刻家はクレイモデルを照明し、設計が終了する前
に、種々のテクスチャおよび仕上げ材料をシミュレート
することができる。画像ベース照明は、縮小模型セット
の細部を向上させるために、映画産業においても用いら
れることができる。またそのシステムは、インテリアお
よびイクステリア建築モデルで用いることもできる。厳
密に詳細な物理的な複製物を建造する代わりに、設計者
は、箱、球体、柱体のような簡単なスタイロフォーム部
品を用いることができる。
【0111】本発明は、ユーザの世界に直に豊富で細か
い画像を生成し、合成画像とのやりとりを行う新たな態
様を可能にするために、映写機および物理的な物体を含
む3Dコンピュータグラフィックスの視覚化のための新
規の形態を記載してきた。本発明は、重要な物体の画像
ベース照明を実用化する技術を提供している。本発明に
よる視覚化システム方法は、教育、建築設計、芸術およ
びエンターテイメントを含む種々の応用形態において注
目するに値する。
【図面の簡単な説明】
【図1】 本発明によるシステムおよび方法の流れ図で
ある。
【図2】 グラフィックス画像をレンダリング中に多数
の座標系を決定するための手順のブロック図である。
【図3a】 所与の方向内のある点における放射輝度の
グラフである。
【図3b】 所与の方向内のある点における放射輝度の
グラフである。
【図4】 本発明によって用いられる位置合わせ方法の
流れ図である。
【図5】 従来技術の濃度補正のグラフである。
【図6】 本発明によるクロスフェーディングのグラフ
である。
【図7】 画像濃度を補正するための方法の流れ図であ
る。
【図8】 画像濃度を補正するための手順のブロック図
である。
【図9】 あるシーン内の静止物体の動きをシミュレー
トするための方法の流れ図である。
フロントページの続き (72)発明者 ラメッシュ・ラスカー アメリカ合衆国、マサチューセッツ州、サ マーヴィル、クラレンドン・アベニュー 61、ナンバー 2 Fターム(参考) 5B050 AA03 BA08 CA07 DA10 EA13 EA19 EA24 EA27 EA28 FA01 FA05 5B080 AA13 FA03 GA08 GA15

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】 変化のないシーン内の静止した3Dの物
    理的な物体の動きをシミュレートするための方法であっ
    て、 前記3Dの物理的な物体および前記変化のないシーンの
    3Dグラフィックスモデルを取得するステップと、 プロジェクタを、前記3Dの物理的な物体と、前記シー
    ンと、前記3Dグラフィックスモデルとに位置合わせす
    るステップと、 前記3Dグラフィックスモデルを複数の部分にセグメン
    ト化するステップと、 各部分の所望の外観および仮想的な動きを反映させるた
    めに、グラフィックスオーサリングツールを用いて前記
    各部分を編集するステップと、 前記編集された部分を動画映像としてリアルタイムにレ
    ンダリングするステップと、 前記3Dの物理的な物体および前記シーンに前記所望の
    外観および仮想的な動きを与えるために、前記3Dの物
    理的な物体および前記シーンを前記動画映像で照明する
    ステップとを含む変化のないシーン内の静止した3Dの
    物理的な物体の動きをシミュレートするための方法。
  2. 【請求項2】 前記所望の外観を反映させるために、前
    記3Dグラフィックスモデルの観測点に依存しないテク
    スチャと、観測点に依存する材料特性とを編集するステ
    ップをさらに含む請求項1に記載の変化のないシーン内
    の静止した3Dの物理的な物体の動きをシミュレートす
    るための方法。
  3. 【請求項3】 種々の仮想的な動きを前記複数の部分に
    与えるために、前記各部分に対して、独立した回転およ
    び平行移動パラメータを編集するステップをさらに含む
    請求項1に記載の変化のないシーン内の静止した3Dの
    物理的な物体の動きをシミュレートするための方法。
  4. 【請求項4】 前記部分をレンダリングするステップ
    は、ユーザ位置と、仮想的な光の位置とを考慮する請求
    項1に記載の変化のないシーン内の静止した3Dの物理
    的な物体の動きをシミュレートするための方法。
  5. 【請求項5】 動きのぼかしおよび移動する影を付加す
    るステップをさらに含む請求項4に記載の変化のないシ
    ーン内の静止した3Dの物理的な物体の動きをシミュレ
    ートするための方法。
  6. 【請求項6】 反射および全体的な視覚効果を付加する
    ステップをさらに含む請求項4に記載の変化のないシー
    ン内の静止した3Dの物理的な物体の動きをシミュレー
    トするための方法。
  7. 【請求項7】 種々の部分の動きの間の関係を強制的に
    一致させるステップをさらに含む請求項1に記載の変化
    のないシーン内の静止した3Dの物理的な物体の動きを
    シミュレートするための方法。
JP2002230011A 2001-08-15 2002-08-07 変化のないシーン内の静止した3dの物理的な物体の動きをシミュレートするための方法 Pending JP2003099799A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/930,426 US7019748B2 (en) 2001-08-15 2001-08-15 Simulating motion of static objects in scenes
US09/930426 2001-08-15

Publications (1)

Publication Number Publication Date
JP2003099799A true JP2003099799A (ja) 2003-04-04

Family

ID=25459319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002230011A Pending JP2003099799A (ja) 2001-08-15 2002-08-07 変化のないシーン内の静止した3dの物理的な物体の動きをシミュレートするための方法

Country Status (2)

Country Link
US (1) US7019748B2 (ja)
JP (1) JP2003099799A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014516188A (ja) * 2011-06-06 2014-07-07 マイクロソフト コーポレーション 現実世界のオブジェクトの仮想表現への属性の追加
JPWO2015163317A1 (ja) * 2014-04-22 2017-04-20 日本電信電話株式会社 映像呈示装置、動的錯覚呈示装置、映像生成装置、それらの方法、データ構造、プログラム
JP2018050216A (ja) * 2016-09-23 2018-03-29 日本電信電話株式会社 映像生成装置、映像生成方法、およびプログラム

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2378341B (en) * 2001-07-31 2005-08-24 Hewlett Packard Co Improvements in and relating to dislaying digital images
US20060028476A1 (en) * 2004-08-03 2006-02-09 Irwin Sobel Method and system for providing extensive coverage of an object using virtual cameras
JP2006092156A (ja) * 2004-09-22 2006-04-06 Namco Ltd プログラム、情報記憶媒体及び画像生成装置
US7605817B2 (en) * 2005-11-09 2009-10-20 3M Innovative Properties Company Determining camera motion
DE102006002602A1 (de) * 2006-01-13 2007-07-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kalibrierungsverfahren und Kalibrierungssystem
US7898542B1 (en) * 2006-03-01 2011-03-01 Adobe Systems Incorporated Creating animation effects
US7905610B1 (en) * 2006-08-29 2011-03-15 Nvidia Corporation Graphics processor system and associated method for projecting an image onto a three-dimensional object
US20090046099A1 (en) * 2006-11-13 2009-02-19 Bunkspeed Real-time display system
US8339418B1 (en) * 2007-06-25 2012-12-25 Pacific Arts Corporation Embedding a real time video into a virtual environment
US8508534B1 (en) * 2008-05-30 2013-08-13 Adobe Systems Incorporated Animating objects using relative motion
US20100045701A1 (en) * 2008-08-22 2010-02-25 Cybernet Systems Corporation Automatic mapping of augmented reality fiducials
KR20110014795A (ko) * 2009-08-06 2011-02-14 삼성전자주식회사 영상 처리 장치 및 방법
DE102010007125A1 (de) * 2010-02-05 2011-08-11 Fritz Egger Gmbh & Co. Og Verfahren zur Bereitstellung und Verwendung digitaler Dekordaten
JP5035372B2 (ja) * 2010-03-17 2012-09-26 カシオ計算機株式会社 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
JP5024410B2 (ja) 2010-03-29 2012-09-12 カシオ計算機株式会社 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
JP5652097B2 (ja) * 2010-10-01 2015-01-14 ソニー株式会社 画像処理装置、プログラム及び画像処理方法
JPWO2012137493A1 (ja) * 2011-04-07 2014-07-28 パナソニック株式会社 画像処理装置、画像処理方法、画像処理プログラム及び集積回路
US9401044B1 (en) * 2011-09-26 2016-07-26 The Research Foundation For The State University Of New York Method for conformal visualization
WO2015016798A2 (en) * 2013-07-31 2015-02-05 Imcom Yazilim Elektronik Sanayi Ltd. Sti. A system for an augmented reality application
US9488901B1 (en) * 2013-09-25 2016-11-08 Bott & Dolly, LLC Crowd-deployable objects to control a presentation
CN104157007B (zh) * 2014-03-03 2018-02-27 腾讯科技(北京)有限公司 视频处理的方法及装置
CN103927777B (zh) * 2014-04-03 2017-02-15 北京星航机电装备有限公司 基于Mealy有限状态自动机的三维动画流程的组织与控制方法
CN104143212A (zh) * 2014-07-02 2014-11-12 惠州Tcl移动通信有限公司 基于穿戴设备的增强现实方法及系统
FR3025917A1 (fr) * 2014-09-16 2016-03-18 Ingenuity I O Dispositif et procede d'orchestration de surfaces d'affichage, de dispositifs de projection et de dispositifs d'interaction spatialises 2d et 3d pour la creation d'environnements interactifs
KR102365730B1 (ko) * 2015-06-15 2022-02-22 한국전자통신연구원 인터랙티브 콘텐츠 제어 장치 및 방법
US9773438B1 (en) 2016-06-29 2017-09-26 Meta Company System and method for providing views of virtual content in an augmented reality environment
US10540824B1 (en) 2018-07-09 2020-01-21 Microsoft Technology Licensing, Llc 3-D transitions
US11195324B1 (en) * 2018-08-14 2021-12-07 Certainteed Llc Systems and methods for visualization of building structures
WO2020242047A1 (en) * 2019-05-30 2020-12-03 Samsung Electronics Co., Ltd. Method and apparatus for acquiring virtual object data in augmented reality
US20230196663A1 (en) * 2021-12-20 2023-06-22 Tencent America LLC Checking overlapping-free property for patches in mesh compression
CN116956648B (zh) * 2023-09-20 2024-01-12 四川天地宏华导航设备有限公司 一种钻井过程的ai模拟仿真系统及方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3707115A (en) * 1971-02-18 1972-12-26 Richard B Rush Method for producing a three-dimensional diorama
US5831627A (en) * 1996-06-27 1998-11-03 R/Greenberg Associates System and method for providing improved graphics generation performance using memory lookup
DE69702067T2 (de) * 1996-09-03 2001-01-11 Christian Stegmann Verfahren zur anzeige eines 2-d designs auf einem 3-d objekt
CA2227361A1 (en) * 1998-01-19 1999-07-19 Taarna Studios Inc. Method and apparatus for providing real-time animation utilizing a database of expressions
US6310627B1 (en) * 1998-01-20 2001-10-30 Toyo Boseki Kabushiki Kaisha Method and system for generating a stereoscopic image of a garment
US6281904B1 (en) * 1998-06-09 2001-08-28 Adobe Systems Incorporated Multi-source texture reconstruction and fusion
US7068274B2 (en) * 2001-08-15 2006-06-27 Mitsubishi Electric Research Laboratories, Inc. System and method for animating real objects with projected images

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014516188A (ja) * 2011-06-06 2014-07-07 マイクロソフト コーポレーション 現実世界のオブジェクトの仮想表現への属性の追加
US10796494B2 (en) 2011-06-06 2020-10-06 Microsoft Technology Licensing, Llc Adding attributes to virtual representations of real-world objects
JPWO2015163317A1 (ja) * 2014-04-22 2017-04-20 日本電信電話株式会社 映像呈示装置、動的錯覚呈示装置、映像生成装置、それらの方法、データ構造、プログラム
US10571794B2 (en) 2014-04-22 2020-02-25 Nippon Telegraph And Telephone Corporation Video presentation device, dynamic illusion presentation device, video generation device, method thereof, data structure, and program
US11036123B2 (en) 2014-04-22 2021-06-15 Nippon Telegraph And Telephone Corporation Video presentation device, method thereof, and recording medium
JP2022002141A (ja) * 2014-04-22 2022-01-06 日本電信電話株式会社 映像表示装置、映像投影装置、それらの方法、プログラム
JP7283513B2 (ja) 2014-04-22 2023-05-30 日本電信電話株式会社 映像表示装置、映像投影装置、それらの方法、プログラム
JP2018050216A (ja) * 2016-09-23 2018-03-29 日本電信電話株式会社 映像生成装置、映像生成方法、およびプログラム

Also Published As

Publication number Publication date
US7019748B2 (en) 2006-03-28
US20030043152A1 (en) 2003-03-06

Similar Documents

Publication Publication Date Title
US6677956B2 (en) Method for cross-fading intensities of multiple images of a scene for seamless reconstruction
US6930681B2 (en) System and method for registering multiple images with three-dimensional objects
US7068274B2 (en) System and method for animating real objects with projected images
US7019748B2 (en) Simulating motion of static objects in scenes
US20030038822A1 (en) Method for determining image intensities of projected images to change the appearance of three-dimensional objects
Jacobs et al. Classification of illumination methods for mixed reality
JP4945642B2 (ja) 3d画像の色補正の方法及びそのシステム
US5805782A (en) Method and apparatus for projective texture mapping rendered from arbitrarily positioned and oriented light source
Coleman et al. Ryan: rendering your animation nonlinearly projected
US7583264B2 (en) Apparatus and program for image generation
Felinto et al. Production framework for full panoramic scenes with photorealistic augmented reality
CN117437345B (zh) 基于三维引擎实现渲染纹理镜面反射效果的方法及系统
JPH08153213A (ja) 画像合成表示方法
Raskar Projector-based three dimensional graphics
Sheng et al. Virtual heliodon: Spatially augmented reality for architectural daylighting design
Stojanov et al. Application of 3ds Max for 3D Modelling and Rendering
Lee Wand: 360∘ video projection mapping using a 360∘ camera
JP3261832B2 (ja) 画像生成装置
Güssefeld et al. Are reflectance field renderings appropriate for optical flow evaluation?
Raskar et al. Shader lamps
Martos et al. Realistic virtual reproductions. Image-based modelling of geometry and appearance
Debevec Image-based techniques for digitizing environments and artifacts
Debevec Pursuing reality with image-based modeling, rendering, and lighting
Welch et al. Shader Lamps: Animating Real Objects With Image-Based Illumination Ramesh Raskar Greg Welch Kok-Lim Low" Deepak Bandyopadhyay* MERL, Mitsubishi Electric Research Labs' University of North Carolina at Chapel Hill
Raskar Projectors: advanced graphics and vision techniques

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080415

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080715

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080718

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080812

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080815

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080916

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080919

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081010

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081118