JP2006506745A - 映画におけるデジタルイメージング用のリアリティベースのライト環境 - Google Patents

映画におけるデジタルイメージング用のリアリティベースのライト環境 Download PDF

Info

Publication number
JP2006506745A
JP2006506745A JP2004553886A JP2004553886A JP2006506745A JP 2006506745 A JP2006506745 A JP 2006506745A JP 2004553886 A JP2004553886 A JP 2004553886A JP 2004553886 A JP2004553886 A JP 2004553886A JP 2006506745 A JP2006506745 A JP 2006506745A
Authority
JP
Japan
Prior art keywords
modeling
image
modeled
light
defining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004553886A
Other languages
English (en)
Other versions
JP4220470B2 (ja
Inventor
ダイカー,ハールム−ピーター・ジョン・ゲリット
Original Assignee
ワーナー・ブロス・エンターテイメント・インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ワーナー・ブロス・エンターテイメント・インコーポレーテッド filed Critical ワーナー・ブロス・エンターテイメント・インコーポレーテッド
Publication of JP2006506745A publication Critical patent/JP2006506745A/ja
Application granted granted Critical
Publication of JP4220470B2 publication Critical patent/JP4220470B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description

Abstract

デジタルオブジェクトのレンダリングで使用するイメージベースド・ライティングは、現実の映画セットから収集した画像データから導き出される。画像データは、露光レベルの異なる相関する画像の組を含み(302)、各々は選択された位置に対応する。画像データを処理して、選択されたセットの各々の位置について、拡張ダイナミックレンジ・パノラマ画像を定義する(304)。画像データは、スケール化された基準オブジェクトに基づいて色及び輝度が補正される。このような複数のパノラマ画像を処理することにより、少なくともセットのキーライトをモデル化する(306)。他のライティングは、位置固有のフィルライトの組を数学的に定義するために、パノラマ画像から補間することによって定義できる。もしくは、別のセットライティングは、パノラマ画像データをセットジオメトリから導き出した動的に再分割可能なライトプリミティブに投影することによってモデル化することができる。従って、定義済みライトを使用して任意の所望のオブジェクトをレンダリングして、セットの補正されたリアル画像の所望の位置に挿入することができる。

Description

(関連出願への相互参照)
本願は、米国特許法119条(e)項に基づいて2002年11月15日出願の米国仮出願番号60/426,560の優先権を主張し、その出願全体は引用により本明細書に組み込まれている。
本発明は、デジタルイメージング分野における方法、より詳細には、映画制作のためリアルシーンのデジタルオブジェクトをレンダリングするライティング環境を定義する方法に関する。
映画の制作にあっては、デジタル方式でレンダリングした画像を、従来のフィルム式カメラや最近のデジタルカメラで取り込まれたようなリアルシーンの画像と組み合わせることが望ましい場合が多い。例えば、フィルムに撮影したシーンの中に、従来の特殊効果ツールを使って実現するのでは費用がかかり不可能でさえある特殊効果を、デジタル方式で作成することが望ましい。また特殊効果は、現実と錯覚させるほど完全にリアルに見えることが望ましい。本技術分野では、いわゆる「イメージベースド・ライティング」と呼ばれる方式も含めて、写真画像に挿入するためにデジタルオブジェクトをレンダリングする方法が知られている。簡単に言えば、イメージベースド・ライティングは、写真撮影したシーンの中の特定の点のライティングについて現実世界の情報を収集し、次にその情報を使ってデジタルオブジェクトをレンダリングすることに関連する。それによってレンダリングしたオブジェクトは、シーン中に置かれたリアルオブジェクトであるかのように照明され、不自然に見えることなくシーンの写真画像に挿入することができる。
イメージベースド・ライティングの基本原理はよく理解されているが、デジタル方式でレンダリングしたオブジェクトと写真データとを組み合わせる従来技術の方法は、特に映画のデジタルイメージングで使う場合にいろいろな制約を受ける。これらの制約は、長編映画から、テレビシリーズ、コマーシャル、特別番組を含むがそれらに限定されないあらゆる種類のテレビ用制作映画まで、いろいろな映画環境でデジタル特殊効果が使用されるようになるにつれて、ますます明らかになってきている。
第1の制約は、多くの制作スタジオのマルチカメラ環境で起こる。多くの場合、映画シーンを取るのに1台以上のカメラが必要である。フィルム(アナログ)カメラ又はデジタルカメラを問わず別のカメラは、同じシーンをわずかに異なる色及び輝度で取り込む場合が多い。フィルムカメラでは、使用するフィルム特性が相違するために、この種の違いがしばしば発生する。同じ種類のフィルムであっても、製造ロットが異なると結果が違う場合がある。また、他のカメラパラメータも、カメラで記録する色及び輝度の違いを引き起こす場合がある。また、デジタルカメラは、同じ画像に対して異なる応答性を示す場合がある。このような相違のため、1シーンから収集した画像は異なる色及び輝度で記録される場合がある。さらに、イメージベースド・ライティング用に拡張ダイナミックレンジ(「XDR」)画像を収集するために使う各々のカメラは、映画カメラの特性とは異なる固有の特性を持つことがある。ゆえに、1台以上のカメラから取り込んだ画像データをデジタル表現で使用すると、色が一致しないことが多いので、手動でのタッチアップを必要とするか、又は画像の品質が落ちる結果になる。従って、複数のソースから取り込んだ画像データの色を自動的に補正する方法を提供することが望ましい。
第2の制約は、シーンをあちこち移動するデジタルオブジェクトをレンダリングする際に起こる。シーン全域でライティングが相当変化することも珍しくない。例えば、赤レンガ壁の脇に立つ俳優は、同じシーンの黒いアスファルト道路の真中に立つ場合とは違ったように照明が当てられる。俳優をデジタル方式でレンダリングする場合、赤壁の隣で収集したライティングデータを道路上の俳優のレンダリングに使用すると俳優はリアルに見えない。また、デジタル方式でレンダリングした俳優が赤壁から黒い道路に移動すると、俳優の外観は次第に変化する必要があるが、その変化は目立つほどであってはならない。同時に、ライティングの目立つほどの変化を避けるため、狭い間隔でセットのライティングデータを収集することは、非常に時間がかかる。結果的に生じることになる大量のライティングデータの管理及びレンダリングは煩わしい場合がある。従って、オブジェクトの動きに合わせてリアルに次第に変化させる方法でデジタルオブジェクトをレンダリングすると同時に、セット全体のライティングデータを収集する必要性を最小する、イメージベースド・ライティングスキームを実行することも望ましい。
本発明は、従来技術の制約を解消する、映画におけるデジタルイメージング用のリアリティベース・ライティング環境を実施する方法を提供する。本明細書で用いる場合、「映画」は、フィルム作品に限定されず、目的又は長さに関係なく、任意の媒体における全ての目に見える動きの描写を含む。
本発明の態様によれば、別のカメラを使って取り込まれたオブジェクトのカラリングの一貫性を保証するため、デジタル化画像の「カラースペース」が標準化される。カラースペースとして、イメージベースド・ライティングで使用する高ダイナミックレンジ画像、並びに作品で使用するその他の画像を含むことができる。最初のステップでは、既知の色値をもつオブジェクト画像を取り込んで各カメラの特性を確定する。画像は既知のライティング環境で取り込まれる(ピュアホワイト・デイライト又はタングステン環境が望ましい)。ホワイトとブラックの間を細分した目盛りであるグレースケールの(赤、緑、青の値が等しいグレー)、「グレーランプ」を標準オブジェクトとして使うと好都合である。所定のライティング環境に関して、既知と想定されるグレーランプの外観を、カメラが取り込んだグレーランプの画像と比較する。全ての差異を色値(例えば赤、緑、青)及び輝度として数値化して、各カメラの色補正アルゴリズムを作成する。次に、カメラからの画像をプロジェクトの画像データベースに入力する前に、作成したアルゴリズムを使って色及び輝度を補正する。もしくは、画像を生データとして保存して、必要に応じて作品で使用する前に補正する。フィルムカメラについては、各々のフィルムバッチの特性を決定して同じ方法で補正することができる。従って、イメージングプロジェクトは、画像がフィルムに由来するかデジタルカメラに由来するかに関わらず、一貫性と正確な色値及び輝度値をもつ画像を蓄えることできる。
複数のカメラからの画像の標準カラースペースを用意することは、いくつかの点で好都合である。デジタル方式でモデル化したオブジェクトは、セットの間接照明でレンダリングでき、レンダリングしたオブジェクトのカラリングは、任意のカメラで記録してもセットのカラリングと一致するであろう。さらに、所望であれば任意のカメラからの背景画像を一緒に使用でき、別のカメラからの画像を、画像に色の不一致をもたらすリスクなしに組み合わせることができる。
セットの周辺光の中でデジタル方式でモデル化したオブジェクトのレンダリングを可能にするために、環境のダイナミックレンジを含むセットのライティング環境は、本技術分野で公知の高ダイナミックレンジ・イメージング技術(イメージベースド・ライティング)を使って取り込むことができる。本発明の実施形態では、各々のカメラは、画像データを提供するため1つ又はそれ以上の対象シーン内に配置した鏡面反射ボール(「クロムボール」)の画像を取り込むために使用される。クロムボールの画像は、対象の各々の場所を取り囲むライティング環境の約360度のパノラマビューを提供する。クロムボールを異なる露光レベルを使って複数の露光で取り込んで、ライティング環境のダイナミックレンジ全体を取り込む画像シーケンスを作成する。次に、画像シーケンスを自動的に処理して、3Dモデリング・レンダリング・ソフトウェア・アプリケーションでライトを生成する。つまり、特定のライティング条件下での特定のセットのライティング環境がデジタル方式で再現され、これによってデジタルオブジェクトはレンダリングされ、記録されたシーンにシームレスに統合される。
一般に、ライティング環境は同じセット内でも場所が異なると変化する。従って、オブジェクトがセットの中を移動すると、現在の場所のライティング環境を反映してその外観も変化する必要がある。また、ライティングは、経時的に著しく変化することがある。これは時間が加速された自然光の中で生ずるが、正常時間であっても明るく照明された移動オブジェクトの近傍にいる場合、又は輝度が変化するライトの近傍にいる場合に生ずる。例えば、アミューズメントパークの夜間ライティングは、カーニバル設備の動きに合わせて振動するように変化する。従来技術のイメージング方式は、移動オブジェクト又は変化するライティングに影響を与える変動等の、局所的なライティングの変動を適切に考慮していない。従って、本発明の態様によれば、イメージベースド・ライティング方式は、デジタル方式で生成した移動オブジェクト及び/又は経時的に変化するライティング中のオブジェクトのリアルなレンダリングに適する。
本発明の実施形態では、1つ又はそれ以上の対応する高ダイナミックレンジのパノラマを作成するために、ライティング環境は、セットの1つ又はそれ以上の場所で取り込まれ、又は規則的に変化するライト環境において異なる時間に取り込まれる。キーライト(例えば、日光又はステージライティング)を識別するために、少なくとも1つのパノラマを処理する。一般的に、セットの異なる場所のライティングデータ、又はライティングシーケンスにおける異なる時間のライティングデータを提供するために、複数のパノラマが処理される。各々のパノラマに関する幾何学パラメータ及びカメラパラメータを使用して、自動的に可視のキーライトのモデルを生成する。任意の適切な光源モデルを使用できる。キーライトの色及び輝度は、パノラマを作るために使用した画像を補正することによって正確に求めることができる。キーライトをモデル化した後に、関連するパノラマの明るい領域を差し引くか又はマスクして、相対的に暗い低ダイナミックレンジ・パノラマにすることができ、このパノラマは後続のステップで「フィル」ライティングをモデル化するのに使用される。
本発明の実施形態では、次に、残りのパノラマは任意の所望の粒度レベルに区分することができる。次に、各々の粒度領域の色及び輝度を使用して、複数のフィルライトをモデル化する。フィルライトのモデリングのために任意の適切なモデルを使用できる。各々のモデル化フィルライトは、パノラマから計算した色、輝度、及び光線方向をもつレンダリングされたオブジェクトを照明するために配置された指向性ライトを含むことができる。本明細書で用いる場合「指向性ライト」は、光線に方向があり、距離と共に輝度が低下しないライトのことを言う。理論的には、指向性ライトは、無限遠の距離に置いたライトの性質をもつ。次に、モデル化フィルライト及びキーライトを適用してデジタルオブジェクトをレンダリングし、シーンのパノラマデータを収集した位置にそのオブジェクトを挿入することができる。
パノラマが存在しない位置又は時間におけるオブジェクトに関して、オブジェクト固有のパノラマは、隣接する位置で取得したパノラマから補間することによって計算することができる。補間の加重値は、各パノラマからレンダリングするオブジェクトの位置までの距離、及び各パノラマの相互の距離に基づいて指定することができる。好都合には、オブジェクト固有のパノラマは高速に補間でき、セットの3次元モデルを作成する必要がない。補間したパノラマは中間位置でのライティングの近似値を提供するだけであり、補間処理に伴うさまざまなエラーがあるのが欠点である。つまり、補間は、一部のレンダリング用途に関しては十分に正確でない場合がある。補間されたパノラマが十分にリアルな結果をもたらす用途に関しては、一組のモデル化フィルライトを、オブジェクト固有のパノラマから直接画像化したパノラマと同じ方法で作成することができる。移動オブジェクトに関しては、オブジェクトが動く経路に沿う各フレーム又はキーフレームにおいて前述の処理を繰り返すことができる。
別の実施形態では、ライティング環境にかなり影響するほど十分な大きさのオブジェクトの位置及び形状を定義する、セットの大まかなデジタルモデルを作成することができる。モデル化キーライトは、このモデルに組み込むことができる。セット内から取得したパノラマは、テクスチャ(色及び輝度パターン)をモデルの表面に与えるのに使用される。セットのライト環境が比較的一定であれば、これは1回実行するだけでよい。もしくは、時間的に変化するライティングに対しては追加モデルを生成して、別の時間のセットのライティングをモデル化することができる。表面にテクスチャを与えたセットのモデルは、セット内の任意の位置及び/又は任意の時間でフィルライティングをモデル化するのに使用できる新しいライトプリミティブのパラメータ値を決定するために使用される。
新しいライトプリミティブの領域は、ライトが当たる各オブジェクトで動的に再分割することができる。このライトは、どのサブ領域もライトが当てられたオブジェクトに対する立体角閾値を超えないという基準を満たす。この基準は、様々な方法で満たすことができる。例えば、所定のオブジェクトをセット内の任意の所定の場所でレンダリングする場合、モデルの各表面を連続的に検討することができる。現在のピースが、オブジェクトに対する投影領域に関する所定の閾値を超える場合、サブピースに再分割して、区画の検討対象のピースリストにそのサブピースを戻すことができる。この処理は、ユーザが指定したピースの数を生成して少なくともライティング環境の可視部をカバーするまで、又は環境全体を検討してそれ以上再分割が必要なくなるまで続けることができる。もしくは、ライトプリミティブは、その他の任意の適切な方法で再分割することができる。
モデルに記録された色及び輝度をリストに残っているモデルの各ピースで平均化して、フィルライティング・プリミティブの各サブピースの色及び輝度を決定する。各サブピースは、レンダリングされることになるオブジェクトに方向付けされた指向性ライトをモデル化することができる。各サブピースの位置、方向、及び形状は、セットモデルによって決定される。次に、新しいライトプリミティブをモデル化キーライトと共に使用して、デジタルオブジェクトをレンダリングすることができる。この処理は、セット内のレンダリングしたオブジェクトを示す任意の後続のフレームで繰り返すことができる。
当業者であれば、本発明の好ましい実施形態に関する以下の詳細な説明を検討することにより、本発明による方法、並びに追加的な利点及びその目的を完全に理解できるであろう。
本発明は、所望の結果、リソースの制約、及びおそらくはその他の要因に基づいて、種々の異なる方法で実施することができる。以下の詳細な説明では、いくつかの例示的な実施形態を説明するが、当業者であれば、これらから本発明の他の実施形態を作り出すことができるであろう。1つ又はそれ以上の図面に出てくる類似の要素を表わすために、同じ要素番号が使用されている。
本発明の態様によれば、デジタル方式でレンダリングしたオブジェクトをリアルシーンに挿入する映画プロジェクトは、デジタルカメラ及びフィルムカメラの両方を含む別の複数のカメラを使って収集した画像からデータを取り出す。通常、カメラが異なると、同じシーンを表示した場合に記録される色はわずかに異なる。例えば、フィルムのロールが異なると、製造元が同じであっても記録される色はわずかに異なる場合が多い。本発明の態様によれば、収集した画像は色及び輝度が補正されているため、異なるカメラを使用することから生ずる色差は除去される。従って、デジタルイメージングは均一の「カラースペース」に基づいている。
図1は、本発明の実施形態による、均一のカラースペースにおいて画像データベース及び/又はXDRパノラマを形成するための方法100の例示的ステップを示す。ステップ102では、システムの各カメラは個別に特性付けされる。カメラは、装置を使用して標準カラーオブジェクト(例えばKodakTM20ステップ「グレーランプ」及び/又はMacbethTM ColorCheckerTMチャート)をイメージングし、次に、ステップ104、108に示すように標準オブジェクト画像をその想定される標準色及び輝度と比較することによって特性付けることができる。XDRイメージングについては、特性付けは、装置の色応答が露光レベルに応じて変化する場合があるので異なる露光レベルで行うことができる。
個々のカメラの他の特性及びそのカメラで取り込んだ画像の他の特性としては、例えば、フィルム色温度、露光設定、カメラジオメトリ(焦点距離等)、カメラの位置及び方向、時間、日付、及びその他の関連する任意の識別情報が含まれる。ステップ106では、これらのパラメータを特定のセットからの画像データと関連付けて記録することができる。本明細書で用いる場合「セット」とは、1つ又はそれ以上の映画シーンを実行する限定された物理的空間を言う。画像データとして、作品画像、写真測量基準画像、色較正基準画像、及びXDR画像が含まれる。デジタル形式にまだなっていない限り、デジタル編集とイメージングで使用するため、画像データはデジタル形式でデジタル化して保存できる。任意の適切なデジタル形式を使用できる。例えば、拡張ダイナミックレンジ画像に使うアナログフィルム画像は、例えば浮動小数点TIFF(.tif)形式又はIFF(.iff)形式等の高ダイナミックレンジ画像に適合するデジタル形式で取り込むことができる。
ステップ108では、定義済み基準オブジェクト画像を分析して、各カメラに適用可能な補正係数を決定する。異なる種類のフィルムを使って異なる露光レベルで取り込んだ画像、又は他の画像固有の特性を有する画像に対しては異なる補正係数を作成することができる。色及び輝度の補正方法は本技術分野では公知である。任意の適切な方法を使用できる。画像データは「RGB」(赤−緑−青)形式で提供される場合が多いが、この形式では各ピクセルは、赤、緑、青の数値、並びに各RGB値の明度値又は輝度値、又は3つのRGB値すべての代わりに1つの値に関連する。この種のデータ形式として、例えば、各々のカメラ、対象物の各々の露光レベルに関して補正表(行列)を作成することができる。
例示的な補正表を以下に示す
赤 1.00129
緑 0.98657
青 1.00546
左端列の値は色値を示す。次の列は、対応する色の補正係数を示す。前術の実施例では、カメラからの画像の「赤」値は、1.00129(0.129%)の係数により増加させるが、緑は1.343%減少させ、青は0.546%増加させることになる。必要に応じて、他の露光レベル用の列を追加すること、及び他の色値の行を追加することができる。さらに、別の輝度補正係数を作成して、輝度指数又はその他の輝度値に適用することができる。
ステップ110では、カメラからの画像をその特性表に基づいて補正する。通常、これには、前記に例示したように、各ピクセルのRGB値の拡大縮小が含まれる。補正画像は、作品で使用するためにデータベースに保存する。また、生の(未補正の)画像は、保管目的で保存することができる。補正画像は、画像の色合い又は輝度に明らかな差異がなく一緒に作品で使用することができる。さらに、補正XDR画像は、補正されたリアル画像に挿入するためのデジタルオブジェクトのレンダリングにおいて、正確なリアリティベース・ライティングの基礎を提供する。
ステップ112では、セットから取得した画像のXDR補正から、1つ又はそれ以上のXDRパノラマを形成する。セットの典型的領域、又はライト環境の変化時の典型的時間のために、別のパノラマを生成する必要がある。各パノラマについて、所望のセットの場所及び/又は所望の時間で、XDR画像シーケンスを取得する必要がある。生成したパノラマは、本明細書で後述するように、リアリティベース・イメージングのベースラインデータを提供するために使用できる。XDRシーケンスを取り込んでそれからパノラマを生成するために、本技術分野では公知の任意の適切な方法を使用できる。XDR画像の詳細な説明については、図3に関連して後述する。
XDR画像シーケンスを収集する場所と場所の数を選択して、リアリティベース・ライティングモデルで必要な精度レベルを最小限の費用で達成する必要がある。パノラマの数が多いと精度は正確になるが、必要なXDR画像シーケンスを取り込んで処理する追加の時間及び費用が必要となる。異なるXDRシーケンスの数は、用途に応じて変化する。多くの用途では、10未満といった比較的小数のXDRシーケンスで十分である。
図2Aは、方法100に帰着するシステム200の例示的な要素を示す。このシステムは、例えば202−204のような「n」個のカメラを含む。アナログカメラが同じでもフィルムのロール(バッチ)が異なると、システム200の目的上、別の「カメラ」になる場合があることを理解されたい。各々のカメラの出力は、対応する「n」個の補正行列212〜214を使って補正する。補正した画像データは画像データベース220が受け取る。追加的に又は代替的に、図2Bで示すシステム250のように、生の画像データをデータベース270に記録することができる。例えばカメラ252〜254のような複数のカメラからの生の画像データは、データベース270に保存される。必要に応じて、対応する補正行列262〜264を適用して生の画像データを処理することができる。補正した画像データは、作品又はリアリティベース・ライティングで使用するため別個に保存することができる。
ベースラインXDRパノラマは、リアリティベース・ライティング方式の入力データを提供することができる。図3には、映画におけるデジタルイメージング用のリアリティベース・ライティング方式を実施するための例示的な方法300が示されている。方法300の各々のステップは自動的に実行することができる。
ライティング環境が定義される各々のセットの場所に関して、ステップ302に示すようにXDR画像の組を取り込む。XDR画像の各々のシーケンスは、定義済みの照射増分で取り込んだ位置座標又は時間座標等のセット内の固有の座標に対応する。セットの位置を定義して最適な取り込み機器を設定すると、方法800の大部分の残りのステップは自動的に又は半自動的に実行できる。
本技術分野では公知のように、ライト環境を取り込むために、鏡面仕上げの球又は半球(つまり「ボール」)、又はその他の任意の最適な凹面は、リアリティベース・ライティングデータを収集する場所に配置することができる。次に、ボールの画像を定義された露光増分で取り込むことができる。本技術分野では公知のように、カメラは、ボールの画像が、カメラの視野からボールの真後ろの比較的狭い隠された領域を除いて、ボールを取り囲むライト環境のほぼ360度のパノラマビューを提供するように配置できる。ボールとカメラは、ボールがライト又は特にセットの明るい領域を隠さないような位置関係にすることが好ましい。その場合、隠された領域は、ライト環境の十分正確なモデルを作成するのに必要な情報を含まないことになる。
鏡面ボールは、大型ボールベアリングのようなクロム金属ボール、鏡面ガラスボール、又はその他の任意の適切な反射形状のものとすることができる。必要であれば、その他の形状の鏡も使用できる。もしくは、回転カメラを対象位置にセットすること、又は、例えば、SpheronTM社の走査パノラマカメラをクロムボールのかわりに使用することができる。回転カメラを回転して、2つの垂直軸の周りのほぼ360度の視野のパノラマ画像を取り込むことができる。
ライト環境のフルダイナミックレンジを取り込むために、全く露光不足(画像全体が黒)から全く露光過多(画像全体が白)の露光範囲で、鏡面ボールを撮影することができる。露光はF値とは別に設定できる。その結果、画像シーケンスは、最暗から最明までのライト環境のダイナミックレンジの少なくとも一部を取り込む。このダイナミックレンジは、100万又はそれ以上の程度に簡単にすることができるが(つまり、最明オブジェクトは最暗オブジェクトより100万倍以上明るい)、これは単一露光を使って取り込むことはできない。複数の露光レベルで画像を取り込み、拡張輝度範囲全体にわたってライト環境をデジタル方式で再現するために処理するプロセスは、「拡張ダイナミックレンジ画像化」又は「XDR画像化」と呼ばれる場合もある。また、「イメージベースド・ライティング」と呼ばれる場合もある。XDR画像化の種々の方式は、本技術分野では公知であり、本発明の実施に適用できる。
局所的ライト環境は、セット全にわたって、又は時間の関数として大きく変化する場合がある。パノラマ画像の各々のシーケンスは、特定の場所及び時間のライト環境を記録する。従って、ステップ302は、デジタル方式でレンダリングしたオブジェクトを配置することになる領域に関して、セットのライト環境を正確に記録するために随時繰り返す必要がある。例えば、4つの壁432a〜432d、フロア434、ステージライティング(図示せず)が照らす開放天井、ドア開口部436、窓438a〜438c、机440、卓上スタンド442、フロアスタンド444を備える図4Aに示す屋内セットは、位置446a〜446dにおいて大幅に異なる局所的ライト環境を有する。セット430及び位置446a〜446dを図4Bの平面図で示す。机に座った位置440から窓438a〜438cのそばを通り過ぎてフロアスタンド444に近いセットの隅に向かう経路448に沿って移動する人物のデジタル方式でレンダリングした画像は、経路448に沿った各々の場所で変化するライト環境を反映する必要がある。従って、各々の場所446a〜446cでパノラマ画像のXDRシーケンスを収集することが望ましい。その場所は、利用可能なリソース及び所望の精度レベルに基づいて、選択された異なる照明のセットの領域に位置付ける必要がある。追加に又は代替的に、ライト環境が時間と共に変化する場合、変化するライトシーケンスの代表時間で、ステップ302を繰り返すこともできる。
次に、各々の場所の結果として得られたXDR画像シーケンスは、ステップ304で自動的に処理して、複数のXDRパノラママップを定義することができる。複数のパノラママップは、セットに関するデジタルライト環境データベースを構成することができる。XDRシーケンスの各々の画像は、まだデジタル形式になっていない場合には、走査法等によって最適のデジタル形式に変換することができる。次に、各々の場所について、最も露光不足の画像系列(画像のほとんどが暗である)から始めて、画像の各々の領域の表示される色及び輝度を記録する。各々の領域は、任意のサイズの領域と関連付けることができるが、最大の解像度については、デジタル画像のピクセルよりも大きくない。ライト輝度は、露光時間に反比例する係数によって倍率変更される。色及び輝度は、各々の画像領域に輝度値及び色値が割り当てられるまで、各々の露光レベルで分析される。
露光レベル間の矛盾は、さまざまな方法で処理することができる。例えば、写真の範囲から計算した輝度の加重平均は、各々のピクセルに割り当てることができる。任意の所定の露光について、ピクセルは最暗値から最明値の範囲に及ぶ。この範囲の中点を決定することができ、各々のピクセルは、中点からの距離に反比例する加重値を与えることができ、つまり、中点に最も近い値を持つピクセルの加重を最も重くするが、範囲のどちらかの端に近い値を持つピクセルの加重は軽くすることができる。従って、異なる露光レベルでの一連の画像については、ピクセルが輝度の平均値又は中央値に近い画像の加重は重くなる。
同様に、色値を計算して、露光不足の領域で生ずる暗さ、及び露光過多の領域で生ずるウォッシュアウトを正しく処理する必要がある。また図1に関連して前述したように、色値及び輝度値を自動的に補正することができる。また、各々の場所について、イメージングパラメータを記録して、画像シーケンスの色値及び輝度値の計算値をライト環境に変換することができる。例えば、カメラ位置、絞りサイズ、焦点距離、鏡面ボールサイズ、セット内の位置、セット識別子等を記録する。
これらの幾何学パラメータ及び光学パラメータを使用して、クロムボールのXDR画像又はその他の適切な画像から収集したXDRデータは、XDRイメージングの場所を取り囲む環境のパノラママップにマッピングすることができる。3次元環境(例えばクロムボールの表面)を2次元マップにマッピングする技術分野では種々の方式が公知である。例えば、コンピュータグラフィックスでは、球形パノラマ、立体パノラマ、四角形パノラマが公知である。任意の適切なマッピング方式を使用できる。本明細書では、結果として得られたマップをパノラマ又はパノラママップと呼ぶ。これは投影に類似するが、物理セットの3次元モデルの投影ではない。その代わりに、パノラママップは、例えばクロムボール表面等のイメージング表面を2次元領域に投影したものなので、パノラマ内のピクセル位置と3次元環境の視野方向との間には明確な対応が存在する。後でデジタルモデリングに使用するために、この種の複数のパノラママップを保存することができる。
図5Aを参照すると、大幅に簡素化されている例示的なセット430のパノラママップ500は、ステージライト画像502及び「ウィンドウライト」画像504等の発光領域と、壁領域506及びフロア領域508等の非発光領域で構成される。パノラママップの拡張ダイナミックレンジは、紙面上で正確に説明できない。図5Aは単に例示的なパノラマの概念図を表しており、実際のパノラマの画像を表していないことを理解されたい。パノラママップ500は、他の任意の2次元マップと同様、セット内の発光面及び非発光面の相対位置に関する限られた量の情報を含む。しかしながら、マップ500等のパノラママップはそれ自体、セットの3次元構造を再構成できるだけの十分な情報を含まない。特に、これは一般に発光面及び非発光面の画像の中心からの距離に関する完全な情報を含まないであろう。この種の情報は、表面形状、カメラ位置、及びその他の写真測量データに関する仮定から計算できるが、マップ自体の中には存在しない。
任意の所定のセットについて、図3のステップ306で示すように、セットの個々のステージの「キー」ライト及び/又は自然光源の組をモデル化すると好都合である。任意の所定のパノラママップにおいて、一般に、発光領域の輝度は非発光領域よりも非常に高く、閾値輝度よりも低い(又は高い)輝度のピクセルをフィルタ処理することにより容易に区別することができる。各々の発光領域は、モデル化キーライトとして処理できる。また、各々のモデル化キーライトの3次元位置は、写真測量の原理及び/又はセットの線図を使って、1つ又はそれ以上のパノラママップから決定することができる。従って、物理セットのパノラマ画像及びその他のデータから得たセットのキーライトのコレクションをモデル化することは、比較的簡単である。例えば、キーライティングは、パノラママップから計算した色及び輝度を用いて、セット線図で示した位置でモデル化できる。追加的に又は代替的に、1つ又はそれ以上のパノラママップ又はその他のセットの画像は、やはりXDRパノラマから求めた色及び輝度を用いて、キーライトの位置とサイズを決定するための写真測量の原理を利用し分析することができる。本技術分野で公知の計算方法を使用すると、XDR画像及び関連するセットデータからキーライティングモデルを構築する処理全体は自動化することができる。結果として得られたキーライティングはセットの全領域を網羅することができる。
従来、映画技術では、「キーライティング」はセットの主要ライティングのことを指すが、「フィルライティング」は影を補うための又は所望の色合いを明瞭にするための二次ライティングのことを指す。この種の両方のライティングは、物理的ライトを使って与えることができる。拡散リフレクタはフィルライティングに使用される場合もある。しかしながら、デジタルイメージングとの関連で、本明細書で使用する場合、モデル化キーライトは、セットでの目的に関わらず、閾値光度より明るい任意のモデル化した光源のことを指す。例えば、ステージライティング技術者がフィルライトと呼ぶものは、その光度がイメージングのため設定した閾値を超える限り、デジタルイメージングではキーライトと見なすことができる。同時に、本明細書でデジタルイメージングに関連してモデル化「フィルライト」と呼ばれるものは、物理セットでは対応するものがない。デジタルイメージングとの関連で本明細書において使用する場合、モデル化フィルライトは、セットの任意の非発光面からの反射ライトとして使用することができる。この種の非発光面は、ライティング技術者の口調では、全く「ライト」ではないと見なされる場合が多い。
例えば、図4Aを参照すると、場所446a〜446dからのXDR画像シーケンスを使って定義したパノラママップは、セット430の光源を識別するために処理することができる。この種のソースとしては、窓438a〜438c(又は窓の外側に配置したステージライティング)、卓上スタンド442、フロアスタンド444、及びセット430の上に又はセットに関係する場所に配置した任意のステージライティングを挙げることができる。これらの全光源は、セットでのその目的に関係なく、デジタルイメージングではキーライトとしてモデル化することができる。キーライトモデルは、任意の最適な形式で提供することができる。例えば、モデル化キーライトとしては、RGB輝度値、発光面ジオメトリ、光線方向、円錐角、及び位置の定義を挙げることができる。多くのステージライティングで使うような電灯及び日光のような自然光源を含むがそれに限定されない、実際のセットライティングをモデル化する任意の光源モデルを使用することができる。
再び図3を参照すると、セットのキーライトをモデル化した後、キーライトに対応する発光領域は、ステップ308で示すように、XDRパノラマから差し引いて、対応するフィルライトパノラマを作成できる。この場合も同様に、指定された輝度閾値を超える発光領域をフィルタリングすることによって容易に実現することができる。
方法300の例示的なシーケンスにおいて、処理ステップ302〜308は、全体としてセットに関連する画像及びライティングデータの収集及び処理に関連する。ステップ310では、セットの定義位置で1つ又はそれ以上のデジタルオブジェクトをレンダリングするためにこのデータを使用する処理が開始する。各ステップのシーケンスはこの順序で実行する必要はなく、例えばステップ310は302〜308のいずれかの前に実行できることを理解されたい。
ステップ310では、レンダリングされることになるオブジェクトの場所をデジタルオブジェクトのアニメーションプラン等から区別する。また、オブジェクトの位置と共に、所望の視野及びその他のイメージングパラメータを定義することができる。オブジェクト位置を定義すると、オブジェクトのレンダリングで使用するためのリアリティベース・ライティング環境を決定する別の処理を実行できる。図3には、決定ステップ312及び314で3つに分岐する通り、3つの例示的な別の処理が示されている。ステップ312において、この方法は、単一のXDRパノラマを使ってデジタルオブジェクトをレンダリングする処理に分岐することができる。これは、例えばデジタルオブジェクトがXDRサンプリングポイントの1つに配置されるか、又はその近傍に配置される場合に適切である。例えば、オブジェクトがセット430の位置446a〜446dのいずれかでレンダリングされると、次にモデル化フィルライトの組は、オブジェクトの位置に対応する単一のパノラマから直接定義することができる。
ステップ322では、ステップ308との関連で説明したフィルライトパノラマからフィルライトの組をモデル化する。フィルライトパノラマは、不連続なデータオブジェクトである必要はなく、むしろ、XDRパノラマの中のキーライトを表していない部分と見なすことができる。例えば、キーライトが別にモデル化されていない場合、フィルライトパノラマは元のパノラマと同じであろう。
本発明の実施形態において、ステップ322で例示したフィルライトのモデリングは、精度と計算速度のバランスを取って、イメージング場所での低輝度ライト環境に近いものを作り出す。多くの環境では、レンダリングした最終結果は、キーライティングに非常に左右されるので、高精度のフィルライティングモデルは必要ない場合が多い。つまり、数学的精度の実質的な程度は、最終結果の実際の外観に著しく影響を与えることなく、計算速度が優先されて犠牲にされる場合が多い。
適切な近似を実行する1つの方法は、単純にフィルライトパノラマを面積又は輝度の等しい領域に分割することである。次に、各々の領域はレンダリングされることになるオブジェクトに向けられた指向性ライトとしてモデル化され、色及び輝度は、各々の領域全体にわたって積分して計算される。各々のモデル化フィルライトは、一般に入手可能な標準レンダリングプログラムでの使用に適する、標準形式のライトプリミティブ又はその他のデータオブジェクトを含む。
パノラマの再分割には、さまざまな異なる方法を使用することができる。例えば、別のアプローチでは、投影面は、例えば各々が領域全体の0.1%を表すような面積の等しいセグメントに分割される。このアプローチの利点は、セット内の異なる場所のライト環境を、例えば、各場所の間を補間する目的等で容易に比較できることである。各々の再分割領域について、ライト環境の平均色及び平均輝度は、再分割領域全体にわたって計算することができる。例えば、再分割領域の半分の輝度の値がゼロで、セグメントの他の半分の輝度の値が1000の場合、再分割領域の平均輝度は500である。各々の再分割領域の平均色、平均輝度、及び平均位置は、後でレンダリングに使用するために、リスト又はその他のデータベースに記録することができる。
ライト環境リストの作成に適切な他の再分割方法は、再分割領域全体にわたるライト輝度の積分値(つまり光束)を再分割領域の基礎と見なす。再分割領域は、各々の領域が特定の最大光束未満であるように定義される。このアプローチの利点は、各々の再分割領域が他の各再分割領域と同様にほぼ等しい量のライトに対応していることである。更に別の方法では、パノラマを分析して類似するカラリングの領域を区別する。次に、全領域が指定した最大領域よりも小さくなるまで各々の領域をさらに再分割する。当業者であれば、本明細書の開示内容に基づいて、本発明で使用する他の適切な再分割方法を考えることができるであろう。
前述したように、単一のパノラマは、セットの各々の表面とイメージングの中心との間の距離を直接表さない。しかし、フィルライトを、被照明オブジェクトとの距離が重要でない指向性ライトとしてモデル化する場合、フィルライトの相対距離は必要ない。このアプローチは計算を簡素化すると共に、多くの用途で適切な結果をもたらす必要がある。
もしくは、あまり好ましくはないが、各々のモデル化フィルライトとレンダリングされることになるオブジェクトとの間の距離、つまりモデル化フィルライトの位置は推定することができる。例えば、セット線図から及び/又は写真測量の原理を用いて推定することができ、又はレンダリングされることになるオブジェクトの最大寸法等の容易に確認可能な特定のパラメータに基づいて、モデル化フィルライトの位置を単純に指定することができる。例えば、各々のモデル化ライトは、オブジェクト重心から最大オブジェクトの寸法の2倍離れた距離に配置することができ、オブジェクト重心はイメージングの中心に配置できる。このアプローチの結果、フィルライティングは多少正確になるが、計算はかなり複雑になる。
図5B及び図5Cは、指向性ライトのコレクションとしてのフィルライティングのモデリングをさらに示す。図5Bは、XDRパノラマ500から発光領域を除去して導き出したフィルライトパノラマ550を表す。図5Cは、レンダリングされることになるデジタルオブジェクト572の周りに配列されたパノラマ550に基づく、モデル化フィルライト570の配列を表す。図5Aと同様に図5B及び図5Cは概念図であり、一般的なパノラママップ又はモデル化したライト配列を表していないことを理解されたい。
前述したように、パノラマ550は、領域552及び554等の複数の領域に再分割することができる。その領域は任意の所望のサイズとすることができる。各々の領域でモデル化フィルライトを作成できるので、計算効率は、レンダリングされたオブジェクトに著しく非現実的な影響をもたらすことなく、領域サイズを可能な限り最大化することによって高めることができる。最適な選択肢は環境によって変わることになるので、単一の「最適」なサイズは存在しない。図5Bは、簡単に説明するため四角形グリッドの形式での再分割を示すが、例えば、前述した任意の方法等のパノラマを再分割する任意の適切な方法を用いることができる。
次に、各々の再分割領域を積分して、各々のモデル化フィルライトに関する輝度及び色を決定できる。モデル化フィルライトは、セットの環境を近似するような方法でオブジェクトのまわりに配列することができる。例えば、図5Cは、デジタルオブジェクト571の周りのモデル化フィルライト570の配列を示す。配列570の近接する部分は、配列内部を表示するために図5Cでは示されていない。配列570は、図4Aに示すセット430の低輝度ライト環境だけに大まかに近似している。この近似の1つの態様は立体形式の配列であるが、その周縁は、壁432a〜432dの周縁に一致していない。立体の周縁が著しい例外を持ち込む範囲では、例えば、球又は楕円体のような閉曲線に沿ったモデリング配列570によって、これらを平滑化することができる。
配列570の各々のモデル化ライトは、ライト方向及び輝度を定義する指向性ライトとしてモデル化することが好ましいが、各々のライトは被照明オブジェクトからの距離とともに変化しない。その場合、指向性ライトの配列は、図示の立体等の特定の幾何学表面に対応しない。その代わりに、配列は、レンダリングされることになるオブジェクトに全てが方向付けされる指向性ライトのリストを含むだけである。各々の指向性ライトの輝度は、パノラマ5Bの対応する各再分割領域を積分することにより計算できる。同様に、各々の再分割領域の最適なポイント、例えば重心を選択することにより、各々のライトの方向を決定することができる。当然、パノラマの各々のピクセル又は各々のポイントは、適用可能なマッピングにより決定される3次元の視野の方向に対応する。つまり、ライトの方向は単純に選択ポイントに対応する3次元の視野の方向に等しい。指向性ライトを使用しているため、モデル化ライトとレンダリングされることになるオブジェクトとの間の距離を定義する理由はない。
もしくは、あまり好ましくはないが、配列570の各々のモデル化ライトは、パノラマ550の対応する再分割領域の形状を有する発光面としてモデル化することができ、レンダリングされることになるオブジェクトから所定の距離だけ離して設定される。例えば、モデル化フィルライト574は、パノラマ550の領域554に対応する形状、カラリング、及び光度を有する。同様に、モデル化ライト572は領域552に対応するなど。対応するパノラマ領域の形状を備える各々のフィルライトのモデリングの別の方法として、各々のモデル化フィルライトを任意の形状に指定することができる。デジタルオブジェクト571は、重心573がイメージング位置にくるように配置することができる。
前述の実施例は、セットの所定の位置のキーライト及びフィルライトが、例えば「ライトプリミティブ」等の標準データオブジェクトとして、単純な計算アルゴリズムを適用することにより自動的にモデル化できることを示している。再び図3を参照すると、後続のレンダリングステップ324において、デジタルオブジェクトは、本技術分野では公知の任意の適切な方式を用いて、視点、デジタルオブジェクトのジオメトリと位置、及びグローバルライト環境に基づいてレンダリングすることができる。その結果、本技術分野では公知の任意の適切な方式を用いて、指定された位置のシーン内にシームレスに配置することができる、レンダリングしたデジタルオブジェクトが得られる。ステップ326及び328で示すように、方法300のモデリング及びレンダリング分岐は、映画の連続的フレームに対して任意の所望の回数だけ繰り返すことができる。しかしながら、あらゆるフレームに関してフィルライトをモデル化する必要はなく、その代わりに選択したフレーム間隔でモデル化することができることを理解されたい。例えば、デジタルオブジェクトの経路に沿って10cm刻みで新しいフィルライトモデルを作成できる。中間フレームは、利用可能な直近のモデル化フィルライトを使用してレンダリングすることができる。
前述したように、単一のパノラマが正確なライト環境を表さないように、XDR画像の位置から比較的遠くに配置したデジタルオブジェクトをレンダリングすることが望ましい。この場合、再びステップ312を参照すると、本方法は別の分岐に分岐することができる。ステップ314で示すように、より単純で計算の早い解法が望ましいか、又は多少複雑ではあるが正確な解法が望ましいかによって、この問題には少なくとも2つの解決策が存在する。
単純なアプローチは、ステップ320で示すように、2つ以上の隣接するパノラマから中間の「オブジェクト固有」のパノラマを補間する方法を含む。補間は、それらの所望のレンダリング位置からの距離及びそれらの相互の距離に基づいて、隣接するパノラマに加重値を与える。レンダリング位置に近いパノラマには大きな加重値を与えるが、同時に相互の距離に反比例してパノラマの加重値を低減する必要がある。
次に、パノラマを組み合わせて、隣接するフィルライトパノラマに対応するピクセルから補間して計算した、RGB色値及び輝度値を各々のピクセルに割り当てることにより、オブジェクト固有のパノラマを生成することができる。次に、オブジェクト固有のパノラマは、前述のような任意の適切な方法で、ステップ322でモデル化フィルライトの配列を生成するために使用できる。隣接するパノラママップのピクセル間の補間により導き出したオブジェクト固有のパノラマは、当然多数の幾何学的エラーを含んでいることを理解されたい。しかしながら、生成する元になる隣接するパノラマが互いに離れすぎていない限り、これらのエラーはレンダリングの最終結果で目立たなくなるほど十分小さいであろう。従って、ステップ320を使用すれば、オブジェクトが場所を移動すると共に次第に変化するリアルなフィルライティングを実現する所望の効果を達成できる。この方法の精度は、セット内の更なる場所でのXDR画像シーケンスを収集することにより向上する。
もしくは、XDRサンプリングを最小限必要なものを超えて増やすことなく、より正確なレンダリング結果を得ることが望ましい。本発明の実施形態では、この別の処理は、3次元モデリング及び投影ステップ316から始まる。このステップには、セットの3次元モデルの構築が含まれる。例えば、図6はセット430の例示的な3Dモデル600を示す。本技術分野では種々のモデリング方法が公知であり、任意の適切な方法を使用してモデルを構築することができる。例えば、セットが3次元デザインツールを使用して設計されている場合、最適モデルはセットデザイナから入手できる。もしくは、モデルは、セット線図に基づいて、コンピュータグラフィックスデザイナが手動で構築できる。代替的に又は追加的に、3Dモデルは、セットの種々の画像に適用した写真測量を使用して、自動的に又は半自動的に生成できる。モデル600のような3Dモデルは、最終レンダリングに実際に表れる必要がないため、非常に正確である必要はない。その代わりに、モデルを使用して、新しいライトプリミティブの発光面を定義することができる。従って、レンダリングされることになるデジタルオブジェクト上で光を反射する主要表面をモデル化するだけで十分である。一般に、十分に詳細かつ正確にモデルを構築しても費用はあまりかからない。他の理由でセットの詳細かつ正確なモデルが構築されている場合にはライトプリミティブとして用いるのに適する。
3Dモデルの設計後、ステップ308で生成したフィルライトパノラマは、セットに記録した色を3Dモデルに対応する表面に投影するために使用できる。基本的な幾何学及び光学原理を用いて、ライト環境データベースからライト及び輝度値をモデル表面に「投影」することにより、モデル表面に色値及びライト輝度値を指定することができる。本技術分野では公知なように、投影した色を表面テクスチャとして記録することが好都合である。例えば、机の引き出しの内側又はテーブルの下といったモデルの特定の表面は、目立つ量の光を対象に投じないことを理解されたい。色値及び輝度値は、レンダリングには重要でないこのような表面に与える必要はない。サンプリング場所の適切な選択、つまりXDR画像パノラマデータを収集する場所の適切な選択により、重要な表面に適切な色値及び輝度値を与えることができる。
レンダリングに重要な表面及び/又は光源は、特定の場所から収集したライト環境データを基準にして、他のオブジェクトによって見えなくするか、又は遠くに置くことができる。例えば、モデル600では、卓上スタンド602及びその他の近くのオブジェクトは、XDRサンプリングの場所604から十分遠いので、表面カラリングを適切に正確に投影できない。このような場合、606等のXDRサンプリングの場所から収集したライト環境データは、この領域への照明データを収集するために使用できる。ステップ316が終了すると、色値及び輝度値は、セットの3次元モデル600内のすべての重要な表面について定義できる。セットのこのグローバルライト環境は、後でレンダリングに使用するために保存することができる。
3Dモデルが正確でないため及び/又は各々のパノラマに関する幾何学的情報にエラーがあるため、投影に小さなエラーが生ずることがある。この種のエラーは、例えば、さまざまなパノラマの色値及び輝度値を平均化することによって、さまざまなパノラマからの投影が異なる結果をもたらす範囲で、任意の適切な方法で処理することができる。もしくは、セットの隣接する場所から得た対応するパノラマのポイントは、前述のように隣接するパノラマがモデル化ディレクショナルフィルライトを補間できるのと基本的に同じ方法で、3次元モデルの表面の色値を補間するために使用できる。一般に、表面カラリングの投影から生ずるエラーを、投影で使用する幾何学パラメータに適切な調整を行うことによって最小化することが望ましい。キーライトは、必要であればXDRパノラマを使用して同時にモデル化できることを理解されたい。
次に、3Dモデルを構成するモデル化表面のコレクションは、その表面に関連する色とライト輝度と共に、セットの一種の「グローバルライトプリミティブ」として使用できる。従来のライトプリミティブと同様、グローバルプリミティブは光源の表面ジオメトリ、ライトの色及び輝度、光線の方向及び円錐角を定義する。色及び輝度は、パノラマを3Dモデルジオメトリに投影することによって導き出される。光線方向は表面に垂直と想定できる。多くの拡散反射材料について、円錐角を例えば180度等の鈍角であると想定できる。しかしながら、従来のライトプリミティブと違い、表面ジオメトリは非常に複雑にすることができ、ライトの色及び輝度(及び随意的に光線方向及び/又は円錐角)は、表面位置の関数として変化する。
再び図3を参照すると、ステップ318では、特定のフレームをレンダリングする場合、グローバルライトプリミティブは、レンダリングの最終結果に対して類似の影響のある領域に再分割することができる。これは、例えば、グローバルライトプリミティブを、デジタルオブジェクトを取り囲む仮想投影面上で所定の最大投影サイズをもつ領域に再分割することにより実現できる。図7及び図8は、このアプローチを説明するのに役立つ。図7は、3Dモデル600をモデルとし、最大投影領域法を使用して複数の領域に再分割したグローバルライトプリミティブ700の平面図を示す。図8は、仮想投影面720と、グローバルライトプリミティブ700を再分割するのに使用できるようなグローバルライトプリミティブ表面710との間の例示的な関係を示す。
表面720は、グローバルライトプリミティブ700の参照フレーム内のデジタルオブジェクト702の少なくとも一部を取り囲むように配置することができる。表面720は、球面又はその他の任意の所定の閉表面で構成される。球面には、例えば、横方向及び縦方向の直線に沿って分割することによってセグメントに容易に再分割できるという有用な特性がある。例えば、セグメント722及び724は、面積の等しい球表面のセグメントで構成される。複数の類似する概念上の表面セグメントは、デジタルオブジェクト702を取り囲むと見なすことができる。表面720は、本発明の方法を説明するのに有用な数学的構造体に過ぎず、実際に存在する必要はない。
表面710は、グローバルライトプリミティブの一部分、例えばデジタルオブジェクトに光を当てることのできるフロア表面を表す。表面710及びグローバルライトプリミティブのその他の表面は、概念上の表面720セグメント(例えばセグメント722、724)の境界を共通の基点726から表面710に投影することによって概念的に分割することができる。従って、ライトプリミティブ表面710は、複数のサイズの異なるセグメントに分割することができ、各々はデジタルオブジェクトに対してほぼ等しい投影領域をもつことができる。セグメント712及び714はこのような2つの領域を表す。表面710の再分割領域は図7の平面図に示される。グローバルライトプリミティブ700の他の表面は、同様の方法で分割することができる。例えば、デスクトップ716等のライトプリミティブの特定の表面は、定義の如何に関わらず最大セグメントサイズよりも小さくすることができる。このような表面は、再分割領域全体として処理すること、又は隣接する領域を含む再分割領域の一部分として処理することができる。
サイズの等しい投影領域に基づく再分割は、グローバルライトプリミティブを再分割する1つの方法を例示するにすぎない。任意の他の適切な方法を使用することができる。例えば、パノラマを再分割する前述の任意の方法は、グローバルライトプリミティブの再分割に適用できる。各々の再分割領域は、レンダリングされることになるオブジェクトに影響を及ぼす反射光の比例配分を正しく近似する任意の方法で定義することができる。
グローバルライトプリミティブ700を再分割した後で、各々の領域をさらに処理してモデル化フィルライトを定義することができる。本発明の実施形態では、各々の領域は、レンダリングされるオブジェクトを取り囲む球面の立体角部分といった、レンダリングされるオブジェクトに垂直な投影領域全体にわたって積分することによって計算した色及び輝度を有する、レンダリングされるオブジェクトに向けられる指向性ライトを規定するために使用できる。このアプローチは、投影面全体の輝度の計算を必要とするが、レンダリング時に後続の計算を単純化することができる。
もしくは、あまり好ましくはないが、各々の領域は、それぞれの表面領域、再分割領域に垂直な光線方向、及び円錐鈍角によって定義される位置及び表面ジオメトリをもつモデル化フィルライトを規定するために使用できる。例えば、モデル化フィルライトは非遮蔽方向に等しい光を放射すると想定することができる。色及び輝度は、投影面全体の積分のかわりに、各々の表面領域全体を積分することにより決定できる。このようなモデル化ライトの輝度は、円錐角がゼロでないのでレンダリングされるオブジェクトからの距離の関数として変化するパノラマに一致するように調整する必要がある。
従って、再び図3のステップ318を参照すると、複数のモデル化フィルライトは再分割処理の出力を含む。複数のモデル化ライトは、前述のように、ステップ324の任意の適切なレンダリング方式で使用するために、データベース又はリストフォームに保存することができる。モデリング及びレンダリングステップは、ステップ326、328、310のシーケンスで示したように、映画の任意の所望のフレームで繰り返すことができる。後続のフレーム内のオブジェクトの位置変更は、新しいオブジェクト位置に基づいてモデル化フィルライトの適切な組を生成する。キーライトは、セット全体で一定であると想定すること、又は新しいそれぞれの位置で再モデル化することができる。鏡面反射する非常に反射しやすいオブジェクトからのライトは、モデル化フィルライト及びキーライトから除外することが望ましい。拡散ライティングに効果のある近似は、鏡面反射するオブジェクトに適用する場合、リアルな結果を得られないことがある。その代わりに、これらのミラーに似たオブジェクトは、所望のオブジェクトのレイトレーシング時に、デジタルモデルに加えることによって説明できる。当業者であれば、前述の方法以外の適切な修正を行うことができる。
従って、前述の説明に基づいて、当業者であれば、本発明に基づく方法を実施するシステムを構築することができる。図9は、このような1つのシステム900を示し、データベース904から画像データを受信するように接続されているコンピュータ902を備える。さらに、システム900は、コンピュータに接続可能のメモリ906を備えることができる。メモリ906は、当業者であれば本発明に基づく方法を実施できる命令コードを含むことができる。例えば、メモリ904は、各々が物理的なセットの固有の座標に対応する画像データセットを読み取る命令を含むことができるが、各々の画像データセットは、異なる露光で取り込んだ複数の相関画像で構成される。命令は、更に複数のパノラママップを定義する段階を含むことができるが、各々のパノラママップは対応する画像セットの1つにおける画像から導き出した色情報及び輝度情報のマップで構成される。命令は、更に複数のパノラママップからダイナミック・ライティングモデルをモデリングする段階を含むことができるが、ダイナミック・ライティングモデルは、デジタルレンダリングのためのライティングをモデル化空間の仮想座標の関数として定義し、モデル化空間は物理セットに対応し、仮想座標は空間座標、時間座標、及び空間座標と時間座標との任意の組み合わせから構成されるグループから選択される。
命令は、更にダイナミック・ライティングモデルを時間非依存関数又は時間依存関数としてモデリングする段階を含むことができる。つまり、モデル化ライト環境は、位置又は時間の関数として変化する。命令は、更に画像を取り込むカメラの識別子にリンクする定義済み基準オブジェクト画像を含む画像キャリブレーション・データセットを読み取る段階、及び定義済み基準オブジェクト画像分析に基づく限定された物理空間の複数の画像の色補正を行う段階を含むことができる。複数のパノラママップは、20段階グレースケール等の定義済み基準オブジェクト画像を使って、少なくとも1台のカメラの特性を決定するために定義することができる。これは、XDR画像シーケンスを収集するために使用するソースが何であれ、均一なレンダリング結果を確保するのに役立つ。命令は、更に少なくとも1つのモデル化キーライト、及び少なくとも1つのモデル化フィルライトのモデルリングを行う段階を含むことができる。モデル化ライトは、レンダリングされるデジタルオブジェクトを取り囲むモデル化発光面、つまりグローバルライトプリミティブをモデリングすることによって作成することができる。命令は、更に、例えば正積図法等の、レンダリングされるデジタルオブジェクトとモデル化発光面との間の幾何学的関係に基づいて、モデル化発光面を表面領域に再分割する段階を含むことができる。命令は、更に少なくとも1つのモデル化キーライト及び少なくとも1つのモデル化フィルライトを定義できる複数のパノラママップから、オブジェクト固有のパノラマを補間する段階を含むことができる。前述のいずれのプログラム命令も取外し可能な媒体908又はネットワーク媒体910のようなコンピュータで読み取り可能な媒体に格納できることを理解されたい。
以上のように、映画におけるデジタルオブジェクトのリアリティベース・ライト環境を定義するシステム及び方法の好ましい実施形態を説明したので、当業者であれば、システム内の所定の利点が達成されていることを理解できるはずである。また、前述のように本発明の範囲及び精神の中で種々の修正例、適用、及び別の実施形態を作り上げることができることを理解できるはずである。例えば、XDRパノラマ画像からキーライト及びフィルライトをモデリングする特定の方法を説明したが、本発明は、XDR画像データからレンダリングするためのモデル化ライトを作成する他の方法にも適用できる。特に、本発明は、別々にモデル化したキーライト及びフィルライトに限定されるものではなく、又は本明細書に開示したXDRパノラマデータを再分割する特定の方法に限定されるものではない。本発明は、特許請求の範囲により定義されるものである。
本発明の実施形態に基づく、均一カラー空間において画像データベースを構築する例示的なステップを示すフローチャート。 図1で示した方法によってもたらされる例示的なシステムを表すブロック図。 図1で示した方法によってもたらされる例示的なシステムを表すブロック図。 本発明の実施形態に基づく、映画におけるデジタルイメージングのためのリアリティベース・ライティングを実施するための例示的なステップのフローチャート。 本発明の実施形態を実施するための例示的なセットの斜視図。 図4Aで示したセットの平面図。 イメージベースド・ライティングで使用する例示的なパノラマを示す線図。 図5Aのパノラマからキーライティングを除去し、残りの領域を面積の等しい領域に分割した線図。 モデル化フィルライトの例示的な配置を示す。 図4Aで示したセットの例示的なモデルを示す。 フィルライトプリミティブの定義で使用するための、領域に再分割したセットモデルの表面を示す。 最大立体角により定義された領域を有するフィルライトプリミティブの概念を説明する線図。 本発明に基づく方法を実施するシステムのブロック図。

Claims (28)

  1. デジタルオブジェクトをレンダリングするためのライティングを定義する方式であって、
    各々が異なる露光で取り込んだ複数の相関する画像を含む、各々が限定された物理空間内の固有の座標に対応する画像データセットを読み取る段階と、
    各々が前記画像セットの対応する1つの画像から導き出された色情報及び輝度情報のマップを含む、複数のパノラママップを定義する段階と、
    前記複数のパノラママップから、デジタルレンダリングのためのライティングをモデル化空間の仮想座標の関数として定義するダイナミック・ライティングモデルをモデリングする段階と、
    を含み、前記モデル化空間は、前記限定された物理空間に対応し、前記仮想座標は、空間座標、時間座標、及び空間座標と時間座標との任意の組み合わせから成るグループから選択されることを特徴とする方法。
  2. 前記読み取り段階は、前記限定された物理空間内の位置を定義する前記固有の座標を読み取る段階を更に含み、前記モデリング段階は、前記モデル化空間内の異なる位置を定義する前記仮想座標の関数として前記ダイナミック・ライティングモデルを定義する段階を更に含むことを特徴とする請求項1に記載の方法。
  3. 前記読み取り段階は、選択された位置の時間を定義する前記固有の座標を読み取る段階を更に含み、前記モデリング段階は、異なる時間を定義する前記仮想座標の関数として前記ダイナミック・ライティングモデルを定義する段階を更に含むことを特徴とする請求項1に記載の方法。
  4. 前記モデリング段階は、前記ダイナミック・ライティングモデルを時間非依存関数としてモデリングする段階を更に含むことを特徴とする請求項1に記載の方法。
  5. 前記モデリング段階は、前記ダイナミック・ライティングモデルを時間依存関数としてモデリングする段階を更に含むことを特徴とする請求項1に記載の方法。
  6. 各々の画像を取り込むカメラの識別子にリンクした定義済み基準オブジェクト画像を含む画像キャリブレーション・データセットを読み取る段階を更に含むことを特徴とする請求項1に記載の方法。
  7. 前記第2の読み取り段階は、20段階グレースケール及びMacbethカラーチャートから選択された前記定義済み基準オブジェクト画像を含む前記画像キャリブレーション・データセットを読み取る段階を更に含むことを特徴とする請求項1に記載の方法。
  8. 前記定義済み基準オブジェクト画像の分析に基づいて前記限定された物理空間の複数の画像の色補正を行う段階を更に含むことを特徴とする請求項1に記載の方法。
  9. 前記定義段階は、少なくとも1台のカメラの特性を決定するために、前記定義済み基準オブジェクト画像を使って前記複数のパノラママップを定義する段階を更に含むことを特徴とする請求項1に記載の方法。
  10. 読み取り段階は、凸鏡面反射面の画像を含む前記画像データセットを読み取る段階を更に含むことを特徴とする請求項1に記載の方法。
  11. 前記モデリング段階は、少なくとも1つのモデル化キーライト及び少なくとも1つのモデル化フィルライトを含む前記ダイナミック・ライティングモデルをモデリングする段階を更に含むことを特徴とする請求項1に記載の方法。
  12. 前記モデリング段階は、レンダリングされるデジタルオブジェクトを取り囲むモデル化発光面を含む前記ダイナミック・ライティングモデルをモデリングする段階を更に含むことを特徴とする請求項1に記載の方法。
  13. 前記モデリング段階は、レンダリングされるデジタルオブジェクトと前記モデル化発光面との間の幾何学的関係に基づいて、前記モデル化発光面を表面領域に再分割する段階を更に含むことを特徴とする請求項12に記載の方法。
  14. 前記モデリング段階は、前記複数のパノラママップからオブジェクト固有のパノラマを補間する段階を更に含むことを特徴とする請求項1に記載の方法。
  15. 前記モデリング段階は、前記オブジェクト固有のパノラマから少なくとも1つのモデル化キーライト及び少なくとも1つのモデル化フィルライトを決定する段階を更に含むことを特徴とする請求項1に記載の方法。
  16. デジタルオブジェクトをレンダリングするためのライティングを定義する方法であって、
    異なる露光で取り込んだ複数の相関する画像を含む、限定された物理空間内の固有の座標に対応する画像データセットを読み取る段階と、
    前記画像セットの対応する1つの画像から導き出した色情報及び輝度情報のマップを含む少なくとも1つのパノラママップを定義する段階と、
    前記パノラママップから、デジタルレンダリングのためのライティングを少なくとも1つのモデル化キーライト及び少なくとも1つのモデル化フィルライトとして定義するライティングモデルをモデリングする段階と、
    を含む方法。
  17. デジタルオブジェクトをレンダリングするためのライティングを定義する命令を格納するコンピュータで読み取り可能な媒体であって、前記命令は、
    各々が異なる露光で取り込んだ複数の相関する画像を含み、各々が限定された物理空間内の固有の座標に対応する画像データセットを読み取る段階と、
    各々が前記画像セットの対応する1つの画像から導き出された色情報及び輝度情報のマップを含む、複数のパノラママップを定義する段階と、
    前記複数のパノラママップから、デジタルレンダリングのためのライティングをモデル化空間の仮想座標の関数として定義するダイナミック・ライティングモデルをモデリングする段階と、
    を含み、前記モデル化空間は、前記限定された物理空間に対応し、前記仮想座標は、空間座標、時間座標、及び空間座標と時間座標との任意の組み合わせから成るグループから選択されるようになっていることを特徴とするコンピュータで読み取り可能な媒体。
  18. 前記モデリング命令は、前記ダイナミック・ライティングモデルを時間非依存関数としてモデリングする段階を更に含むことを特徴とする請求項17に記載のコンピュータで読み取り可能な媒体。
  19. 前記モデリング命令は、前記ダイナミック・ライティングモデルを時間依存関数としてモデリングする段階を更に含むことを特徴とする請求項17に記載のコンピュータで読み取り可能な媒体。
  20. 各々の画像を取り込むカメラの識別子にリンクした定義済み基準オブジェクト画像を含む画像キャリブレーション・データセットを読み取る命令を更に含むことを特徴とする請求項17に記載のコンピュータで読み取り可能な媒体。
  21. 前記定義済み基準オブジェクト画像の分析に基づいて前記限定された物理空間の複数の画像の色補正を行う命令を更に含むことを特徴とする請求項20に記載のコンピュータで読み取り可能な媒体。
  22. 前記定義を行う命令は、少なくとも1台のカメラの特性を決定するために、前記定義済み基準オブジェクト画像を使って前記複数のパノラママップを定義する命令を更に含むことを特徴とする請求項20に記載のコンピュータで読み取り可能な媒体。
  23. 前記読み取りを行う命令は、凸鏡面反射面の画像を含む前記画像データセットを読み取る命令を更に含むことを特徴とする請求項17に記載のコンピュータで読み取り可能な媒体。
  24. 前記モデリングを行う命令は、少なくとも1つのモデル化キーライト及び少なくとも1つのモデル化フィルライトを含む前記ダイナミック・ライティングモデルをモデリングする命令を更に含むことを特徴とする請求項17に記載のコンピュータで読み取り可能な媒体。
  25. 前記モデリングを行う命令は、レンダリングされるデジタルオブジェクトを取り囲むモデル化発光面を含む前記ダイナミック・ライティングモデルをモデリングする命令を更に含むことを特徴とする請求項17に記載のコンピュータで読み取り可能な媒体。
  26. 前記モデリングを行う命令は、レンダリングされるデジタルオブジェクトと前記モデル化発光面との間の幾何学的関係に基づいて、前記モデル化発光面を表面領域に再分割する命令を更に含むことを特徴とする請求項25に記載のコンピュータで読み取り可能な媒体。
  27. 前記モデリング段階は、前記複数のパノラママップからオブジェクト固有のパノラマを補間する段階を更に含むことを特徴とする請求項17に記載のコンピュータで読み取り可能な媒体。
  28. 前記モデリングを行う命令は、前記オブジェクト固有のパノラマから少なくとも1つのモデル化キーライト及び少なくとも1つのモデル化フィルライトを決定する段階を更に含むことを特徴とする請求項27に記載のコンピュータで読み取り可能な媒体。
JP2004553886A 2002-11-15 2003-11-17 映画におけるデジタルイメージング用のリアリティベースのライト環境 Expired - Lifetime JP4220470B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US42656002P 2002-11-15 2002-11-15
PCT/US2003/036839 WO2004047426A2 (en) 2002-11-15 2003-11-17 Reality-based light environment for digital imaging in motion pictures

Publications (2)

Publication Number Publication Date
JP2006506745A true JP2006506745A (ja) 2006-02-23
JP4220470B2 JP4220470B2 (ja) 2009-02-04

Family

ID=32326376

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2004553886A Expired - Lifetime JP4220470B2 (ja) 2002-11-15 2003-11-17 映画におけるデジタルイメージング用のリアリティベースのライト環境
JP2004553822A Pending JP2006507585A (ja) 2002-11-15 2003-11-17 デジタルモデリング用のリバースレンダリング法
JP2004553826A Expired - Fee Related JP4276178B2 (ja) 2002-11-15 2003-11-17 皮膚又は類似物をデジタル式にレンダリングする方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2004553822A Pending JP2006507585A (ja) 2002-11-15 2003-11-17 デジタルモデリング用のリバースレンダリング法
JP2004553826A Expired - Fee Related JP4276178B2 (ja) 2002-11-15 2003-11-17 皮膚又は類似物をデジタル式にレンダリングする方法

Country Status (5)

Country Link
US (6) US7079137B2 (ja)
EP (3) EP1565872A4 (ja)
JP (3) JP4220470B2 (ja)
AU (3) AU2003298666A1 (ja)
WO (3) WO2004047426A2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090109511A (ko) * 2008-04-15 2009-10-20 한국전자통신연구원 물리 기반 시뮬레이션 방법
JP2010510572A (ja) * 2006-11-20 2010-04-02 トムソン ライセンシング ライトのモデリングのための方法およびシステム
JP2018151793A (ja) * 2017-03-10 2018-09-27 株式会社リコー プログラム、情報処理装置
JP2020024671A (ja) * 2018-08-01 2020-02-13 東芝ライテック株式会社 生成装置、生成方法および生成プログラム
JP2020030864A (ja) * 2016-06-16 2020-02-27 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置

Families Citing this family (147)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1074943A3 (en) * 1999-08-06 2004-03-24 Canon Kabushiki Kaisha Image processing method and apparatus
US7342489B1 (en) 2001-09-06 2008-03-11 Siemens Schweiz Ag Surveillance system control unit
US7239345B1 (en) * 2001-10-12 2007-07-03 Worldscape, Inc. Camera arrangements with backlighting detection and methods of using same
GB2393887B (en) * 2002-10-04 2005-10-26 Criterion Software Ltd Three-dimensional computer graphics
JP3962676B2 (ja) * 2002-11-29 2007-08-22 キヤノン株式会社 画像処理方法及び装置
US7050078B2 (en) * 2002-12-19 2006-05-23 Accenture Global Services Gmbh Arbitrary object tracking augmented reality applications
US7714858B2 (en) * 2003-04-18 2010-05-11 Hewlett-Packard Development Company, L.P. Distributed rendering of interactive soft shadows
US7787692B2 (en) * 2003-09-25 2010-08-31 Fujifilm Corporation Image processing apparatus, image processing method, shape diagnostic apparatus, shape diagnostic method and program
FR2861857B1 (fr) * 2003-10-29 2006-01-20 Snecma Moteurs Deplacement d'un objet articule virtuel dans un environnement virtuel en evitant les collisions internes entre les elements articules de l'objet articule
FR2861858B1 (fr) * 2003-10-29 2014-09-05 Snecma Moteurs Deplacement d'un objet articule virtuel dans un environnement virtuel en evitant les collisions entre l'objet articule et l'environnement
GB2410639A (en) * 2004-01-30 2005-08-03 Hewlett Packard Development Co Viewfinder alteration for panoramic imaging
JP4692956B2 (ja) * 2004-11-22 2011-06-01 株式会社ソニー・コンピュータエンタテインメント 描画処理装置および描画処理方法
KR100609145B1 (ko) * 2004-12-20 2006-08-08 한국전자통신연구원 실시간 전역조명 효과를 위한 렌더링 장치 및 그 방법
EP1686531B1 (en) * 2005-01-27 2018-04-25 QUALCOMM Incorporated A method, a software product and an electronic device for generating an image composition
US8606383B2 (en) * 2005-01-31 2013-12-10 The Invention Science Fund I, Llc Audio sharing
US9124729B2 (en) 2005-01-31 2015-09-01 The Invention Science Fund I, Llc Shared image device synchronization or designation
US9489717B2 (en) 2005-01-31 2016-11-08 Invention Science Fund I, Llc Shared image device
US9910341B2 (en) 2005-01-31 2018-03-06 The Invention Science Fund I, Llc Shared image device designation
US20060170956A1 (en) 2005-01-31 2006-08-03 Jung Edward K Shared image devices
US20060221197A1 (en) * 2005-03-30 2006-10-05 Jung Edward K Image transformation estimator of an imaging device
US8902320B2 (en) 2005-01-31 2014-12-02 The Invention Science Fund I, Llc Shared image device synchronization or designation
US9082456B2 (en) 2005-01-31 2015-07-14 The Invention Science Fund I Llc Shared image device designation
US8223845B1 (en) 2005-03-16 2012-07-17 Apple Inc. Multithread processing of video frames
US7710423B2 (en) * 2005-03-21 2010-05-04 Microsoft Corproation Automatic layout of items along an embedded one-manifold path
WO2006102599A2 (en) * 2005-03-23 2006-09-28 Electronic Arts Inc. Computer simulation of body dynamics including a solver that solves in linear time for a set of constraints
KR101199498B1 (ko) 2005-03-31 2012-11-09 삼성전자주식회사 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이기록된 기록 매체
US20060274070A1 (en) * 2005-04-19 2006-12-07 Herman Daniel L Techniques and workflows for computer graphics animation system
US8345252B2 (en) * 2005-04-25 2013-01-01 X-Rite, Inc. Method and system for enhanced formulation and visualization rendering
US9621749B2 (en) 2005-06-02 2017-04-11 Invention Science Fund I, Llc Capturing selected image objects
US8681225B2 (en) 2005-06-02 2014-03-25 Royce A. Levien Storage access technique for captured data
US9191611B2 (en) 2005-06-02 2015-11-17 Invention Science Fund I, Llc Conditional alteration of a saved image
US10003762B2 (en) 2005-04-26 2018-06-19 Invention Science Fund I, Llc Shared image devices
US9451200B2 (en) 2005-06-02 2016-09-20 Invention Science Fund I, Llc Storage access technique for captured data
US9093121B2 (en) 2006-02-28 2015-07-28 The Invention Science Fund I, Llc Data management of an audio data stream
US9076208B2 (en) * 2006-02-28 2015-07-07 The Invention Science Fund I, Llc Imagery processing
US9967424B2 (en) 2005-06-02 2018-05-08 Invention Science Fund I, Llc Data storage usage protocol
US8964054B2 (en) 2006-08-18 2015-02-24 The Invention Science Fund I, Llc Capturing selected image objects
US9819490B2 (en) 2005-05-04 2017-11-14 Invention Science Fund I, Llc Regional proximity for shared image device(s)
US9001215B2 (en) 2005-06-02 2015-04-07 The Invention Science Fund I, Llc Estimating shared image device operational capabilities or resources
US9167195B2 (en) 2005-10-31 2015-10-20 Invention Science Fund I, Llc Preservation/degradation of video/audio aspects of a data stream
US9942511B2 (en) 2005-10-31 2018-04-10 Invention Science Fund I, Llc Preservation/degradation of video/audio aspects of a data stream
JP5186364B2 (ja) * 2005-05-12 2013-04-17 テネブラックス コーポレイション 改善された仮想ウィンドウ作成方法
US20060274068A1 (en) * 2005-06-06 2006-12-07 Electronic Arts Inc. Adaptive contact based skeleton for animation of characters in video games
US7573477B2 (en) * 2005-06-17 2009-08-11 Honda Motor Co., Ltd. System and method for activation-driven muscle deformations for existing character motion
US7403202B1 (en) * 2005-07-12 2008-07-22 Electronic Arts, Inc. Computer animation of simulated characters using combinations of motion-capture data and external force modelling or other physics models
US20070120980A1 (en) 2005-10-31 2007-05-31 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Preservation/degradation of video/audio aspects of a data stream
US20070273711A1 (en) * 2005-11-17 2007-11-29 Maffei Kenneth C 3D graphics system and method
CA2632678A1 (en) * 2005-12-16 2007-06-21 Joshua Pines Method, apparatus and system for providing reproducible digital imagery products
US7623137B1 (en) * 2006-02-15 2009-11-24 Adobe Systems, Incorporated Successive-convolution-compositing technique for rendering translucent surfaces
US7589724B1 (en) 2006-02-15 2009-09-15 Adobe Systems, Incorporated Successive-convolution-compositing technique for rendering soft shadows
US7411688B1 (en) 2006-03-17 2008-08-12 Arius3D Inc. Method and system for laser intensity calibration in a three-dimensional multi-color laser scanning system
US20070242141A1 (en) * 2006-04-14 2007-10-18 Sony Corporation And Sony Electronics Inc. Adjustable neutral density filter system for dynamic range compression from scene to imaging sensor
US8633927B2 (en) 2006-07-25 2014-01-21 Nvidia Corporation Re-render acceleration of frame with lighting change
US8115774B2 (en) * 2006-07-28 2012-02-14 Sony Computer Entertainment America Llc Application of selective regions of a normal map based on joint position in a three-dimensional model
US8446509B2 (en) * 2006-08-09 2013-05-21 Tenebraex Corporation Methods of creating a virtual window
GB0616685D0 (en) * 2006-08-23 2006-10-04 Warwick Warp Ltd Retrospective shading approximation from 2D and 3D imagery
US8739137B2 (en) 2006-10-19 2014-05-27 Purdue Research Foundation Automatic derivative method for a computer programming language
US8281299B2 (en) 2006-11-10 2012-10-02 Purdue Research Foundation Map-closure: a general purpose mechanism for nonstandard interpretation
US8094182B2 (en) * 2006-11-16 2012-01-10 Imove, Inc. Distributed video sensor panoramic imaging system
JP4808600B2 (ja) * 2006-11-22 2011-11-02 デジタルファッション株式会社 レンダリングプログラム、レンダリング装置、及びレンダリング方法
JP4842242B2 (ja) * 2006-12-02 2011-12-21 韓國電子通信研究院 キャラクタアニメーション時の皮膚のしわのリアルタイム表現方法及び装置
US9767599B2 (en) * 2006-12-29 2017-09-19 X-Rite Inc. Surface appearance simulation
US20080178087A1 (en) * 2007-01-19 2008-07-24 Microsoft Corporation In-Scene Editing of Image Sequences
EP2122577B1 (en) * 2007-01-24 2018-03-07 Swiftfoot Graphics Ab Method, display adapter and computer program product for improved graphics performance by using a replaceable culling program
KR100967701B1 (ko) * 2007-02-26 2010-07-07 한국외국어대학교 연구산학협력단 3차원 유화 데이터의 복원
US20080320126A1 (en) * 2007-06-25 2008-12-25 Microsoft Corporation Environment sensing for interactive entertainment
US7929142B2 (en) * 2007-09-25 2011-04-19 Microsoft Corporation Photodiode-based bi-directional reflectance distribution function (BRDF) measurement
US20090079758A1 (en) * 2007-09-25 2009-03-26 Max-Planck-Gesellschaft Zur Forderung Per Wissenschaften E.V. Method and device for generating shadow maps
US8310481B2 (en) * 2007-10-12 2012-11-13 Edward Ernest Bailey Computer aided design method for enhancement of local refinement through T-splines
US8159490B2 (en) * 2007-10-16 2012-04-17 Dreamworks Animation Llc Shading of translucent objects
JP5551075B2 (ja) * 2007-11-16 2014-07-16 テネブラックス コーポレイション 仮想ウィンドウを生成するシステムおよび方法
US20090290033A1 (en) * 2007-11-16 2009-11-26 Tenebraex Corporation Systems and methods of creating a virtual window
US8791984B2 (en) * 2007-11-16 2014-07-29 Scallop Imaging, Llc Digital security camera
KR100901270B1 (ko) * 2007-12-15 2009-06-09 한국전자통신연구원 표면 질감 표현 시스템 및 방법
US20090172756A1 (en) * 2007-12-31 2009-07-02 Motorola, Inc. Lighting analysis and recommender system for video telephony
US8509569B2 (en) * 2008-02-11 2013-08-13 Apple Inc. Optimization of image processing using multiple processing units
US8243071B2 (en) * 2008-02-29 2012-08-14 Microsoft Corporation Modeling and rendering of heterogeneous translucent materials using the diffusion equation
US9098647B2 (en) 2008-03-10 2015-08-04 Apple Inc. Dynamic viewing of a three dimensional space
US8350850B2 (en) * 2008-03-31 2013-01-08 Microsoft Corporation Using photo collections for three dimensional modeling
IL190539A (en) * 2008-03-31 2015-01-29 Rafael Advanced Defense Sys A method of transferring points of interest between simulations with unequal viewpoints
US7937245B2 (en) * 2008-04-02 2011-05-03 Dreamworks Animation Llc Rendering of subsurface scattering effects in translucent objects
US8239822B2 (en) * 2008-04-18 2012-08-07 Microsoft Corp. Symbolic forward and reverse differentiation
US8238651B2 (en) * 2008-06-05 2012-08-07 Microsoft Corporation Image-guided abstraction of building facades
US9619917B2 (en) * 2008-10-03 2017-04-11 Apple Inc. Depth of field for a camera in a media-editing application
US8791951B2 (en) * 2008-12-01 2014-07-29 Electronics And Telecommunications Research Institute Image synthesis apparatus and method supporting measured materials properties
US9098926B2 (en) 2009-02-06 2015-08-04 The Hong Kong University Of Science And Technology Generating three-dimensional façade models from images
WO2010088840A1 (en) 2009-02-06 2010-08-12 The Hong Kong University Of Science And Technology Generating three-dimensional models from images
US9098945B2 (en) * 2009-05-01 2015-08-04 Microsoft Technology Licensing, Llc Modeling anisotropic surface reflectance with microfacet synthesis
US8553040B2 (en) * 2009-06-30 2013-10-08 Apple Inc. Fingerprinting of fragment shaders and use of same to perform shader concatenation
WO2011037964A1 (en) * 2009-09-22 2011-03-31 Tenebraex Corporation Systems and methods for correcting images in a multi-sensor system
US8860731B1 (en) * 2009-12-21 2014-10-14 Lucasfilm Entertainment Company Ltd. Refining animation
CN101872491B (zh) * 2010-05-21 2011-12-28 清华大学 基于光度立体的自由视角重光照方法和系统
KR101633377B1 (ko) * 2010-06-18 2016-07-08 삼성전자주식회사 다중 노출에 의한 프레임 처리 방법 및 장치
US8928659B2 (en) * 2010-06-23 2015-01-06 Microsoft Corporation Telepresence systems with viewer perspective adjustment
CN103155004B (zh) * 2010-09-01 2016-05-18 玛斯柯有限公司 通过图像渲染来演示照明方案的设备、系统和方法
KR101194364B1 (ko) * 2011-07-14 2012-10-25 광주과학기술원 외관 재질 디자인 및 제작 방법 및 시스템
DE102011079380A1 (de) * 2011-07-19 2013-01-24 Siemens Aktiengesellschaft Verfahren, Computerprogramm und System zur computergestützten Auswertung von Bilddatensätzen
US8913065B2 (en) * 2011-08-05 2014-12-16 Jeffrey McCartney Computer system for animating 3D models using offset transforms
JP6049327B2 (ja) 2011-08-11 2016-12-21 キヤノン株式会社 画像処理装置およびその制御方法
US9250966B2 (en) * 2011-08-11 2016-02-02 Otoy, Inc. Crowd-sourced video rendering system
JP2013127774A (ja) * 2011-11-16 2013-06-27 Canon Inc 画像処理装置、画像処理方法及びプログラム
US9183654B2 (en) * 2012-03-02 2015-11-10 Sean Geggie Live editing and integrated control of image-based lighting of 3D models
CN103327221B (zh) * 2012-03-20 2016-12-14 华晶科技股份有限公司 摄像装置及其影像预览系统及影像预览方法
GB2500405B (en) 2012-03-20 2014-04-16 Lightmap Ltd Point and click lighting for image based lighting surfaces
TWI520604B (zh) * 2012-03-20 2016-02-01 華晶科技股份有限公司 攝像裝置及其影像預覽系統及影像預覽方法
US8416240B1 (en) * 2012-04-02 2013-04-09 Google Inc. Determining 3D model information from stored images
EP2880636B1 (en) * 2012-08-03 2022-01-05 DreamWorks Animation LLC Constraint evaluation in directed acyclic graphs
US20140067869A1 (en) 2012-08-30 2014-03-06 Atheer, Inc. Method and apparatus for content association and history tracking in virtual and augmented reality
US20140078144A1 (en) * 2012-09-14 2014-03-20 Squee, Inc. Systems and methods for avatar creation
US9947132B2 (en) * 2013-03-15 2018-04-17 Nvidia Corporation Material representation data structure and method of representing a material for digital image synthesis
EP2984521A4 (en) 2013-04-11 2016-10-19 De Roer Carlo Van SYSTEM AND METHOD FOR PRODUCING VIRTUAL LIGHT SOURCE MOTION IN CINEMATOGRAPHIC FILM AND OTHER MEDIA
JPWO2015045501A1 (ja) * 2013-09-27 2017-03-09 日立オートモティブシステムズ株式会社 外界認識装置
US20160296768A1 (en) 2013-11-22 2016-10-13 Sonify Biosciences, Llc System for skin cancer treatment using low intensity ultrasound
US9509905B2 (en) * 2013-12-17 2016-11-29 Google Inc. Extraction and representation of three-dimensional (3D) and bidirectional reflectance distribution function (BRDF) parameters from lighted image sequences
US9600904B2 (en) 2013-12-30 2017-03-21 Samsung Electronics Co., Ltd. Illuminating a virtual environment with camera light data
US9648699B2 (en) 2014-03-03 2017-05-09 LiveLocation, Inc. Automatic control of location-registered lighting according to a live reference lighting environment
JP6410451B2 (ja) * 2014-03-31 2018-10-24 キヤノン株式会社 情報処理装置、計測システム、情報処理方法およびプログラム。
US10169909B2 (en) * 2014-08-07 2019-01-01 Pixar Generating a volumetric projection for an object
US9767620B2 (en) 2014-11-26 2017-09-19 Restoration Robotics, Inc. Gesture-based editing of 3D models for hair transplantation applications
US10133830B2 (en) * 2015-01-30 2018-11-20 Hover Inc. Scaling in a multi-dimensional building model
FR3034233B1 (fr) * 2015-03-25 2018-08-10 Morpho Procede de correction d'une image d'au moins un objet presente a distance devant un imageur et eclaire par un systeme d'eclairage et systeme de prise de vues pour la mise en œuvre dudit procede
US11432046B1 (en) 2015-06-12 2022-08-30 Veepio Holdings, Llc Interactive, personalized objects in content creator's media with e-commerce link associated therewith
US10672417B2 (en) * 2015-10-29 2020-06-02 True Image Interactive, Inc. Systems and methods for machine-generated avatars
JP6792335B2 (ja) 2016-01-19 2020-11-25 キヤノン株式会社 画像処理装置およびその方法
US10489968B1 (en) 2016-09-14 2019-11-26 Musco Corporation Apparatus, method, and system for three-dimensional (3D) visualization of light for evaluation of playability, glare, and gaps
US10594995B2 (en) * 2016-12-13 2020-03-17 Buf Canada Inc. Image capture and display on a dome for chroma keying
EP3336801A1 (en) * 2016-12-19 2018-06-20 Thomson Licensing Method and apparatus for constructing lighting environment representations of 3d scenes
EP3351899B1 (en) * 2017-01-24 2020-06-17 Leica Geosystems AG Method and device for inpainting of colourised three-dimensional point clouds
US11057643B2 (en) * 2017-03-13 2021-07-06 Mediatek Inc. Method and apparatus for generating and encoding projection-based frame that includes at least one padding region and at least one projection face packed in 360-degree virtual reality projection layout
US11004173B2 (en) 2017-03-13 2021-05-11 Mediatek Inc. Method for processing projection-based frame that includes at least one projection face packed in 360-degree virtual reality projection layout
CN110506291B (zh) 2017-04-05 2021-05-14 联发科技股份有限公司 一种视频处理方法和装置
US10181199B2 (en) * 2017-05-08 2019-01-15 Adobe Systems Incorporated Material capture using imaging
KR102149180B1 (ko) * 2017-07-07 2020-08-28 한국전자통신연구원 증강현실을 위한 가상 콘텐츠 합성 방법 및 이를 위한 장치
DE112018002432T5 (de) 2017-08-18 2020-01-23 Mediatek Inc. Verfahren und Vorrichtung zum Reduzieren von Artefakten in einem projektionsbasierten Rahmen
KR102107706B1 (ko) * 2017-10-31 2020-05-07 에스케이텔레콤 주식회사 영상 처리 방법 및 장치
CN109147023A (zh) * 2018-07-27 2019-01-04 北京微播视界科技有限公司 基于人脸的三维特效生成方法、装置和电子设备
CN109587557B (zh) * 2019-01-11 2022-03-08 京东方科技集团股份有限公司 数据传输方法及装置、显示装置
US10986308B2 (en) * 2019-03-20 2021-04-20 Adobe Inc. Intelligent video reframing
US10949646B2 (en) 2019-04-30 2021-03-16 Samsung Electronics Co., Ltd. Performing an iterative bundle adjustment for an imaging device
EP3764249A1 (en) * 2019-07-08 2021-01-13 Dmitri Goloubentsev A streaming compiler for automatic adjoint differentiation
GB2586060B (en) * 2019-08-01 2022-09-21 Sony Interactive Entertainment Inc Surface characterisation apparatus and system
CN110930483B (zh) * 2019-11-20 2020-11-24 腾讯科技(深圳)有限公司 一种角色控制的方法、模型训练的方法以及相关装置
US11461968B2 (en) * 2020-01-30 2022-10-04 Unity Technologies Sf Method of inferring microdetail on skin animation
US11620765B2 (en) * 2020-07-02 2023-04-04 Unity Technologies Sf Automatic detection of a calibration object for modifying image parameters
CN111815768B (zh) * 2020-09-14 2020-12-18 腾讯科技(深圳)有限公司 三维人脸重建方法和装置
CN113034662B (zh) * 2021-03-29 2023-03-31 网易(杭州)网络有限公司 虚拟场景渲染方法、装置、存储介质及电子设备
KR102555166B1 (ko) * 2022-10-04 2023-07-12 인하대학교 산학협력단 매우 미세한 얼굴 피부 정보를 포함하는 얼굴 텍스처 생성 방법 및 시스템

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0773339A (ja) * 1993-09-03 1995-03-17 Sharp Corp 光源輝度算出装置
JPH08221594A (ja) * 1994-12-13 1996-08-30 Fujitsu Ltd ラジオシティ法を用いる描画方法および装置
JPH1075458A (ja) * 1996-08-30 1998-03-17 Sony Corp 撮像装置における色補正装置
JPH11175762A (ja) * 1997-12-08 1999-07-02 Katsushi Ikeuchi 光環境計測装置とそれを利用した仮想画像への陰影付与装置及び方法
JP2000300842A (ja) * 1999-04-19 2000-10-31 Namco Ltd ゲーム装置、画像データ作成ツール及び情報記憶媒体
JP2001078230A (ja) * 1999-08-31 2001-03-23 Mixed Reality Systems Laboratory Inc 複合現実感提示装置、その方法およびプログラム記憶媒体
JP2002152719A (ja) * 2000-08-29 2002-05-24 Usc Corp 曲面像を利用したモニタ方法及びモニタ装置
JP2002163670A (ja) * 2000-11-24 2002-06-07 Mixed Reality Systems Laboratory Inc 複合現実感提示装置及びその制御方法
JP2002271814A (ja) * 2001-03-07 2002-09-20 Mixed Reality Systems Laboratory Inc 画像再生装置及び画像処理装置とそれらの方法

Family Cites Families (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4645459A (en) * 1982-07-30 1987-02-24 Honeywell Inc. Computer generated synthesized imagery
JPH0743765B2 (ja) 1987-10-20 1995-05-15 富士写真フイルム株式会社 放射線画像処理方法および装置
CA1316591C (en) 1987-10-20 1993-04-20 Kazuhiro Hishinuma Method and apparatus for radiation image processing and x-ray image processing
US5191406A (en) * 1990-04-20 1993-03-02 Nikon Corporation Method and apparatus for rapid scanning of color images
US5625577A (en) * 1990-12-25 1997-04-29 Shukyohojin, Kongo Zen Sohonzan Shorinji Computer-implemented motion analysis method using dynamics
US5586224A (en) * 1990-12-25 1996-12-17 Shukyohojin, Kongo Zen Sohonzan Shorinji Robot or numerical control programming method
US5623428A (en) * 1990-12-25 1997-04-22 Shukyohoji, Kongo Zen Sohozan Shoriji Method for developing computer animation
WO1993025355A1 (en) * 1992-06-05 1993-12-23 Fujitsu Limited Simulation method for manipulator and apparatus therefor, simulation and control method for manipulator and apparatus therefor, and control method for manipulator and apparatus therefor
US5739820A (en) * 1992-11-19 1998-04-14 Apple Computer Inc. Method and apparatus for specular reflection shading of computer graphic images
US5499306A (en) 1993-03-08 1996-03-12 Nippondenso Co., Ltd. Position-and-attitude recognition method and apparatus by use of image pickup means
US5490240A (en) 1993-07-09 1996-02-06 Silicon Graphics, Inc. System and method of generating interactive computer graphic images incorporating three dimensional textures
US5403238A (en) * 1993-08-19 1995-04-04 The Walt Disney Company Amusement park attraction
US5546475A (en) * 1994-04-29 1996-08-13 International Business Machines Corporation Produce recognition system
US5600763A (en) * 1994-07-21 1997-02-04 Apple Computer, Inc. Error-bounded antialiased rendering of complex scenes
CA2118201C (en) * 1994-10-14 2003-02-04 Patrick M. Hayden Photon windowing kernel
GB9501832D0 (en) 1995-01-31 1995-03-22 Videologic Ltd Texturing and shading of 3-d images
IL113496A (en) * 1995-04-25 1999-09-22 Cognitens Ltd Apparatus and method for recreating and manipulating a 3d object based on a 2d projection thereof
US5982389A (en) * 1996-06-17 1999-11-09 Microsoft Corporation Generating optimized motion transitions for computer animated objects
US5966134A (en) * 1996-06-28 1999-10-12 Softimage Simulating cel animation and shading
DE69736622T2 (de) * 1996-07-03 2007-09-13 Hitachi, Ltd. System zur Bewegungserkennung
GB9616262D0 (en) 1996-08-02 1996-09-11 Philips Electronics Nv Post-processing generation of focus/defocus effects for computer graphics images
US5748792A (en) * 1996-08-13 1998-05-05 Polaroid Corporation Large kernel filtering using a fixed-size block processor
US6104412A (en) * 1996-08-21 2000-08-15 Nippon Telegraph And Telephone Corporation Method for generating animations of a multi-articulated structure, recording medium having recorded thereon the same and animation generating apparatus using the same
US6246420B1 (en) * 1996-10-11 2001-06-12 Matsushita Electric Industrial Co., Ltd. Movement data connecting method and apparatus therefor
US6078332A (en) 1997-01-28 2000-06-20 Silicon Graphics, Inc. Real-time lighting method using 3D texture mapping
US6052124A (en) * 1997-02-03 2000-04-18 Yissum Research Development Company System and method for directly estimating three-dimensional structure of objects in a scene and camera motion from three two-dimensional views of the scene
US5894309A (en) * 1997-02-27 1999-04-13 Mitsubishi Electric Information Technology Center America, Inc. System for modifying lighting in photographs
US6310644B1 (en) * 1997-03-26 2001-10-30 3Dm Devices Inc. Camera theodolite system
US6088042A (en) * 1997-03-31 2000-07-11 Katrix, Inc. Interactive motion data animation system
US6057859A (en) * 1997-03-31 2000-05-02 Katrix, Inc. Limb coordination system for interactive computer animation of articulated characters with blended motion data
US6184899B1 (en) * 1997-03-31 2001-02-06 Treyarch Invention, L.L.C. Articulated figure animation using virtual actuators to simulate solutions for differential equations to display more realistic movements
US6124864A (en) * 1997-04-07 2000-09-26 Synapix, Inc. Adaptive modeling and segmentation of visual image streams
US6160907A (en) * 1997-04-07 2000-12-12 Synapix, Inc. Iterative three-dimensional process for creating finished media content
US6097394A (en) * 1997-04-28 2000-08-01 Board Of Trustees, Leland Stanford, Jr. University Method and system for light field rendering
JP3747589B2 (ja) 1997-09-17 2006-02-22 コニカミノルタビジネステクノロジーズ株式会社 画像特徴量比較装置および画像特徴量比較プログラムを記録した記録媒体
US6166744A (en) * 1997-11-26 2000-12-26 Pathfinder Systems, Inc. System for combining virtual images with real-world scenes
JP3688879B2 (ja) * 1998-01-30 2005-08-31 株式会社東芝 画像認識装置、画像認識方法及びその記録媒体
US6148113A (en) * 1998-02-03 2000-11-14 Micrografx, Inc. System for stimulating the depth of field of an image in two dimensional space and method of operation
US6272231B1 (en) * 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
US5974168A (en) * 1998-04-16 1999-10-26 International Business Machines Corporation Acquiring bump maps from curved objects
US6333749B1 (en) * 1998-04-17 2001-12-25 Adobe Systems, Inc. Method and apparatus for image assisted modeling of three-dimensional scenes
US6137491A (en) * 1998-06-05 2000-10-24 Microsoft Corporation Method and apparatus for reconstructing geometry using geometrically constrained structure from motion with points on planes
US6271855B1 (en) * 1998-06-18 2001-08-07 Microsoft Corporation Interactive construction of 3D models from panoramic images employing hard and soft constraint characterization and decomposing techniques
US6628830B1 (en) 1998-06-24 2003-09-30 Canon Kabushiki Kaisha Image processing method and apparatus and storage medium
US6628298B1 (en) * 1998-07-17 2003-09-30 The Regents Of The University Of California Apparatus and method for rendering synthetic objects into real scenes using measurements of scene illumination
KR20010015674A (ko) * 1998-07-30 2001-02-26 마츠시타 덴끼 산교 가부시키가이샤 동화상 합성장치
US6373496B1 (en) 1998-08-12 2002-04-16 S3 Graphics Co., Ltd. Apparatus and method for texture mapping
US6342887B1 (en) * 1998-11-18 2002-01-29 Earl Robert Munroe Method and apparatus for reproducing lighting effects in computer animated objects
US6278460B1 (en) * 1998-12-15 2001-08-21 Point Cloud, Inc. Creating a three-dimensional model from two-dimensional images
CA2259882A1 (en) * 1999-01-22 2000-07-22 I.S.G. Technologies, Inc. Interactive sculpting for volumetric exploration and feature extraction
US6496597B1 (en) 1999-03-03 2002-12-17 Autodesk Canada Inc. Generating image data
US6313842B1 (en) * 1999-03-03 2001-11-06 Discreet Logic Inc. Generating image data
US6362822B1 (en) * 1999-03-12 2002-03-26 Terminal Reality, Inc. Lighting and shadowing methods and arrangements for use in computer graphic simulations
US6400848B1 (en) * 1999-03-30 2002-06-04 Eastman Kodak Company Method for modifying the perspective of a digital image
US6483514B1 (en) * 1999-04-15 2002-11-19 Pixar Animation Studios Motion blurring implicit surfaces
US6552731B1 (en) * 1999-04-16 2003-04-22 Avid Technology, Inc. Multi-tone representation of a digital image on a digital nonlinear editing system
US6297834B1 (en) 1999-06-10 2001-10-02 Hewlett-Packard Company Direction-dependent texture maps in a graphics system
US6571024B1 (en) 1999-06-18 2003-05-27 Sarnoff Corporation Method and apparatus for multi-view three dimensional estimation
US6504538B1 (en) 1999-07-01 2003-01-07 Microsoft Corporation Method and system for generating light values for a set of vertices
US6373487B1 (en) * 1999-09-17 2002-04-16 Hewlett-Packard Company Methods and apparatus for constructing a 3D model of a scene from calibrated images of the scene
FR2799022B1 (fr) * 1999-09-29 2002-02-01 Oreal Dispositif d'aide au maquillage et ensemble constitue d'un tel dispositif et d'un dispositif permettant de delivrer un produit ayant une brdf predeterminee, selectionne par le dispositif d'aide au maquillage
US6694064B1 (en) * 1999-11-19 2004-02-17 Positive Systems, Inc. Digital aerial image mosaic method and apparatus
US20020122589A1 (en) * 1999-11-29 2002-09-05 Donald M. Reiman Constructing profiles to compensate for non-linearities in image capture
US6765574B1 (en) * 1999-12-23 2004-07-20 Intel Corporation Methods of hierarchical static scene simplification and polygon budgeting for 3D models
US6515674B1 (en) 2000-03-17 2003-02-04 Hewlett-Packard Company Apparatus for and of rendering 3d objects with parametric texture maps
US6750866B1 (en) * 2000-04-21 2004-06-15 Realistic Dynamics, Inc. Method and system for dynamically filtering the motion of articulated bodies
US6564108B1 (en) * 2000-06-07 2003-05-13 The Delfin Project, Inc. Method and system of auxiliary illumination for enhancing a scene during a multimedia presentation
US6750873B1 (en) * 2000-06-27 2004-06-15 International Business Machines Corporation High quality texture reconstruction from multiple scans
EP1323013A2 (en) * 2000-08-24 2003-07-02 Immersive Technologies LLC Computerized image system
US6765573B2 (en) 2000-10-26 2004-07-20 Square Enix Co., Ltd. Surface shading using stored texture map based on bidirectional reflectance distribution function
EP1344612B1 (en) * 2000-11-17 2011-01-05 Sony Corporation Device and method for controlling motion of legged mobile robot, and motion unit generating method for legged mobile robot
US6941028B2 (en) * 2001-04-30 2005-09-06 Hewlett-Packard Development Company, L.P. System and method for image enhancement, dynamic range compensation and illumination correction
US6639594B2 (en) * 2001-06-03 2003-10-28 Microsoft Corporation View-dependent image synthesis
US6685326B2 (en) * 2001-06-08 2004-02-03 University Of Southern California Realistic scene lighting simulation
US7106325B2 (en) * 2001-08-03 2006-09-12 Hewlett-Packard Development Company, L.P. System and method for rendering digital images having surface reflectance properties
US6961058B2 (en) * 2001-08-10 2005-11-01 Microsoft Corporation Macrostructure modeling with microstructure reflectance slices
US6538396B1 (en) * 2001-09-24 2003-03-25 Ultimatte Corporation Automatic foreground lighting effects in a composited scene
JP4443083B2 (ja) 2001-10-09 2010-03-31 株式会社バンダイナムコゲームス 画像生成システム及び情報記憶媒体
US7215813B2 (en) * 2001-12-03 2007-05-08 Apple Computer, Inc. Method and apparatus for color correction
US7221809B2 (en) * 2001-12-17 2007-05-22 Genex Technologies, Inc. Face recognition system and method
US20030202120A1 (en) 2002-04-05 2003-10-30 Mack Newton Eliot Virtual lighting system
US7009608B2 (en) * 2002-06-06 2006-03-07 Nvidia Corporation System and method of using multiple representations per object in computer graphics
US7075534B2 (en) * 2002-06-21 2006-07-11 Forrester Hardenbergh Cole Method and system for automatically generating factored approximations for arbitrary bidirectional reflectance distribution functions
KR100483806B1 (ko) * 2002-07-18 2005-04-20 한국과학기술원 예제동작을 이용한 영상기반 동작복원방법
JP3972784B2 (ja) * 2002-09-30 2007-09-05 ソニー株式会社 画像処理装置およびその方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0773339A (ja) * 1993-09-03 1995-03-17 Sharp Corp 光源輝度算出装置
JPH08221594A (ja) * 1994-12-13 1996-08-30 Fujitsu Ltd ラジオシティ法を用いる描画方法および装置
JPH1075458A (ja) * 1996-08-30 1998-03-17 Sony Corp 撮像装置における色補正装置
JPH11175762A (ja) * 1997-12-08 1999-07-02 Katsushi Ikeuchi 光環境計測装置とそれを利用した仮想画像への陰影付与装置及び方法
JP2000300842A (ja) * 1999-04-19 2000-10-31 Namco Ltd ゲーム装置、画像データ作成ツール及び情報記憶媒体
JP2001078230A (ja) * 1999-08-31 2001-03-23 Mixed Reality Systems Laboratory Inc 複合現実感提示装置、その方法およびプログラム記憶媒体
JP2002152719A (ja) * 2000-08-29 2002-05-24 Usc Corp 曲面像を利用したモニタ方法及びモニタ装置
JP2002163670A (ja) * 2000-11-24 2002-06-07 Mixed Reality Systems Laboratory Inc 複合現実感提示装置及びその制御方法
JP2002271814A (ja) * 2001-03-07 2002-09-20 Mixed Reality Systems Laboratory Inc 画像再生装置及び画像処理装置とそれらの方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010510572A (ja) * 2006-11-20 2010-04-02 トムソン ライセンシング ライトのモデリングのための方法およびシステム
US8466917B2 (en) 2006-11-20 2013-06-18 Thomson Licensing Method and system for modeling light
KR20090109511A (ko) * 2008-04-15 2009-10-20 한국전자통신연구원 물리 기반 시뮬레이션 방법
KR101687786B1 (ko) * 2008-04-15 2016-12-20 한국전자통신연구원 물리 기반 시뮬레이션 방법
JP2020030864A (ja) * 2016-06-16 2020-02-27 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置
JP7007348B2 (ja) 2016-06-16 2022-02-10 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置
JP2018151793A (ja) * 2017-03-10 2018-09-27 株式会社リコー プログラム、情報処理装置
JP2020024671A (ja) * 2018-08-01 2020-02-13 東芝ライテック株式会社 生成装置、生成方法および生成プログラム
JP7328651B2 (ja) 2018-08-01 2023-08-17 東芝ライテック株式会社 生成装置、生成方法および生成プログラム

Also Published As

Publication number Publication date
US20040150641A1 (en) 2004-08-05
US20040169656A1 (en) 2004-09-02
WO2004047426A2 (en) 2004-06-03
EP1573653A4 (en) 2007-03-14
US7079137B2 (en) 2006-07-18
WO2004047426A3 (en) 2004-07-15
JP4220470B2 (ja) 2009-02-04
AU2003295582A1 (en) 2004-06-15
AU2003295586A1 (en) 2004-06-15
WO2004047008A1 (en) 2004-06-03
US20040150642A1 (en) 2004-08-05
JP2006507585A (ja) 2006-03-02
US20040150643A1 (en) 2004-08-05
EP1573653B1 (en) 2013-07-10
US6983082B2 (en) 2006-01-03
WO2004047009A2 (en) 2004-06-03
JP4276178B2 (ja) 2009-06-10
AU2003298666A1 (en) 2004-06-15
US20040146197A1 (en) 2004-07-29
EP1565872A1 (en) 2005-08-24
WO2004047009A3 (en) 2004-07-08
US8515157B2 (en) 2013-08-20
EP1573653A2 (en) 2005-09-14
AU2003295586B2 (en) 2009-05-07
EP1566052A2 (en) 2005-08-24
EP1566052A4 (en) 2007-02-07
US20090174713A1 (en) 2009-07-09
JP2006506742A (ja) 2006-02-23
US7536047B2 (en) 2009-05-19
EP1565872A4 (en) 2007-03-07
US6990230B2 (en) 2006-01-24

Similar Documents

Publication Publication Date Title
JP4220470B2 (ja) 映画におけるデジタルイメージング用のリアリティベースのライト環境
US6009188A (en) Method and system for digital plenoptic imaging
Unger et al. Capturing and Rendering with Incident Light Fields.
Debevec et al. A lighting reproduction approach to live-action compositing
CN110148204B (zh) 用于在真实环境的视图中表示虚拟对象的方法和系统
Debevec Rendering synthetic objects into real scenes: Bridging traditional and image-based graphics with global illumination and high dynamic range photography
US7764829B2 (en) System and method for discovering and categorizing attributes of a digital image
CN101542538B (zh) 用来对光进行建模的方法与系统
US6628298B1 (en) Apparatus and method for rendering synthetic objects into real scenes using measurements of scene illumination
EP1074943A2 (en) Image processing method and apparatus
US11425283B1 (en) Blending real and virtual focus in a virtual display environment
CN110458964B (zh) 一种现实环境动态光照的实时计算方法
JP4428936B2 (ja) 3d空間上の点から3d物体表面までのユークリッド距離を、投影面から3d物体表面までの投影方向に沿った投影距離を画素値とするメモリに記憶された投影距離画像から求める方法
Evers‐Senne et al. Image based interactive rendering with view dependent geometry
Goesele et al. Building a Photo Studio for Measurement Purposes.
Kasper et al. Multiple point light estimation from low-quality 3D reconstructions
JP2003090715A5 (ja)
JP3392078B2 (ja) 画像処理方法、画像処理装置および記憶媒体
JP3387856B2 (ja) 画像処理方法、画像処理装置および記憶媒体
Miller et al. Illumination and reflection maps
Drofova et al. Analysis of the structure material of the bronze object in 3D models point cloud.
Drofova et al. COMPARISON OF THE LIGHTING CONDITION OF THE INTERIOR TO CREATE A 3D BACKGROUND IN VIRTUAL REALITY.
WO2024048295A1 (ja) 情報処理装置、情報処理方法、プログラム
CN117545123A (zh) 一种led光源的亮度补偿方法
Abad et al. Integrating synthetic objects into real scenes

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080616

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080919

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081015

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4220470

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121121

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121121

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131121

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term