JP4879326B2 - 3次元画像を合成するシステム及び方法 - Google Patents

3次元画像を合成するシステム及び方法 Download PDF

Info

Publication number
JP4879326B2
JP4879326B2 JP2009537134A JP2009537134A JP4879326B2 JP 4879326 B2 JP4879326 B2 JP 4879326B2 JP 2009537134 A JP2009537134 A JP 2009537134A JP 2009537134 A JP2009537134 A JP 2009537134A JP 4879326 B2 JP4879326 B2 JP 4879326B2
Authority
JP
Japan
Prior art keywords
image
dimensional
images
metadata
eye view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009537134A
Other languages
English (en)
Other versions
JP2010510573A (ja
Inventor
ベルン ベニテス,アナ
ザン,ドン−チン
ファンチャー,ジム,アーサー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2010510573A publication Critical patent/JP2010510573A/ja
Application granted granted Critical
Publication of JP4879326B2 publication Critical patent/JP4879326B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals

Description

本発明は、コンピュータグラフィックス処理及びディスプレイシステム全般に関し、より詳細には、3次元(3D)画像を合成するシステム及び方法に関する。
立体画像形成は、僅かに異なる視点から撮影されたあるシーンの少なくとも2つの画像を視覚的に結合して、3次元の深度の錯覚を生成するプロセスである。この技術は、人間の目がある距離だけ離れて配置されていることに依存しており、したがって、正確に同じシーンを見ない。それぞれの目に異なる視野からの画像を提供することで、見る人の目は、知覚する深度への錯覚を起こす。典型的に、2つの異なる視野が提供される場合、コンポーネント画像は、「左」画像及び「右」画像と呼ばれ、それぞれ参照画像及び相補画像としても知られる。しかし、当業者であれば、2を超える視野が立体画像を形成するために形成される場合があることを認識するであろう。
立体画像は、様々な技術を使用してコンピュータにより生成される場合がある。たとえば、「立体視“anaglyph”」方法は、色を使用して、立体画像の左及び右のコンポーネントをエンコードする。その後、見る人は、それぞれの目が唯一のビューを知覚するように光をフィルタリングする特別のグラスを装着する。
同様に、ページフリップ(page−flipped)立体画像形成は、画像の右のビューと左のビューとの間の表示を迅速に切り替える技術である。さらに、見る人は、ディスプレイ上の画像と同期して開閉する、典型的に液晶材料で構成される高速電子シャッターを含む特別なメガネを装着する。立体視のケースのように、それぞれの目は唯一のコンポーネント画像を知覚する。特別なメガネ又はヘッドギアを必要としない他の立体画像形成技術が近年に開発されている。たとえば、レンチキュラー画像形成は、2以上の異なる画像のビューを薄いスライスに分割し、そのスライスをインターリーブして単一の画像を形成する。このインターリーブされた画像は、次いで、レンチキュラーレンズの後ろに配置され、このレンチキュラーレンズは、それぞれの目が異なるビューを知覚するように異なるビューを再構成する。レンチキュラーディスプレイのなかには、ラップトップコンピュータで一般に見られるように、コンベンショナルなLCDディスプレイの向こう側に位置されるレンチキュラーレンズにより実現されるものがある。
上記された技術に関連される応用は、(たとえば立体画像である)3D画像を合成するVFXである。現在、Apple Shake(登録商標)及びAutodesk Combustion(登録商標)のような既存の合成ソフトウェアは、このプロセスで使用される。しかし、これらのソフトウェアシステムは、合成及びレンダリングの間に独立に立体画像のペアにおける左目画像及び右目画像を扱う。
したがって、立体画像を合成するVFXの現在のプロセスは、左画像及び右画像を正しくレンダリングするため、適切なカメラ位置、照明モデル等を決定するため、オペレータにとってシステマチックなやり方を欠いた手探り動作である。かかる手探りプロセスにより、不正確なオブジェクトの深度予測及び非効率な合成のワークフローとなる可能性がある。
さらに、これらのソフトウェアシステムは、瞳孔間隔のようなレンダリングされたステレオ画像の特定の設定をオペレータが変更するのを許容しない。不適切な瞳孔間隔により、3D動画において収束平面が絶えず変化することとなり、視聴者に対して視覚的な疲労を生じさせる可能性がある。
3次元画像を合成するシステム及び方法であって、3D特性を有する2以上の画像の1部又は少なくとも1部を結合して3D画像を形成するものである。本発明のシステム及び方法は、2以上の入力画像を取り込む。システムへの入力は、とりわけ、左目の視界(ビュー“view”)と右目のビューをもつ立体画像のペア、そのビューに対応する深度マップをもつ単一の目の画像、コンピュータグラフィック(CG)オブジェクトの3Dモデル、2Dフォアグランド及び/又はバックグランドの平面、及び、これらの組み合わせとすることができる。次いで、本システム及び方法は、取り込まれた画像の明暗(lighting)、形状(geometry)及びオブジェクト情報のような関連するメタデータを取得又は抽出する。オペレータからの入力に応答して、本システム及び方法は、それぞれ取り込まれた画像の明暗、形状及びオブジェクトのような画像データを選択又は変更する。3D画像を合成するシステム及び方法は、次いで、選択又は変更された画像データを同じ座標系にマッピングし、オペレータにより提供される指示及び設定に基づいて画像データを1つの3D画像に結合する。この時点で、オペレータは、設定を変更するか、結合された3D画像を所望のフォーマット(たとえば立体画像のペア)にレンダリングするかを判断することができる。本システム及び方法は、レンダリングされた出力を関連するメタデータ(たとえば、立体画像のペアの瞳孔間隔)と関連付けすることができる。
本発明の1態様によれば、3次元(3D)画像を合成する方法は、少なくとも2つの3次元(3D)画像を取得し、少なくとも2つの3次元画像に関するメタデータを取得し、少なくとも2つの3D画像のメタデータを1つの3D座標系にマッピングし、少なくとも2つの3D画像のそれぞれの一部を1つの3D画像に合成することを含む。メタデータは、限定されるものではないが、明暗の情報、形状の情報、オブジェクトの情報、及びそれらの組み合わせを含む。
別の態様では、本方法は、1つの3D画像を予め決定されたフォーマットにレンダリングすることを更に含む。
更なる態様では、本方法は、出力メタデータをレンダリングされた3D画像と関連付けすることを更に含む。
本発明の別の態様によれば、3次元(3D)画像を合成するシステムが提供される。本システムは、少なくとも2つの3次元(3D)画像を取得する手段、少なくとも2つの3D画像に関連するメタデータを取得する抽出手段、少なくとも2つの3D画像のメタデータを1つの3D座標系にマッピングする座標マッピング手段、少なくとも2つの3D画像のそれぞれの一部を1つの3D画像に合成する合成手段を含む。
1つの態様では、本システムは、メタデータの少なくとも1つの属性を変更する色補正手段を含む。
別の態様では、抽出手段は、少なくとも2つの3D画像の光環境を決定する光抽出手段を更に含む。
さらに、更なる態様では、抽出手段は、少なくとも2つの3D画像におけるシーン又はオブジェクトの幾何学的形状を判定する幾何学的形状の抽出手段を更に含む。
別の態様では、3次元(3D)画像を合成する方法ステップを実行するためにコンピュータにより実行可能な命令からなるプログラムを実施する、コンピュータにより読み取り可能なプログラムストレージデバイスが提供される。本方法は、少なくとも2つの3次元(3D)画像を取得し、少なくとも2つの3D画像に関連するメタデータを取得し、少なくとも2つの3D画像のメタデータを1つの3D座標系にマッピングし、少なくとも2つの3D画像のそれぞれの一部を1つの3D画像に合成し、及び、1つの3D画像を予め決定されたフォーマットにレンダリングすることを含む。
本発明のこれらの態様、特徴及び利点、並びに、他の態様、特徴及び利点は、添付図面と共に読まれることとなる好適な実施の形態に関する以下の詳細な説明から明らかとなるであろう。図面において、同じ参照符号は、図面を通して同じエレメントを示す。
図1は、本発明の態様にかかる、少なくとも2つの3次元(3D)画像を1つの3D画像に合成するシステムを例示する図である。 図2は、本発明の態様にかかる、少なくとも2つの3次元(3D)画像を1つの3D画像に合成する例示的な方法のフローチャートである。 図3は、本発明の態様にかかる、1つの3次元座標系にマッピングされる2つの3次元画像を例示する図である。
図面は、本発明の概念を例示する目的であり、必ずしも、本発明を例示するための唯一の可能性のあるコンフィギュレーションではないことを理解されたい。
図に示されるエレメントは、様々な形式のハードウェア、ソフトウェア又はそれらの組み合わせで実現される場合があることを理解されたい。好ましくは、これらのエレメントは、プロセッサ、メモリ及び入力/出力インタフェースを含む1以上の適切にプログラムされた汎用デバイス上でハードウェア及びソフトウェアの組み合わせで実現される。
本明細書の記載は、本発明の原理を例示するものである。当業者であれば、本明細書で明示的に記載又は図示されていないが、本発明の原理を実施し、本発明の精神及び範囲に含まれる様々なアレンジメントを考案することができることを理解されたい。
本明細書で引用される全ての例及び条件付言語は、本発明の原理、当該技術分野の推進において本発明者により寄与される概念を理解することにおいて読者を支援する教育的な目的が意図され、係る特別に参照される例及び条件に対して限定されないとして解釈されるべきである。さらに、本発明の特定の例と同様に、本発明の原理、態様及び実施の形態を参照する全ての説明は、本発明の構造的且つ機能的に等価なものを包含することが意図される。さらに、係る等価なものは、現在知られている等価なものと同様に、将来に開発される等価なもの、すなわち構造に関わらず同じ機能を実行する開発されたエレメントをも含むことが意図される。
したがって、たとえば、本明細書で提供されるブロック図は、本発明の原理を実施する例示的な回路の概念図を表していることは、当業者により理解されるであろう。同様に、任意のフローチャート、フローダイアグラム、状態遷移図、擬似コード等は、コンピュータ読み取り可能な媒体で実質的に表現される様々なプロセスであって、コンピュータ又はプロセッサが明示的に示されているか否かに関わらず、係るコンピュータ又はプロセッサにより実行される様々なプロセスを表す。
図示される様々なエレメントの機能は、適切なソフトウェアと関連してソフトウェアを実行可能なハードウェアと同様に、専用のハードウェアの使用を通して提供される場合がある。プロセッサにより提供されたとき、単一の専用プロセッサにより、単一の共有プロセッサにより、又はそのうちの幾つかが共有される複数の個々のプロセッサにより機能が提供される。用語“processor”又は“controller”の明示的な使用は、ソフトウェアを実行可能なハードウェアを排他的に示すものと解釈されるべきではなく、限定されることなしに、デジタルシグナルプロセッサ(DSP)ハードウェア、ソフトウェアを記憶するリードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、及び不揮発性メモリを暗黙的に含む場合がある。
他のハードウェア、コンベンショナル及び/又はカスタムハードウェアも含まれる場合がある。同様に、図示される任意のスイッチは概念的なものである。それらの機能は、プログラムロジックの動作を通して、専用ロジックを通して、プログラム制御と専用ロジックのインタラクションを通して、又は手動的に実行される場合があり、特定の技術は、文脈から更に詳細に理解されるように実現者により選択可能である。本発明の請求項では、特定の機能を実行する手段として表現される任意のエレメントは、たとえばa)その機能を実行する回路エレメントの組み合わせ、又はb)その機能を実行するためのソフトウェアを実行する適切な回路と組み合わされる、ファームウェア、マイクロコード等を含む任意の形式のソフトウェアを含めて、その機能を実行する任意のやり方を包含することが意図される。係る請求項により定義される本発明は、様々な参照される手段により提供される機能が結合され、請求項が要求するやり方で纏められるという事実にある。したがって、それらの機能を提供することができる任意の手段は本明細書で示されるものに等価であると考えられる。
合成とは、異なるソースからの複数の画像を1つの画像に結合して所定の視覚的な作用を達成するための、動画の生成で広く使用される標準的なプロセスである。コンベンショナルな合成のワークフローは、2D動画を処理するために開発され、3D動画(たとえば3D立体動画)を処理するために最適化されていない。
本発明は、3次元特性をもつ2以上の画像の一部又は少なくとも1部を新たな1つの3D画像に結合するという課題に対処するものである。本発明は、3次元(3D)特性をもつ2以上の画像のそれぞれの少なくとも1部を新たな3D画像に結合するシステム及び方法を提供する。限定されるものではないが、立体画像のペア、深度マップをもつ2D画像、CGオブジェクトの3Dモデル、フォアグランド及び/又はバックグランドの平面等を含めて、ワイドレンジの3D画像がサポートされる。さらに、システム及び方法は、合成プロセスに関する関連するメタデータを取り込み、抽出及び出力することができる。本システム及び方法は、特定の平面におけるオブジェクトを包含すること又は除外することを可能にし、オペレータにより指定される指示に基づいてオブジェクトを混合することを可能にする。
システムへの入力は、とりわけ、左目のビューと右目のビューをもつ立体画像のペア、そのビューに対応する深度マップをもつ単一の目の画像、コンピュータグラフィックオブジェクトの3Dモデル、2Dフォアグランド及び/又はバックグランドの平面、及び、これらの組み合わせとすることができる。システムからの出力は、左目のビュー及び右目のビューの立体画像のペア、又はオペレータにより指定される入力画像の組み合わせをレンダリング及び合成する任意の他のタイプの3D画像とすることができる。
入力画像及び出力画像の両者は、とりわけ立体画像のペアの仮定される瞳孔間隔及び明暗モデルのような、関連するメタデータと関連付けすることができる。さらに、(たとえば瞳孔間隔の変更といった)他の応用による更なる処理を容易にするため、出力データが使用される。
本システム及び方法は、カラーコレクタ及びライトモデルジェネレータのようなコンベンショナルなVFXツールを利用する場合がある。これは、入力画像が明暗モデル又は十分に詳細な幾何学的情報を含まないときに必要とされる。また、入力画像の3D形状と同様に、ライティングモデルをマージ及び変更するシステム及び方法が提供される。これらのモデルは、オペレータにより選択されるか指示される命令に基づいてマージされるか、変更される。
ここで図面を参照して、図1には、本発明の実施の形態に係る例示的なシステムコンポーネントが示される。スキャニング装置103は、たとえばカメラのオリジナルのネガフィルムといったフィルムプリント104を、たとえばCineonフォーマット又はSMPTE DPXファイルといったデジタル形式にスキャニングするために提供される。スキャニング装置103は、たとえばビデオ出力をもつArri LocPro(登録商標)のようなフィルムからビデオ出力を生成するテレシネ又は任意の装置を有する場合がある。代替的に、ポストプロダクションプロセスからのファイル又はデジタルシネマ106(たとえば既にコンピュータ読み取り可能な形式にあるファイル)を直接的に使用することができる。コンピュータ読み取り可能なファイルの潜在的なソースは、限定されるものではないが、AVID(登録商標)エディタ、DPXファイル、D5テープ等を含む。スキャニングされたフィルムプリントは、たとえばコンピュータであるポストプロセッシング装置102に入力される。コンピュータは、1以上の中央処理装置(CPU)のようなハードウェア、ランダムアクセスメモリ(RAM)及び/又はリードオンリメモリ(ROM)のようなメモリ110、キーボード、カーソル制御装置(たとえばマウス又はジョイスティック)のような入力/出力(I/O)ユーザインタフェース112、及び表示装置を有する様々な既知のコンピュータプラットフォームの何れかで実現される。また、コンピュータプラットフォームは、オペレーティングシステム及びマイクロ命令コードを含む。本明細書で記載される様々なプロセス及び機能は、マイクロ命令コードの一部、又はオペレーティングシステムを介して実行されるソフトウェアアプリケーションプログラムの一部(又はその組み合わせ)の何れかである場合がある。さらに、様々な他の周辺装置は、様々なインタフェース、及び、パラレルポート、シリアルポート又はユニバーサルシリアルバス(USB)のようなバス構造により、コンピュータプラットフォームに接続される。他の周辺装置は、更なるストレージデバイス124及びプリンタ128を含む。プリンタ128は、たとえば立体のフィルムバージョンである改訂されたフィルムバージョン126を印刷するために利用される場合があり、あるシーン又は複数のシーンは、以下に記載される技術の結果として、3Dモデリングされたオブジェクトを使用して変更又は置換される。
代替的に、(たとえば外部のハードドライブ124に記憶されている場合があるデジタルシネマである)既にコンピュータ読み取り可能な形式106にあるファイル/フィルムプリントは、コンピュータ102に直接的に入力される場合がある。なお、本明細書で使用される用語「フィルム“film”」は、フィルムプリント又はデジタルシネマの何れかを示す場合がある。ソフトウェアプログラムは、少なくとも2つの3D画像の少なくとも1部を1つの3D画像に結合する、メモリ110に記憶される3次元(3D)合成モジュール114を含む。3D合成モジュール114は、あるシーンに配置されるオブジェクトの光環境を予測する光抽出手段116を含む。光抽出116は、複数の光モデルと相互作用して、光環境を判定する場合がある。3D形状検出手段118は、幾何学的形状の情報を抽出して、3D画像におけるオブジェクトを識別するために設けられる。3D形状検出器118は、画像編集ソフトウェアによりオブジェクトを含んでいる画像の領域の輪郭を手動的に描くか、又は、自動検出アルゴリズムでオブジェクトを含んでいる画像領域を分離することで、オブジェクトを識別する。色補正手段119は、たとえば画像の色、明るさ、コントラスト、色温度、或いは画像の一部の色、明るさ、コントラスト、色温度を変更するために設けられる。色補正手段119により実現される色補正機能は、限定されるものではないが、領域選択、カラーグレーディング、デフォーカス、キーチャネル及びマット仕上げ、ガンマ制御、正確さ及びコントラスト等を含む。また、3D合成モジュール114は、3Dオブジェクトのライブラリ117から又は入力画像からのオブジェクトを単一の座標系にマッピングする座標マッピング手段120を含む。レンダリング手段122は、とりわけ、光抽出手段116により生成される光情報により、あるシーンにおけるオブジェクトをレンダリングするために設けられる。レンダリング手段は、当該技術分野で知られており、限定されるものではないが、LightWave 3D,Entropy and Blenderを含む。
図2は、本発明の態様にかかる、少なくとも2つの3次元(3D)画像の1部を1つの3D画像に合成する例示的な方法のフローチャートである。はじめに、ポストプロセッシング装置は、ステップ202で、とりわけ、左目のビューと右目のビューをもつ立体画像のペア、そのビューに対応する深度マップをもつ単一の目の画像、コンピュータグラフィック(CG)のオブジェクトの3Dモデル、2Dフォアグランド及び/又はバックグランドの平面、及び、これらの組み合わせといった、少なくとも2つの3次元(3D)画像を取得する。ポストプロセッシング装置102は、コンピュータ読み取り可能なフォーマットでデジタルマスタ画像ファイルを取得することで、少なくとも2つの3D画像を取得する場合がある。デジタルビデオファイルは、デジタルビデオカメラで動画像の時系列を捕捉することで取得される。代替的に、ビデオ系列は、従来のフィルムタイプのカメラにより捕捉される場合がある。このシナリオでは、フィルムはスキャニング装置103を介してスキャニングされる。
フィルムがスキャニングされるか、又は既にデジタル形式にあるかに関わらず、フィルムのデジタルファイルは、たとえばフレーム番号、フィルムの開始からの時間等といった、フレームの位置に関する指示又は情報を含むことを理解されたい。デジタル画像ファイルのそれぞれのフレームは、たとえばI,I,…,Iといった1つの画像を含む。
ひとたび、デジタルファイルが取得されると、2以上の入力画像が取り込まれる。明暗、形状及びオブジェクト情報のような関連するメタデータは、必要に応じて、システムにより入力されるか、抽出される。次のステップは、必要に応じて、それぞれの入力画像について、明暗、形状、オブジェクト等のようなメタデータの属性をオペレータが選択又は変更することである。次いで、入力は、オペレータからの指示及び設定に基づいて同じ座標系にマッピングされ、1つの3D画像に結合される。この時点で、オペレータは、設定を変更するか、結合された3D画像を所望のフォーマット(たとえば立体画像のペア)にレンダリング及び合成するかを判断することができる。レンダリングされた出力は、(たとえば立体画像のペアの瞳孔間隔といった)関連されるメタデータと関連付けすることができる。
図2を参照して、ステップ202及び204で、少なくとも2つの3D画像が入力される。3D画像合成手段への入力として広い範囲の3D画像がサポートされる。たとえば、左目のビューと右目のビューをもつ立体画像のペア、そのビューに対応する深度マップをもつ単一の目の画像、コンピュータグラフィックのオブジェクトの3Dモデル、2Dフォアグランド及び/又はバックグランドの平面、及び、これらの組み合わせは、システムへの入力とされる。つぎに、ステップ206及び208で、システムは、入力画像について明暗、形状、オブジェクト及び他の情報を取得する。特に、カメラ距離及び立体画像のペアの明暗モデルのような関連メタデータ123をもつ全ての入力画像を取り込むことができる。取り込むことは、入力画像として受け、必要に応じて処理することを意味する。たとえば、2つの立体画像を入力し、それらから深度マップを抽出することを意味する。合成のために必要なメタデータが利用可能ではない場合、システムは、図1に関連して上述されたモジュールを使用して、入力画像から半自動式又は自動式でメタデータを抽出することができる。
たとえば、光抽出手段116は、あるシーンの光環境を判定し、そのシーンにおける特定のポイントで、たとえば輝度といった光情報を予測する。さらに、形状抽出手段118は、カメラパラメータ、深度マップ等のような他の関連データと共に、シーンの形状又は画像からの入力画像の一部を抽出する。
さらに、メタデータは、オペレータにより手動で入力される場合があり、たとえば、ある特定の画像に関して生成される明暗モデルは、その画像に関連付けされる場合がある。メタデータは、外部ソースから取得又は受信される場合があり、たとえば、3D形状は、レーザスキャナ又は他の装置のような形状取得装置により取得され、形状抽出手段118に入力される。同様に、光情報は、たとえばミラーボール、ライトセンサ、カメラ等のような光捕捉装置により捕捉され、光抽出手段116に入力される。
本システムは、コンベンショナルなVFXツールを使用して、合成プロセスのために必要とされる関連するメタデータ123を抽出又は生成することができる。係るツールは、限定されるものではないが、色補正アルゴリズム、形状検出アルゴリズム、光モデリングアルゴリズム等を含む。これらのツールは、3D入力画像が明暗モデル又は十分に詳細な幾何学的情報を含まないときに必要とされる。本システムが使用することができる他の関連するメタデータは、特に、立体画像のペアのカメラの距離である。ひとたび画像全体について又はユーザが関心のある幾つかのオブジェクトに対応するピクチャの一部について形状(深度マップ等)に関する情報が抽出されると、本システムは、入力画像において現れるオブジェクトを分割する。たとえば、握手している人物Aと人物Bの立体画像のペアにおいて、本システムは、人物A、人物B及びバックグランドに対応するオブジェクトを分割する。オブジェクトセグメンテーションアルゴリズムは、当該技術分野で知られている。シーン又は画像における関心のあるオブジェクトの3D形状は、モデルフィッティングのような様々な方法により決定又はリファインされる場合があり、この場合、既知の形状を有する予め定義された3Dモデルは、そのオブジェクトに対応する画像における領域に対して整合され、登録される。別の例示的な方法では、分割されたオブジェクトの形状は、画像の領域を予め定義された粒子系に整合させることで導出され、リファインされる場合があり、この場合、粒子系は、予め決定された形状を有するように生成される。ステップ210,212では、本システムは、少なくとも2つの入力画像について、明暗、形状、オブジェクト及び他の情報といったメタデータの属性をオペレータが変更するのを可能にする場合がある。画像の3D特性が不正確又は利用不可能である場合、正確な3D合成を得るために形成される必要があるか、又は変更される必要がある。たとえば、バックグランドの平面の深度マップは、3D取得装置の低い深度の解像度のために利用不可能なことがある。このケースでは、オペレータは、合成のために必要に応じて、3D深度をバックグランドの平面における幾つかのオブジェクトに割り当てることが必要な場合がある。また、オペレータは、必要に応じて、それぞれの入力画像の明暗、形状、オブジェクト等を変更することができる。システムは、画像における入力画像又はオブジェクトの3D形状と同様に、明暗モデルをマージ及び変更する。これらのモデルは、(たとえば所望の位置において新たな光源を追加するといった)オペレータにより選択又は指定された命令に基づいてマージ又は変更することができる。さらに、オペレータは、光の色、表面の色及び反射特性、光の位置及び表面の形状を変更することで、取得された画像のオブジェクトの「外観“look”」又は取得された画像の一部の「外観」を変更するため、色補正手段119を利用する場合がある。画像又は画像の一部は、修正又は更なる修正が必要であるかを判定するため、修正の前後でレンダリングされる。つぎに、ステップ214で、3D合成モジュール114を介してオペレータにより提供される設定に基づいて、合成が行われる。
このステップの間、異なる入力画像におけるビジュアルエレメント(たとえばオブジェクト)は、図3に例示されるように、オペレータにより手動的に、又は深度情報に基づいて自動的に、同じ3D座標系で位置される。
図3を参照して、それぞれの入力画像302,304は、入力画像に関連する座標系において、オブジェクト308及び310をそれぞれ含む。それぞれの入力画像302,304からのオブジェクト308,310は、新たな3D画像306のグローバル座標系312にマッピングされる。オペレータは、入力画像のオブジェクト又は一部の間の位置又は関係を修正又は変更することができる。また、本システムは、オペレータが特定の平面におけるオブジェクトを含むこと又は排除すること(クリッピング)、及び特定のルールに基づいてオブジェクトを混合することを可能にする。
最後に、選択されたオブジェクト及び入力画像は、たとえば、グローバル座標系に関してそれぞれの画像入力の座標系について移動、回転及びスケール変換を指定する、オペレータにより選択又は指定された指示に基づいてマージ及び結合される。
たとえば、入力画像304からのオブジェクト310は、3D画像306のグローバル座標系312に関して回転され、それらのオリジナルのサイズからスケーリングされる。合成ステップの後、メタデータの属性は、更に修正される必要がある(ステップ216)。属性が修正される必要がある場合、本方法は、ステップ210,212に戻り、さもなければ、合成3D画像がレンダリングされる場合がある。合成3D画像は、たとえば左目のビュー及び右目のビューからなる立体画像のペア又は他のタイプの3D画像といった所望のフォーマットで、レンダリング手段122を介して、ステップ218で最終的にレンダリングされる。出力画像は、特に、立体画像のペアの想定される瞳孔間隔及び明暗モデル、3D画像の閉塞情報及び関連される深度マップのような、関連されるメタデータ129に関連付けされる。たとえば瞳孔間隔といったメタデータは自動的に生成することができ、たとえば光源の位置及び強度といったメタデータは手動的に入力することができる。次いで、レンダリングされた画像は、デジタルファイル130に記憶される。デジタルファイル130は、たとえば立体のオリジナルフィルムのバージョンを印刷するといった、後の検索のためにストレージデバイス124に記憶される。本発明の教示を組み込んだ実施の形態が本明細書で詳細に図示及び記載されたが、当業者であれば、これらの教示を組み込んだ多数の他の変形された実施の形態を容易に考案することができる。(例示的であって、限定的であることが意図されない)3D画像を合成するシステム及び方法の好適な実施の形態が記載されたが、修正及び変形は、上記教示に照らして当業者により行うことができる。したがって、特許請求の範囲により概説される本発明の開示の範囲及び精神に含まれる開示された特定の実施の形態において変形がなされる場合があることを理解されたい。

Claims (10)

  1. 3次元画像を合成する方法であって、
    それぞれの3次元画像が左目のビューと右目のビューとをもつ少なくとも1つの立体画像のペア、前記ビューに対応する深度マップをもつ単一の目の画像及びコンピュータグラフィックのオブジェクトの3次元モデルを有する少なくとも2つの3次元画像を取得するステップと、
    明暗情報、形状情報及びオブジェクト情報のうちの少なくとも1つであるメタデータであって、前記少なくとも2つの3次元画像に関連するメタデータを取得するステップと
    前記少なくとも2つの3次元画像に関連するメタデータを使用して前記少なくとも2つの3次元画像のそれぞれの1部を1つの3次元画像に合成し、入力された指示に応じて、合成された1つの3次元画像に含まれる前記少なくとも2つの3次元画像の少なくとも1つに対する変更処理を、前記合成された3次元画像の単一の3次元座標系に関して行うステップと、
    前記少なくとも2つの3次元画像のメタデータの少なくとも1つの属性を変更し、変更された属性のメタデータに従って、変更された1つの3次元画像を合成し直すステップと
    左目のビューと右目のビューをもつ立体画像のペアである予め決定されたフォーマットで、合成し直された1つの3次元画像をレンダリングするステップと
    前記変更された属性のメタデータを、レンダリングされた1つの3次元画像と関連付けするステップと
    を含むことを特徴とする方法。
  2. 変更された属性のメタデータは、前記立体画像のペアの左目の視界と右目の視界との間の瞳孔の間隔である、
    請求項記載の方法。
  3. 前記取得された少なくとも2つの3次元画像のそれぞれは、左目のビューと右目のビューとをもつ立体画像のペア、前記視界に対応する深度マップをもつ単一の目の画像、コンピュータグラフィックのオブジェクトの3次元モデル、及び、2次元の前景又は後景の平面のうちの1つである、
    請求項1記載の方法。
  4. 前記メタデータを取得するステップは、前記少なくとも2つの3次元画像から前記メタデータを抽出するステップを含む、
    請求項1記載の方法。
  5. 前記メタデータを取得するステップは、少なくとも1つの外部ソースから前記メタデータを受けるステップを含む、
    請求項1記載の方法。
  6. 3次元画像を合成するシステムであって、
    それぞれの3次元画像が左目のビューと右目のビューとをもつ少なくとも1つの立体画像のペア、前記ビューに対応する深度マップをもつ単一の目の画像及びコンピュータグラフィックのオブジェクトの3次元モデルを有する少なくとも2つの3次元画像を取得する手段と、
    明暗情報、形状情報及びオブジェクト情報のうちの少なくとも1つであるメタデータであって、前記少なくとも2つの3次元画像に関連するメタデータを取得する抽出手段と
    前記少なくとも2つの3次元画像に関連するメタデータを使用して前記少なくとも2つの3次元画像のそれぞれの一部を1つの3次元画像に合成し、入力された指示に応じて、合成された1つの3次元画像に含まれる前記少なくとも2つの3次元画像の少なくとも1つに対する変更処理を、前記合成された3次元画像の単一の3次元座標系に関して行う合成手段と、
    前記少なくとも2つの3次元画像のメタデータの少なくとも1つの属性を変更し、変更された属性のメタデータに従って、変更された1つの3次元画像を合成し直す色補正手段と
    左目のビューと右目のビューをもつ立体画像のペアである予め決定されたフォーマットで、合成し直された1つの3次元画像をレンダリングするレンダリング手段とを備え
    前記合成手段は、前記変更された属性のメタデータを、レンダリングされた1つの3次元画像と関連付けする
    ことを特徴とするシステム。
  7. 前記抽出手段は、前記少なくとも2つの3次元画像の光環境を判定する光抽出手段を更に有する、
    請求項記載のシステム。
  8. 前記抽出手段は、前記少なくとも2つの3次元画像におけるオブジェクトの形状を判定する形状抽出手段を更に有する、
    請求項記載のシステム。
  9. 前記抽出手段は、少なくとも1つの外部ソースから前記メタデータを受ける、
    請求項記載のシステム。
  10. 3次元画像を合成する方法実行するため、コンピュータにより実行可能な命令からなるプログラムを記録した、コンピュータにより読み取り可能な記録媒体であって、
    前記方法は、
    それぞれの3次元画像が左目のビューと右目のビューとをもつ少なくとも1つの立体画像のペア、前記ビューに対応する深度マップをもつ単一の目の画像及びコンピュータグラフィックのオブジェクトの3次元モデルを有する少なくとも2つの3次元画像を取得するステップと、
    明暗情報、形状情報及びオブジェクト情報のうちの少なくとも1つであるメタデータであって、前記少なくとも2つの3次元画像に関連するメタデータを取得するステップと、
    前記少なくとも2つの3次元画像に関連するメタデータを使用して前記少なくとも2つの3次元画像のそれぞれの一部を1つの3次元画像に合成し、入力された指示に応じて、合成された1つの3次元画像に含まれる前記少なくとも2つの3次元画像の少なくとも1つに対する変更処理を、前記合成された3次元画像の単一の3次元座標系に関して行うステップと、
    前記少なくとも2つの3次元画像のメタデータの少なくとも1つの属性を変更し、変更された属性のメタデータに従って、変更された1つの3次元画像を合成し直すステップと
    左目のビューと右目のビューをもつ立体画像のペアである予め決定されたフォーマットで、合成し直された1つの3次元画像をレンダリングするステップと
    前記変更された属性のメタデータを、レンダリングされた1つの3次元画像と関連付けするステップと
    を含むことを特徴とする記録媒体
JP2009537134A 2006-11-20 2006-11-20 3次元画像を合成するシステム及び方法 Expired - Fee Related JP4879326B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2006/045029 WO2008063170A1 (en) 2006-11-20 2006-11-20 System and method for compositing 3d images

Publications (2)

Publication Number Publication Date
JP2010510573A JP2010510573A (ja) 2010-04-02
JP4879326B2 true JP4879326B2 (ja) 2012-02-22

Family

ID=38362781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009537134A Expired - Fee Related JP4879326B2 (ja) 2006-11-20 2006-11-20 3次元画像を合成するシステム及び方法

Country Status (6)

Country Link
US (1) US20110181591A1 (ja)
EP (1) EP2084672A1 (ja)
JP (1) JP4879326B2 (ja)
CN (1) CN101542536A (ja)
CA (1) CA2669016A1 (ja)
WO (1) WO2008063170A1 (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7542034B2 (en) 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
US8655052B2 (en) 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
US8274530B2 (en) 2007-03-12 2012-09-25 Conversion Works, Inc. Systems and methods for filling occluded information for 2-D to 3-D conversion
CN102498720B (zh) 2009-06-24 2015-09-02 杜比实验室特许公司 在3d或多视图视频数据中嵌入字幕和/或图形叠层的方法
TW201119353A (en) 2009-06-24 2011-06-01 Dolby Lab Licensing Corp Perceptual depth placement for 3D objects
US9426441B2 (en) 2010-03-08 2016-08-23 Dolby Laboratories Licensing Corporation Methods for carrying and transmitting 3D z-norm attributes in digital TV closed captioning
US9959453B2 (en) * 2010-03-28 2018-05-01 AR (ES) Technologies Ltd. Methods and systems for three-dimensional rendering of a virtual augmented replica of a product image merged with a model image of a human-body feature
US9542975B2 (en) * 2010-10-25 2017-01-10 Sony Interactive Entertainment Inc. Centralized database for 3-D and other information in videos
WO2012145191A1 (en) 2011-04-15 2012-10-26 Dolby Laboratories Licensing Corporation Systems and methods for rendering 3d images independent of display size and viewing distance
KR101764372B1 (ko) * 2011-04-19 2017-08-03 삼성전자주식회사 휴대용 단말기에서 영상 합성 방법 및 장치
KR20120119173A (ko) * 2011-04-20 2012-10-30 삼성전자주식회사 3d 영상처리장치 및 그 입체감 조정방법
JP6001826B2 (ja) * 2011-05-18 2016-10-05 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラムおよび情報処理方法
KR20120133951A (ko) * 2011-06-01 2012-12-11 삼성전자주식회사 3d 영상변환장치 그 깊이정보 조정방법 및 그 저장매체
JP2013118468A (ja) 2011-12-02 2013-06-13 Sony Corp 画像処理装置および画像処理方法
US9258550B1 (en) 2012-04-08 2016-02-09 Sr2 Group, Llc System and method for adaptively conformed imaging of work pieces having disparate configuration
EP2675173A1 (en) * 2012-06-15 2013-12-18 Thomson Licensing Method and apparatus for fusion of images
TWI466062B (zh) * 2012-10-04 2014-12-21 Ind Tech Res Inst 重建三維模型的方法與三維模型重建裝置
EP2755187A3 (en) * 2013-01-11 2016-02-10 Samsung Electronics Co., Ltd 3d-animation effect generation method and system
CN104063796B (zh) * 2013-03-19 2022-03-25 腾讯科技(深圳)有限公司 对象信息展示方法、系统及装置
GB2519112A (en) 2013-10-10 2015-04-15 Nokia Corp Method, apparatus and computer program product for blending multimedia content
US9426620B2 (en) * 2014-03-14 2016-08-23 Twitter, Inc. Dynamic geohash-based geofencing
US9197874B1 (en) * 2014-07-17 2015-11-24 Omnivision Technologies, Inc. System and method for embedding stereo imagery
KR20160078023A (ko) * 2014-12-24 2016-07-04 삼성전자주식회사 디스플레이 제어 장치 및 디스플레이 제어 방법
TWI567476B (zh) * 2015-03-13 2017-01-21 鈺立微電子股份有限公司 影像處理裝置與影像處理方法
EP3734661A3 (en) 2015-07-23 2021-03-03 Artilux Inc. High efficiency wide spectrum sensor
US10707260B2 (en) 2015-08-04 2020-07-07 Artilux, Inc. Circuit for operating a multi-gate VIS/IR photodiode
US10861888B2 (en) 2015-08-04 2020-12-08 Artilux, Inc. Silicon germanium imager with photodiode in trench
TWI805011B (zh) 2015-08-04 2023-06-11 光程研創股份有限公司 光感測系統
US10761599B2 (en) * 2015-08-04 2020-09-01 Artilux, Inc. Eye gesture tracking
US10235808B2 (en) 2015-08-20 2019-03-19 Microsoft Technology Licensing, Llc Communication system
US10169917B2 (en) 2015-08-20 2019-01-01 Microsoft Technology Licensing, Llc Augmented reality
CN108140656B (zh) 2015-08-27 2022-07-26 光程研创股份有限公司 宽频谱光学传感器
US10757399B2 (en) 2015-09-10 2020-08-25 Google Llc Stereo rendering system
US10254389B2 (en) 2015-11-06 2019-04-09 Artilux Corporation High-speed light sensing apparatus
US10418407B2 (en) 2015-11-06 2019-09-17 Artilux, Inc. High-speed light sensing apparatus III
US10739443B2 (en) 2015-11-06 2020-08-11 Artilux, Inc. High-speed light sensing apparatus II
US10886309B2 (en) 2015-11-06 2021-01-05 Artilux, Inc. High-speed light sensing apparatus II
US10741598B2 (en) 2015-11-06 2020-08-11 Atrilux, Inc. High-speed light sensing apparatus II
US11105928B2 (en) 2018-02-23 2021-08-31 Artilux, Inc. Light-sensing apparatus and light-sensing method thereof
CN111868929B (zh) 2018-02-23 2021-08-03 奥特逻科公司 光检测装置及其光检测方法
WO2019199691A1 (en) 2018-04-08 2019-10-17 Artilux, Inc. Photo-detecting apparatus
TWI795562B (zh) 2018-05-07 2023-03-11 美商光程研創股份有限公司 雪崩式之光電晶體
US10969877B2 (en) 2018-05-08 2021-04-06 Artilux, Inc. Display apparatus
CN110991050B (zh) * 2019-12-06 2022-10-14 万翼科技有限公司 Cad叠图方法及相关产品

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002223458A (ja) * 2001-01-26 2002-08-09 Nippon Hoso Kyokai <Nhk> 立体映像作成装置
JP2004179702A (ja) * 2002-11-25 2004-06-24 Sanyo Electric Co Ltd 立体視用映像提供方法及び立体映像表示装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6084590A (en) * 1997-04-07 2000-07-04 Synapix, Inc. Media production with correlation of image stream and abstract objects in a three-dimensional virtual stage
JP3309841B2 (ja) * 1999-12-10 2002-07-29 株式会社日立製作所 合成動画像生成装置および合成動画像生成方法
US20020094134A1 (en) * 2001-01-12 2002-07-18 Nafis Christopher Allen Method and system for placing three-dimensional models

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002223458A (ja) * 2001-01-26 2002-08-09 Nippon Hoso Kyokai <Nhk> 立体映像作成装置
JP2004179702A (ja) * 2002-11-25 2004-06-24 Sanyo Electric Co Ltd 立体視用映像提供方法及び立体映像表示装置

Also Published As

Publication number Publication date
WO2008063170A1 (en) 2008-05-29
CA2669016A1 (en) 2008-05-29
EP2084672A1 (en) 2009-08-05
JP2010510573A (ja) 2010-04-02
US20110181591A1 (en) 2011-07-28
CN101542536A (zh) 2009-09-23

Similar Documents

Publication Publication Date Title
JP4879326B2 (ja) 3次元画像を合成するシステム及び方法
US11756223B2 (en) Depth-aware photo editing
JP4896230B2 (ja) 2次元から3次元に変換するためのオブジェクトのモデルフィッティング及びレジストレーションのシステム及び方法
JP4938093B2 (ja) 2d−to−3d変換のための2d画像の領域分類のシステム及び方法
JP5156837B2 (ja) 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法
US20120176481A1 (en) Processing image data from multiple cameras for motion pictures
KR101686693B1 (ko) 스테레오 영화용 시청자 중심 사용자 인터페이스
CN103426163A (zh) 用于渲染受影响的像素的系统和方法
WO2013074561A1 (en) Modifying the viewpoint of a digital image
KR20190138896A (ko) 화상 처리 장치, 화상 처리 방법 및 프로그램
JP2009517951A (ja) 立体画像表示方法、2次元画像データの入力から3次元画像データを生成する方法及び装置
JP4661824B2 (ja) 画像処理装置、方法およびプログラム
JP2016537901A (ja) ライトフィールド処理方法
CN105611267B (zh) 现实世界和虚拟世界图像基于深度和色度信息的合并
BR112019027116A2 (pt) aparelho para gerar uma imagem, aparelho para gerar um sinal de imagem, método para gerar uma imagem, método para gerar um sinal de imagem e sinal de imagem
JP7285834B2 (ja) 三次元再構成方法および三次元再構成装置
KR20120078949A (ko) 배경 지형 장면의 입체 이미지 생성 방법, 시스템 및 이를 위한 기록매체
JP2023172882A (ja) 三次元表現方法及び表現装置
KR100893855B1 (ko) 3차원 포그라운드와 2차원 백그라운드 결합 방법 및 3차원어플리케이션 엔진
Thatte Cinematic virtual reality with head-motion parallax
Bouchard Perception and detection of occlusion-stereopsis conflicts in stereoscopic imagery
JP2022103836A (ja) 情報処理装置、情報処理方法及びプログラム
JP4995966B2 (ja) 画像処理装置、方法およびプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110809

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111108

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111129

R150 Certificate of patent or registration of utility model

Ref document number: 4879326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees