JP2010510571A - 3d画像の色補正の方法及びそのシステム - Google Patents

3d画像の色補正の方法及びそのシステム Download PDF

Info

Publication number
JP2010510571A
JP2010510571A JP2009537132A JP2009537132A JP2010510571A JP 2010510571 A JP2010510571 A JP 2010510571A JP 2009537132 A JP2009537132 A JP 2009537132A JP 2009537132 A JP2009537132 A JP 2009537132A JP 2010510571 A JP2010510571 A JP 2010510571A
Authority
JP
Japan
Prior art keywords
image
dimensional
color correction
geometry
stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009537132A
Other languages
English (en)
Other versions
JP4945642B2 (ja
Inventor
ビー.ベニテス アナ
ドン−チン チャン
エー.ファンチャー ジェイムス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2010510571A publication Critical patent/JP2010510571A/ja
Application granted granted Critical
Publication of JP4945642B2 publication Critical patent/JP4945642B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Abstract

同一のシーンに対してキャプチャされた少なくとも2つの別個の画像ストリームを含む3D画像の色補正のシステム及び方法は、選択された画像ストリームの少なくとも一部の三次元特性を決定することを含む。三次元特性は、光反射特性及び表面反射特性、表面色、反射特性、シーンジオメトリなどを含む。次に、選択された画像ストリームの一部の外観は、決定された三次元特性のうちの少なくとも1つの値を変更することによって、さらに1つの実施形態では、像形成理論を適用することによって、修正される。次に、修正を、自動的にかつ/またはユーザ入力のいずれかにより、出力された3Dピクチャにおいてレンダリングする。様々な実施形態において、少なくとも2つの画像ストリームのうちの選択されたストリームに行われる補正を、画像ストリームの他方に自動的に適用することができる。

Description

本発明は、概して、色補正のシステム及び方法に関する。より詳しくは、像形成理論を用いて、動画またはビデオシーンなどの画像コンテンツの三次元画像の色補正を改善しかつ可能にするシステム及び方法に関する。
従来の色補正は、2D画像のピクセル値を処理するだけの単なる2次元(2D)技術である。全ての従来の色補正は、原色演算をサポートする。原色演算は、例えばリフト、ゲイン、ガンマ、及び、演算子によって特定されて画像内の全てのピクセルに包括的に適用される米国撮影監督協会カラーディシジョンリスト(ASC CDL:American Society of Cinematographers Color Decision List)関数などである。しかしながら、近年では、色補正は、画像内のいくつかの選択ピクセルだけに適用される二次的演算もサポートする。
しかしながら、従来の色補正は、画像の同時チャネルとステレオカメラ等を用いたキャプチャ(撮像)に由来する関連情報との間の関係を有効に使うことができなかった。更に、既存の色補正処理は、実際の照明条件、光反射特性、またはシーン内のオブジェクトの三次元(3D)ジオメトリ(幾何形状)情報を考慮しないかまたは修正しない。従って、従来の色補正処理は、3D画像を色補正するには不十分である。
本発明は、立体画像などの三次元(3D)画像の色補正のための方法、装置及びシステムを提供することによって従来技術の不足に対処する。
本発明の様々な実施形態において、立体画像などの3D画像の色補正は、原色演算を用いて左チャネルのユーザ色補正画像から始まる。続いて、それらの色演算は、右チャネルの画像にコピーされる。最後に、ユーザは、右チャネルの画像に対する色補正を見直しかつ手作業で精密化して、左チャネルの画像に正しく一致させることができる。
本発明の1つの実施形態において、同一のシーンに対してキャプチャされた(捕捉された)少なくとも2つの別個の画像ストリームを含む3D画像の色補正方法は、三次元画像の選択された画像ストリームの少なくとも一部の少なくとも1つの三次元特性を決定(判断)するステップと、少なくとも1つの決定された三次元特性の値を変更することによって、選択された画像ストリームの少なくとも一部の外観を修正するステップとを含む。三次元特性は、ジオメトリ特性、光特性、表面反射特性などに関する情報を含むことができる。次に、選択された画像ストリームの一部の外観は、少なくとも1つの決定された三次元特性を変更することによって、および像形成理論などを用いて、修正されてもよい。次に、修正が、3D画像(例えば、2つの別個の画像ストリーム)において、それに応じてレンダリングされてもよい。様々な実施形態において、少なくとも2つの画像ストリームの選択された一方になされる修正は、画像ストリームの他方に自動的に適用され得る。
本発明の代替的実施形態において、三次元画像を色補正するシステムは、色補正のための画像を表示する参照(基準)ディスプレイデバイス及び色補正デバイスを含む。本発明の実施形態の色補正デバイスは、三次元画像の選択された画像ストリームの少なくとも一部の少なくとも1つの三次元特性を決定し、少なくとも1つの決定された三次元特性の値を変更することによって選択された画像ストリームの少なくとも一部の外観を修正する。本発明のシステムは更に、少なくとも2つの画像キャプチャデバイス、あるいは、少なくとも2つの画像ストリームをキャプチャするステレオカメラを含むことができる。
本発明の教示を、添付図面とともに以下の詳細な説明を考察することによって容易に理解することができる。
図面は、本発明の概念を説明するためであり、必ずしも本発明を説明するための唯一の構成であるというわけではないということが理解されなければならない。理解を容易にするために、同一の参照番号が可能であれば用いられて、図に共通している同一の要素を示す。
本発明の実施形態による、立体画像などの三次元(3D)画像の色補正のための色補正システム100のハイレベルブロック図である。 本発明による図1の色補正システムでの使用に適した色補正デバイスの実施形態のハイレベルブロック図である。 本発明の実施形態による図1の色補正システムでの使用に適したユーザインタフェースのハイレベルブロック図である。 本発明の実施形態による表面レンダリングの原理を示す図である。 本発明の実施形態による三次元情報を決定する方法のフローチャートである。 本発明の実施形態による三次元情報を用いて3D画像を色補正する方法のフローチャートである。
本発明は、立体画像などの三次元(3D)画像の色補正のための方法、装置及びシステムを有利に提供する。本発明は、例えばビデオ録画システム及び/またはビデオ編集システムなどの後処理環境のコンテキストの中で主として説明されるが、本発明の特定の実施形態は、本発明の範囲を限定しているものとして扱われてはならない。本発明の概念は、例えばカメラ、ビデオレコーダ、携帯電話、映画撮影用カメラ、またはネットワークを介してなどの、画像をキャプチャしかつ/または編集することができる任意のデジタルマルチメディアシステムなどのキャプチャされた画像又は画像の一部の色補正及び/または色調整のためのいかなる環境において、適用されてもよいということが有利であるということが、当業者によって認められかつ本発明の教示によって知らされる。更に、本発明の概念は、例えば3Dシーンキャプチャデバイスを用いて、立体画像キャプチャまたはデュアル画像キャプチャができる任意の記録方法に適用することができる。
本発明の様々な実施形態において、画像の2つの同時チャネル(例えば、立体画像対におけるいかなる追加のメタデータをも有する左右の画像)が受信される。各チャネルは、抽出された三次元ジオメトリ及び照明モデルに従って処理される。モデルは、2つの画像ストリーム同士の間の差分を考慮に入れて、例えばユーザ入力からの命令に従って各ストリームを修正する。本発明の実施形態は、各チャネルに対する米国撮影監督協会カラーディシジョンリスト(ASC CDL)演算などの標準原色補正のほかに、受信された画像の特定の領域に関する演算などの二次補正も提供する。
本発明の実施形態において、2つのストリームから及び/又は3Dデータベースから抽出される情報を用いてオブジェクト画定及びオブジェクト追跡が実行されて、光反射率などのオブジェクトの属性に対する特定のタイプの交代のための画素をユーザが分離するのを助ける。本発明により3D画像をモデル化することによって、第1のチャネルの画像の変化を、第2のチャネルの画像で容易にかつ自動的に翻訳しかつ実行できるようにする。
図に示した様々な要素の機能は、専用のハードウェア及び適当なソフトウェアに付随するソフトウェアを実行可能なハードウェアを用いて提供されてもよい。該機能は、プロセッサによって提供されると、単一の専用プロセッサによって、単一の共有プロセッサによって、またはその幾つかが共有されてもよい複数の個々のプロセッサによって提供されてもよい。更に、用語「プロセッサ」または「コントローラ」の明確な使用として、ソフトウェアを実行することができるハードウェアに限定して参照すべきではなく、デジタル信号プロセッサ(「DSP」)ハードウェア、ソフトウェアを記憶するリードオンリメモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、及び不揮発性記憶装置を非明示的に含むが、これらに限定されるものではない。
図1は、本発明の実施形態による立体画像などの三次元(3D)画像の色補正のための色補正システム100のハイレベルブロック図を示す。図1の色補正システム100は、画像キャプチャデバイス105、色補正デバイス110、及び参照ディスプレイ120を例として含んでいる。図1の色補正システム100において、画像コンテンツは、画像キャプチャデバイス105によってキャプチャされる。画像キャプチャデバイス105は、2つの別個のチャネル16及び18の形で、同一のキャプチャ画像(または画像シーン)の2つの画像ストリームを生成する。例えば、本発明の1つの実施形態において、画像キャプチャデバイス105は、同一のキャプチャ画像(例えば、3D画像を生成する左右の画像ストリーム/チャネル)の2つの画像ストリームを生成することができるステレオカメラを含むことができる。本発明の代替的実施形態において、画像キャプチャデバイス105は、キャプチャ画像の2つの同時チャネル16及び18を提供する2つの別個の画像キャプチャデバイス112及び114を含むことができる。
2つの画像ストリーム16及び18は、色補正デバイス110に伝達される。色補正デバイス110において、各チャネル16及び18は、三次元照明及びジオメトリモデルを提供するためにそれに応じて処理される。三次元照明及びジオメトリモデルが生成されて、色補正デバイス110に保存される。モデルは、2つの画像ストリーム16と18との間の差分を考慮する。次に、各ストリームは、例えばオペレータからの命令に従って修正されてもよい。本発明の1つの実施形態において、色補正デバイス110は、各チャネル16及び18に対するASC CDL演算などの標準原色補正のほかに画像ストリームの特定の領域に関する演算などの二次的補正も提供する。図1の実施形態は、3D画像化のための2つの別個のストリームを生成しかつ提供するというコンテキストの中で説明されているが、本発明の代替的実施形態では、対応する深さマップを有する2D画像も、3D画像化のために用いることができる。
図2は、本発明による図1の色補正システム100における使用に適した色補正デバイスの実施形態のハイレベルブロック図を示す。図2の色補正デバイス110は、プロセッサ210のほかに、制御プログラム、ジオメトリ情報、光情報及びモデル、並びにオブジェクトデータベースなどを保存するメモリ220も含む。プロセッサ210は、電力供給、クロック回路、及びキャッシュメモリなどの従来のサポート回路230のほかに、メモリ220に保存されたソフトウェアルーチンを実行するのに役立つ回路と協働する。そのようなものとして、ソフトウェア処理として本明細書において検討されるいくつかの処理ステップは、例えばプロセッサ210と協働して様々なステップを実行する回路として、ハードウェア内で実行されてもよいと考えられる。色補正デバイス110はまた、色補正デバイス110と通信する様々な各機能要素同士の間のインタフェースを形成する入出力回路240を含む。
図2の色補正デバイス110は、本発明による様々な制御機能を実行するようにプログラムされている汎用コンピュータとして示されているが、本発明は、特定用途向け集積回路(ASIC)などのハードウェアにおいて実行されてもよい。このように、本明細書で説明されている処理ステップは、ソフトウェア、ハードウェアまたはそれらの組合せによって同等に実行されるものと広く解釈されることを意図している。
本発明の1つの実施形態において、本発明の色補正システム100は、環境情報及び色補正パラメータに関する情報をユーザが色補正デバイス110に入力することができるようにするユーザインタフェース125を更に含むことができる。図1の色補正デバイス110のユーザインタフェース125は、無線遠隔制御、マウスまたはトラックボールなどのポインティングデバイス、音声記録システム、タッチスクリーン、オンスクリーンメニュ、ボタン、ノブ(knobs)などを含むことができる。更に、ユーザインタフェース125は、色補正デバイス110に直接、または遠隔パネルまたは遠隔デバイスに設けられてもよい。
例えば、図3は、本発明の実施形態による図1の色補正システムにおける使用に適したユーザインタフェースのハイレベルブロック図を示す。図3のユーザインタフェース125は、スクリーンまたはディスプレイ302を含むスタンドアロンのワークステーションを含んでもよく、または、プロセッサもしくはコントローラを有するコンピュータのグラフィカルユーザインタフェースとしてソフトウェアで実行されてもよい。制御部310−326は、ユーザインタフェース125の実行に依存する、現実のノブ/スティック310、キーパッド/キーボード324、ボタン318‐322、仮想ノブ/スティック及び/または仮想ボタン314、並びにマウス326を含むことができる。
スクリーン302は、画像または画像コンポーネントを見るための領域を含み、色補正及び画像内のジオメトリ修正または光源修正を可能にする。ユーザ制御カーソル(図示せず)をスクリーン上で用いて、制御を起動してスクリーン302の一部を強調するかまたはアクティブにすることができる。カーソルは、マウス326、キーパッド324、ジョイスティックまたは他の選択/ポインティングデバイス330を用いて実行されかつ移動されてもよい。それらは、ユーザインタフェース125の一部としてまたは分離されて維持されてもよい。
1つの実施形態において、画像(または複数の画像)の領域304が、処理のために選択される。領域は、オブジェクト305を含み、オブジェクト305について、ジオメトリデータ、光源データ、反射率データ、及び他の任意の特徴が集められて保存され得る。オブジェクト305は、一定の特性(例えば、反射率(非発光表面)等)を含むように選択されることが望ましく、光源位置、ジオメトリ特徴、またはそれらの両方を決定するかまたは推定する方法として用いられ得る。画像のレンダリングを、スクリーン302に表示することができる(あるいは、画像のレンダリングを、参照ディスプレイ120に表示することができる)。画像のキャプチャの間に集められた、または(下記に更に詳述される)推定によって画像のオブジェクトに起因する、一組の特性に基づいて画像に修正を行うことができる。これは、キャプチャデバイス(または複数のキャプチャデバイス)を用いて集められた3D情報を含む。本明細書において説明されている編集ツール及び微調整は、ソフトウェアベースのツールを用いて自動的に、手入力の操作で、または両方の組合せで実行され得る。これは、ジオメトリモデルに基づく自動的な、チャネル対の画像の一方と他方との間の更新された画像情報の転送を含むことができる。
図1に戻って参照すると、色補正デバイス110において、3Dピクチャ(例えば左右の画像ストリーム)が分析されて、キャプチャシーンの照明、表面反射率、及び3Dジオメトリモデルを作成する(構築する)。この処理は、ユーザインタフェース125を介したユーザからの入力(または複数の入力)を含むインタラクティブな処理であってもよい。3Dジオメトリモデルは、例えば画像のキャプチャの間に集められた3D情報を用いて生成されてもよい。例えば、本発明の1つの実施形態において、本システムの色補正デバイスは、画像キャプチャの領域に置かれてもよく、画像キャプチャに含まれる環境条件を決定する様々なセンサ(図示せず)を含むことができる。例えば、本発明の色補正デバイスは、画像がキャプチャされる環境の照明条件を決定する光センサを含むことができる。
色補正デバイス110によって決定される照明モデル、反射モデル、及び3Dジオメトリモデルに基づいて、シーン内のオブジェクトの照明特性、表面反射特性、及び表面ジオメトリを修正することができる。指定した演算が、両方の画像ストリームに適用される。本発明の様々な実施形態において、発明者はキャプチャ画像の態様を決定する像形成理論を実行する。例えば、画像の形成は、少なくとも以下の4つの要因に依存する。即ち、カメラ、シーンジオメトリ、光源特性、及び表面反射特性である。反射放射輝度(それは、カメラ投影後のキャプチャした2D画像のうちの1つの最終的に観察されたピクセル値に比例している)と、拡散成分及び鏡面反射成分を分解しかつ鏡面反射率についてのフォンモデル(Phong model)を用いた後の上記の4つの要因との間の関係は、以下の式(1)によって見積もられる。
Figure 2010510571
ここで、Lr(x,ωr,λ)は、反射放射輝度を示し、反射放射輝度は、カメラ投射後の観察されるピクセル値に比例している。xは、シーン表面上のポイントである。ωrは反射角を示す。λは、光線の波長を示す。Le(x,ωr,λ)は、表面によって放射される放射輝度を示す。Li(x,ωi,λ)は、入射放射輝度を示す。ωiは入射角を示す。ωsは、正反射方向の角度を示し、正反射方向の角度は、表面法線及び入射光線によって決定される。Lsは、正反射方向に沿った放射輝度を示す。ρd及びρsは、拡散アルベド(diffusive albedo)及び鏡面反射アルベド(specular albedo)(反射率)をそれぞれ示す。cosθs=(ωs・ωr)及びnは、鏡面性の鮮明さを決定するパラメータを示す。cosθi=(ωi・N)、ここで、Nは表面法線である。これらの要素同士の間の関係は、図4に例示されている。
より具体的には、図4は、表面レンダリングのための基本原理の図を示す。図4において、光源410は、入射角ωiで光を与える。光源410は、法線N(x)と角度θiを作る。法線N(x)は、表面412に垂直であり、それは光源410からの光を反射することに関与する。図4の図において、ωr'は、例えば第1のキャプチャ位置からの反射の角度を示し、ωsは、正反射方向の角度を示し、θs'は、それらの間の角度を示す。更に、図4の図において、ωr,は、例えば第2のキャプチャ位置からの反射の角度を示し、θs,は、第2のキャプチャ位置からの反射の角度と、正反射方向の角度であるωs,との間の角度を示す。
本発明では、左チャネル16及び右チャネル18についてキャプチャされた3Dシーン情報が考慮される。または、チャネルの各々についての式(1)は、以下の式(2)及び式(3)によって特徴づけられる。
Figure 2010510571
Figure 2010510571
区別する目的で、本発明の1つの実施形態において、式(2)は、右目チャネルを示すことができ、式(3)は、左目チャネルを示すことができる。留意すべきは、式(2)及び式(3)のいずれの第2項
Figure 2010510571
も、同じものであるということである。
式(2)及び式(3)は、非発光表面(例えば、式(2)及び(3)の第1項(Le(x,ωr,λ)=0)及び/または式(2)及び(3)の均等拡散面(第3項(ρs(x,λ)Ls(x,ωs,λ)(cosθs'n=0)について更に簡約化することができる。
3D画像からの照明モデル、表面反射モデル、及び3Dジオメトリモデルの抽出は、2つのステレオチャネルの2D画像から得られてもよい。
本発明の実施形態において、対話型処理は、人間による入力のほかに、3Dシーン情報(例えば、左右の画像ストリーム)及び光情報(例えば、シーンに対する球面鏡(mirror spheres)のピクチャ)も考慮し、図5を参照して説明されるように、これらのモデルを抽出して精密化する。そして上記したように、例えば、3D環境における色補正能力を実現するために、光源情報及び表面ジオメトリ情報のほかに表面反射特性も、処理の前に必要とされるかもしれない。例えば外部ソースからに含まれるか、または、処理される画像から推定される画像から、3D情報を得るいくつかの方法がある。外部ソースについて、3Dジオメトリは、例えばレーザスキャナまたは他のデバイス、及び/またはユーザ入力などのジオメトリキャプチャデバイスによって得られてもよい。光情報は、光センサ及び/またはミラーボールなどの光キャプチャデバイスから決定されてもよい。画像から環境特性を推定するために、単一の画像から同時にシーンジオメトリ、光反射特性及び表面反射特性を取り戻そうとすることは難しい。多数の未知の変数が存在するからである。しかしながら、色補正処理において、ユーザは、システムと相互作用して所望の効果を実現することができる。
従って、ユーザ‐コンピュータ相互作用及び3D画像を、シーンジオメトリ復元を容易にしかつ改善するために利用することができる。例えば、ユーザは、システムにとって「良い」領域を選択して光源を推定することができる。次に、推定された光源を、より複雑な領域のために用いることができる。ユーザはまた、光源の位置を推定し、システムがインタラクティブに光源及びシーンの3Dジオメトリを精密化するのを支援することができる。さらに、僅かに異なる位置を有しかつ画像データを同時にキャプチャする2台のカメラまたは他の3Dピクチャキャプチャデバイスに基づいてシーン内のオブジェクトからジオメトリ情報を得てもよい。このように、2つの画像は、例えば、コンピュータ視覚ソフトウェアツールを用いて比較されて、3次元のジオメトリ特徴を決定してモデルを生成することができる。ここで留意すべきは、3D画像は、3次元のためのジオメトリ情報を含むということである。
例えば、図5は、本発明の実施形態によるシーンの三次元情報を決定する方法500のフローチャートを示す。図5の方法500は、ステップ501から始まり、ステップ501において、画像情報(例えば、シーン情報)は少なくとも2つのチャネル(例えば、画像ストリーム)を介して受信される。各チャネルは、例えば、ステレオカメラまたは2台の別個のカメラを用いて、僅かに異なる角度から撮られる同一のシーンの情報ストリームを運ぶことができる。方法500は、ステップ502へ進む。
ステップ502で、ユーザは、特定の特性(例えば、均等拡散面(Lambertian surface))を有する受信した画像の領域を選択する。より具体的には、ステップ502で、受信した画像の特定の領域が選択されて、表面または3Dモデルの作成に役立ち得る。例えば、鏡面反射アルベドについて(近似値であっても)、正反射方向に沿った放射輝度、及びカメラ位置が既知である場合、表面法線を、以下の式(4)及び式(5)を用いて決定することができる。
Figure 2010510571
Figure 2010510571
更に、無数の既知の光源があり、表面が均等不拡散である場合、この表面が選択されて3Dモデルを生成するのに役立ち得る。ユーザは、例えば正反射アルベド、正反射方向に沿った放射輝度、並びにカメラ位置及び/または均等拡散面などの特定の既知の特性を有する画像またはその一部の領域を選択する。次に、方法500は、ステップ504へ進む。
ステップ504で、ユーザは、画像コンテンツに従って、この場合はシーン内の光(照明)位置である三次元特性の決定または評価を準備する。しかしながら、本発明の代替的実施形態において、三次元特性は、以前に受信した画像から推定されてもよい。次に、方法500はステップ506へ進む。
ステップ506で、3Dジオメトリモデルを、コンピュータ視覚技術を用いてシーンジオメトリ情報(例えば、左右の画像ストリーム)の2つの同時チャネルから作成することができる。左右の画像対が最初に登録されて共通の座標系を共有する。例えば、本発明の1つの実施形態では、深さは、画像差分及びカメラ位置に基づいてあらゆるピクセルについて算出され、そのとき3D表面モデルは深さ決定に適している。更に、(左右の画像対だけでなく)左右の画像ストリームが利用できるので、3Dジオメトリ情報は、同様に時間内の前の左右の画像対から評価されてもよい。このことは、オブジェクトまたはカメラが移動する場合に、作成された3Dジオメトリモデルの精度を改善するのに非常に役立ち得る。更に、追加の3Dジオメトリ情報を、例えば、非発光表面を仮定することによって、上記の式(2)‐(5)を用いて抽出することができる。次に、方法500は、ステップ508へ進む。
ステップ508で、選択された領域は、リレンダリングされる。かかるリレンダリングは、既存のレイトレーシングアルゴリズム(ray-traciing algorithm)を用いて実現されてもよい。次に、方法500は、ステップ510へ進む。
ステップ510で、元の選択された領域の外観とレンダリングした領域とが比較される。リレンダリングした領域及び元の領域があまり一致していない場合、例えば光位置を再評価することによってより良い一致を実現するためにステップ504に返る。リレンダリングされた領域及び元の領域がよく一致する場合、方法は終了する。一致するかどうかは、画像が改善されたかどうかを判断するために用いられてもよい客観的基準または画像の仕様に基づいていてもよい。本発明によれば、一旦、シーンの三次元情報(例えば、三次元特性)が上記のように決定されると、三次元特性(例えば、光源位置及び光度、表面反射率、その他)が修正されて(下記に詳述される)、画像についての所望の「外観」を実現することができる。本発明の実施形態において、一致には、2つの画像チャネルの光源及びジオメトリからの情報を含むことができる。次に、最終的な光情報を、同一の画像の他の領域に再利用することができる。
ステップ512で、2Dストリームのうちの選択されたストリームに対して本発明の処理によって実行されるあらゆる変更を、基本になっている三次元モデルを用いて他方のストリームに自動的にまたはユーザ入力を介して適用することは任意である。
1つの2D画像に対して光源を与えられたシーンジオメトリの復元のための本発明の方法の実施形態が、ここで更に詳細に説明される。選択された領域が一定のアルベドまたは他の一定の特性を有する均等拡散面パッチであると仮定すると、アルベドマップは、区分に関して言えば一定であり、従って、アルベドマップ上で一定のアルベドを有する領域を見つけることは難しいはずがない。留意すべきは、均等拡散面のために、以下の式(6)によって、光、ジオメトリ、及びアルベドが制約されるということである。
Figure 2010510571
選択された色補正領域内でアルベドが一定の場合、光かまたはジオメトリのうちの1つを認識することが、他の要因を復元するのに役立ち得る。多くの場合、シーン表面を均等拡散面として見積もることができる。均等拡散面で、反射特性はあらゆる方向に一定であり、それはまた、式(1)の正反射の項がゼロになるということを示す。表面放射も無視することができる場合(それは、大部分の表面タイプにあてはまる)、以下の簡約化した式が準備されてもよい。
ここで、
Figure 2010510571
は、従来、照明画像と称されていて、それは、シーンアルベドの影響を排除するとともに、光及び表面ジオメトリの相互作用を符号化する。アルベドマップは、以下の式7(7)に従って、観察された画像及び照明画像から復元され得るということは明らかである。
Figure 2010510571
アルベドマップ(領域内で一定)及び光位置(有限のポイント光源数)を与えられると、ジオメトリを、以下の式(8)により表面法線N(x)を最初に得ることによって復元することができる。
Figure 2010510571
ここで、Li,はポイント光源iの放射輝度を示す。N(x)は、表面法線を示す。ωiは、光源iの入射光線を示す。しかしながら、式(8)は無数の解を有することができるので、式(8)を解くことは難しいかもしれない。問題の解をもっと明確にするために、発明者は、法線マップが領域内で連続していて滑らかであるという制約を課すことを提案する。従って、明確な関数を、以下の式(9)によって特徴づけることができる。
Figure 2010510571
式(9)の関数の第1項(第1の積分)は、式(8)を満足させようとし、一方、第2項(第2の積分)は滑らかさの制約を課すための正規化項である。式(9)の関数を最小化することによって、近似の法線マップN(x)を、以下の式(10)により特徴づけることができる。
Figure 2010510571
式(6)の関数と類似した関数が用いられて、例えばオプティカルフロー評価などの他の産業の条件を決定する。概して解は、傾斜降下(gradient decent)または関数を最小化することによって見出されてオイラー・ラグランジェ(Euler-Lagrange)微分方程式を解くことができる。オイラー・ラグランジェ微分方程式は、周知の計算方法によって解かれる。一旦、法線マップが復元されると、初期条件として領域境界を用いて二次微分方程式を解くことによって領域内のジオメトリを復元することができる。法線マップから3D表面を算出する方法は、標準のコンピュータ視覚テキストで知ることができる。以下、像形成理論を有する色補正及び本発明による画像形成を用いている3D情報について説明する。
本発明による画像形成を用いる像形成理論及び3D情報での色補正がここで説明される。本発明は、少なくとも明色、表面色及び反射特性、光位置、並びに表面ジオメトリを修正することによってユーザ(例えば、カラリスト)が画像の「外観」を変更できるようにする。更に、他の変更を利用することができる。例えば、これらの要因のいかなる組合せを修正して所望の「外観」を生成してもよい。かかる変更は、上記したように図5の方法のステップ504及びステップ508で実行されることが望ましい。変更は、オペレータによって与えられる命令に基づいて3D画像にレンダリングされ得る。例えば、ステレオ対の場合には、修正は、3Dジオメトリ情報及び2つのチャネルの間のジオメトリ対応に基づいて左右のチャネルの画像に対して自動的にレンダリングされる。
本発明の1つの実施形態において、入射光の色を修正することだけが所望されると仮定する。そのとき、光の色は、スケーリングされる必要がある。具体的には、要因S(λ)によって入射光の放射輝度を乗じることによって、入射光のカラーコンポーネントの構成が変更される。このことは、色温度、輝度等を変更するために用いられてもよい。次に、シーンの反射光を、以下の式(11)により特徴づけることができる。
Figure 2010510571
式(11)は、明色をスケーリングすることが最終的に観察される色をスケーリングすることに相当するということを示す。従って、明色を修正することが、従来の色補正処理に相当するとみなされてもよい。
シーン表面が均等拡散面であると仮定されかつ材料の放射が無視される表面反射率を修正する最も単純な場合を検討すると、表面反射率を、以下の式(12)により特徴づけることができる。
Figure 2010510571
上記の修正のように、S(λ)を有する拡散アルベドρd(x,λ)をスケーリングすることは、最終的に観察される値をスケーリングすることに相当する。
放射特性及び正反射特性の両方を無視できないより一般的な場合について、3Dジオメトリ及び光情報は、レンダリングのために必要とされる。外部ソース(即ち、光キャプチャデバイス及び/または3Dスキャナから)からの3Dジオメトリ情報及び光源情報について説明した処理を用いることによって、ユーザは、放射コンポーネントLe(x,ωr,λ)を変更し、拡散アルベドρd(x,λ、)、正反射アルベドρs(x,λ、)、及び正反射パワーnを変更することができる。次に、選択された領域は、上記の式(2)及び式(3)を用いてリレンダリングされ得る。かかるリレンダリングは、既存のレイトレーシングアルゴリズムを用いて実現されてもよい。
光位置及び方向だけを修正する実施形態において、ユーザは、光が指向的な場合に、光の位置及び方向を変更することができる。ユーザはまた、追加の光源をシーンに加えることができる。表面の3Dジオメトリを利用できる場合、リレンダリングすることは、上記の式(2)及び(3)を用いて単に実現されてもよい。光位置を修正することによって、いくつかの特別な効果は、例えば表面の鏡面性を変更することによって実現され得る。
シーンジオメトリだけを修正する実施形態において、ユーザは選択された領域のジオメトリを変更することができる。表面のジオメトリを変更することは、Bスプラインに類似の編集ツールによって実現され得る。Bスプラインに類似の編集ツールは、いくつかの既存のソフトウェアパッケージにおいて提供されている。一旦、ジオメトリが修正されると、式(2)及び式(3)を用いて、レイトレーシングアルゴリズムを用いて選択された表面をリレンダリングすることができる。
上記の単一の要因の修正方法に加えて、上記の方法を組み合わせて、本発明による画像のオブジェクト外観の異なった態様を変更することができる。例えば、像形成理論においてて説明したように、画像のジオメトリ(例えば、表面反射率)及び光の両方を修正する場合では、シーンのレンダリングを、以下の式(13)により説明することができる。
Figure 2010510571
ここで、Id(x,λ)は、照明画像を示し、Id(x,λ)に類似していて、鏡面照明画像を、以下の式(14)により特徴づけることができる。
Figure 2010510571
照明画像及び鏡面照明画像の両方は、3D環境の光情報及びジオメトリ情報を符号化する。照明画像を用いて、光及びジオメトリ取得処理は、ジオメトリ情報及び光情報を評価する代わりに照明画像自身を編集することだけによって避けることができる。照明画像及び鏡面照明画像は、マットペインティングによって得られるかまたは、利用可能な3Dジオメトリを用いて別個のレンダリング処理を介してレンダリングされ得る。一旦、このことが完了すると、式(13)を、選択された領域に照明画像を組み込むために用いることができる。
本原理の実施形態による色補正方法は、光、表面反射率、及び3Dジオメトリを修正して、シーンの3Dジオメトリ情報から生成される照明モデル、表面反射モデル、及び3Dジオメトリモデルを修正することによってシーン内の所望の効果を設けることができる。本発明の様々な実施形態によれば、ユーザが2D画像の2つの同期チャネルのうちの1つだけに手を加えるときでも、色補正演算は、2D画像の2つの同期チャネルに対してレンダリングされる。このことによって、シーンの3Dジオメトリ及びカメラ位置の認識が自動的に行われ得る(ステップ520)。
本発明の方法の実施形態は、シーン全体(もしくは3D画像)またはその一部に適用され得る。例えば、特定のオブジェクトは、3Dピクチャ(この処理は、3Dジオメトリモデルを用いて容易にされる)並びに画像の残りの部分から独立して修正されるその表面反射率及びジオメトリ特性から分割されてもよいし見つけられてもよい。
図6は、本発明の実施形態によるシーンの三次元情報を用いて画像を色補正する方法のフローチャートを示す。図6の方法は、ステップ602で開始し、ステップ602で、受信した画像内でレンダリングされるべきシーンのオブジェクトの特徴についての情報が、シーンのオブジェクトについての反射率、光源情報、及びジオメトリ情報のうちの少なくとも1つを含む三次元特性に関する外部ソース情報を集めることにより色補正のために準備される。上記のように、かかる情報は、外部センサまたはユーザ入力を用いて集められてもよい。本発明の実施形態によれば、反射率、光源情報、及びジオメトリ情報のうちの少なくとも1つを、ステレオカメラもしくはデュアル画像キャプチャデバイスまたは他の3D画像キャプチャデバイスから集められる情報の左右のチャネルを用いて得ることができる。次に、方法は、ステップ608へ進む。
あるいは、図6の方法600は、ステップ604で開始することができ、ステップ604で、光源位置及び/またはオブジェクトジオメトリを受信した画像から推定することができる。例えば、図6に示すように、光源位置及び/またはオブジェクトジオメトリの推定は、ステップ605を含み、ステップ605で、一定の特性または複数の一定の特性(例えば、アルベド、反射率、その他)を有する領域が選択されて、領域内の光源位置及び/またはオブジェクトジオメトリがより容易に決定される。さらに、ステップ606を含み、ステップ606で、関数(例えば、式(9))が決定されて、オブジェクトジオメトリのための表面を画定/制約する。次に、方法は、ステップ608へ進む。
ステップ608で、オブジェクトジオメトリ及びジオメトリ情報のうちの少なくとも1つを用いて、選択された領域内のピクセル値を、1つの実施形態では、2つのチャネルの画像ストリーム同士の間の差分を調べることによって、ジオメトリ評価及び光評価のために算出する。本発明の代替的実施形態において、選択された領域内のピクセル値は、光源を変更することによってかつ/または選択された領域のジオメトリを変更することによって、ジオメトリ評価及び光評価について算出される。次に、方法は、ステップ610へ進む。
ステップ610で、領域に対して評価されたピクセル値は、元の画像内のピクセル値と比較されて、一致が存在するかどうか判断される。一致が存在する場合、方法はステップ612へ進む。一致が存在しない場合、方法はステップ614へとスキップする。
ステップ612で、所望の「外観」が実現されるまで、色、表面のジオメトリ、光の色及び方向などが修正される。次に、方法は、次の画像へ進み、次の画像が存在しない場合、方法は終了して、得られる3D画像を、例えば図1の参照ディスプレイ120に表示することができる。
ステップ614で、更なる編集または精密化が、光源の値を精密化することにより、かつ/または画像の一部のジオメトリの値を精密化することにより画像の一部を精密化することによって実行されて、より類似したものを実現する。光源及びジオメトリを、画像及び鏡画像が三次元環境についての光情報及びジオメトリ情報で符号化された照明画像及び鏡面性画像を用いて精密化することができる。次に、方法は、ステップ610に返る。
任意のステップ(図示せず)において、ステップ612で少なくとも2つの画像ストリームのうちの選択された第1のストリームの修正の後に、選択された第1の画像ストリームに適用される変更を、(適用可能な場合に)第2の画像ストリームに適用することができる。
本発明の方法を、同じ画像の他方の画像または異なる領域に対して繰り返すことができる。ステップ612に戻って参照すると、色、表面ジオメトリ及び光の色、光の方向が、所望の「外観」が実現されるまで、変更される。所望の「外観」は、特定の色を修正し、ジオメトリの欠点を直し、または客観的基準または主観的基準により所望の視覚効果を実現することを含んでもよい。修正は、2つのチャネル同士の間の3Dシーンジオメトリ及びジオメトリ対応に基づいて出力される3D画像(即ち、ステレオ対)にマッピングされる。このことは、自動的にまたはユーザによるアプリケーションによって対のうちの一方の画像から他方へ変更を転送することを含む。
3D画像の色補正のための方法及びシステムについて好適な実施形態(それは、説明であって限定していないことを意図している)を説明してきたが、留意すべきは、変更態様及び変化形が上記の教示を考慮して当業者によって行われ得るということである。従って、添付の請求の範囲によって要点が述べられているように、開示された本発明の特定の実施形態において変更がなされてもよいということが理解されるべきである。開示された本発明の特定の実施形態は、本発明の範囲及び精神の範囲内にある。よって特許法によって要求される詳細及び特殊性を用いて本発明を説明してきたので、特許状によって保護される、請求されかつ要求されることは、添付の請求の範囲に記載されている。

Claims (26)

  1. 同一のシーンに対してキャプチャされた少なくとも2つの別個の画像ストリームを含む三次元画像を色補正する方法であって、
    前記三次元画像の選択された画像ストリームの少なくとも一部についての少なくとも1つの三次元特性を決定するステップと、
    少なくとも1つの決定された三次元特性の値を変更することによって前記選択された画像ストリームの少なくとも前記一部の外観を修正するステップと、
    を含む方法。
  2. 前記少なくとも1つの三次元特性は、前記三次元画像の前記少なくとも1つの部分についての光特性、表面色、反射特性、及びシーンジオメトリのうちの少なくとも1つを含むことを特徴とする請求項1記載の方法。
  3. 前記選択された画像ストリーム内の領域を選択して、該領域内で前記少なくとも1つの三次元特性を決定するステップを更に含むことを特徴とする請求項1記載の方法。
  4. 前記画像ストリーム内の領域を選択するステップは、正反射方向に沿った放射輝度が既知でありかつ画像キャプチャデバイスの位置が既知であって、アルベドが一定の領域を選択するステップを含むことを特徴とする請求項3記載の方法。
  5. 前記決定するステップは、
    前記2つのキャプチャされた画像の間の差分に基づいて深さ値を算出するステップと、
    前記算出された値を用いて前記選択された画像ストリームの少なくとも一部をレンダリングするステップと、
    前記選択された画像ストリームの前記レンダリングした部分を前記元の画像ストリームの対応する部分と比較してその間に一致があるかどうかを判断するステップと、
    を含むことを特徴とする請求項1記載の方法。
  6. 前記少なくとも1つの三次元特性は、ユーザ入力に基づいて決定されることを特徴とする請求項1記載の方法。
  7. 前記決定するステップは、前記選択された画像ストリームの前記少なくとも1つの部分の表面に基づいて光源位置及びオブジェクトジオメトリのうちの少なくとも1つを推定するステップを含むことを特徴とする請求項1記載の方法。
  8. 前記推定するステップは、像形成理論を用いるステップを含むことを特徴とする請求項7記載の方法。
  9. 前記少なくとも1つの三次元特性は、少なくとも1つのセンシングデバイスを用いて決定されることを特徴とする請求項1記載の方法。
  10. 前記少なくとも1つのセンシングデバイスは、画像キャプチャの間、前記三次元画像のキャプチャ環境に置かれることを特徴とする請求項9記載の方法。
  11. 前記選択された画像ストリームの少なくとも前記一部の外観は、像形成理論を用いて修正され、前記像修正理論は、前記選択された画像ストリームの前記少なくとも1つの部分の表面領域を画定する関数を決定するステップを含むことを特徴とする請求項1記載の方法。
  12. 前記少なくとも2つの画像ストリームは、少なくとも2つの画像キャプチャデバイスを用いてキャプチャされることを特徴とする請求項1記載の方法。
  13. 前記少なくとも2つの画像ストリームは、ステレオカメラを用いてキャプチャされることを特徴とする請求項1記載の方法。
  14. コンピュータ視覚技術を用いて、前記少なくとも2つの画像ストリームから三次元モデルを生成するステップを含むことを特徴とする請求項1記載の方法。
  15. 前記少なくとも1つの決定された三次元特性の前記変更された値は、前記選択された画像ストリームのレンダリングに適用されて、前記選択された画像ストリームの前記外観を修正することを特徴とする請求項1記載の方法。
  16. 前記選択された画像ストリームに対して決定された修正を前記少なくとも2つの画像ストリームの他方にレンダリングするステップを含むことを特徴とする請求項1記載の方法。
  17. 同一の画像に対してキャプチャされた少なくとも2つの別個の画像ストリームを含む三次元画像を色補正するシステムであって、
    色補正のための画像を表示する参照ディスプレイデバイスと、
    前記参照ディスプレイと通信する色補正デバイスと、
    を含み、
    前記色補正デバイスは、
    受信した三次元画像の選択された画像ストリームの少なくとも一部についての少なくとも1つの三次元特性を決定し、
    少なくとも1つの決定された三次元特性の値を変更することによって、前記選択された画像ストリームの少なくとも前記一部の外観を修正することを特徴とするシステム。
  18. 少なくとも1つの三次元特性を決定する少なくとも1つのセンシングデバイスを含むことを特徴とする請求項17記載のシステム。
  19. ユーザ入力を可能にするユーザインタフェースを含むことを特徴とする請求項17記載のシステム。
  20. 前記ユーザインタフェースは、無線遠隔制御、マウスもしくはトラックボールなどのポインティングデバイス、音声認識システム、タッチスクリーン、オンスクリーンメニュ、ボタン、及びノブのうちの少なくとも1つを含むことを特徴とする請求項19記載のシステム。
  21. 前記少なくとも1つの三次元特性は、前記ユーザインタフェースを用いて前記色補正デバイスに伝達されることを特徴とする請求項19記載のシステム。
  22. 前記少なくとも2つの画像ストリームをキャプチャする少なくとも2つの画像キャプチャデバイスを含むことを特徴とする請求項17記載のシステム。
  23. 前記少なくとも2つの画像ストリームをキャプチャするステレオカメラを含むことを特徴とする請求項17記載のシステム。
  24. 前記色補正デバイスは、少なくとも2つの画像ストリームの間の差分を用いてオブジェクトの三次元モデルを作成することを特徴とする請求項17記載のシステム。
  25. 光源特性とジオメトリ特性との組み合わせを、三次元環境についての光情報及びジオメトリ情報で符号化された照明画像及び鏡像を用いて精密化することを特徴とする請求項17記載のシステム
  26. 前記色補正デバイスは、前記選択された画像ストリームに対して決定された補正を少なくとも2つの画像ストリームのうちの他方にレンダリングすることを特徴とする請求項17記載のシステム。
JP2009537132A 2006-11-21 2006-11-21 3d画像の色補正の方法及びそのシステム Active JP4945642B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2006/044953 WO2008063167A1 (en) 2006-11-21 2006-11-21 Methods and systems for color correction of 3d images

Publications (2)

Publication Number Publication Date
JP2010510571A true JP2010510571A (ja) 2010-04-02
JP4945642B2 JP4945642B2 (ja) 2012-06-06

Family

ID=38434812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009537132A Active JP4945642B2 (ja) 2006-11-21 2006-11-21 3d画像の色補正の方法及びそのシステム

Country Status (6)

Country Link
US (1) US8538144B2 (ja)
EP (1) EP2089852A1 (ja)
JP (1) JP4945642B2 (ja)
KR (1) KR101342987B1 (ja)
CN (1) CN101542537B (ja)
WO (1) WO2008063167A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011258179A (ja) * 2010-05-14 2011-12-22 Canon Inc 画像処理装置及びその制御方法

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7542034B2 (en) 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
US9508190B2 (en) 2006-06-09 2016-11-29 Thomson Licensing Method and system for color correction using three-dimensional information
KR101342987B1 (ko) 2006-11-21 2013-12-18 톰슨 라이센싱 3d 이미지의 컬러 보정을 위한 방법 및 시스템
US8655052B2 (en) 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
US8274530B2 (en) 2007-03-12 2012-09-25 Conversion Works, Inc. Systems and methods for filling occluded information for 2-D to 3-D conversion
CN101843106B (zh) * 2007-11-01 2015-11-25 柯尼卡美能达控股株式会社 摄像装置
US8564644B2 (en) * 2008-01-18 2013-10-22 Sony Corporation Method and apparatus for displaying and editing 3D imagery
US8537229B2 (en) * 2008-04-10 2013-09-17 Hankuk University of Foreign Studies Research and Industry—University Cooperation Foundation Image reconstruction
US8929586B2 (en) * 2008-05-09 2015-01-06 Hartford Fire Insurance Company System and method for detecting potential property insurance fraud
WO2010032403A1 (ja) * 2008-09-18 2010-03-25 パナソニック株式会社 映像コンテンツを立体視再生する再生装置、再生方法、および再生プログラム
WO2010087162A1 (ja) * 2009-01-27 2010-08-05 日本電気株式会社 カラー画像処理方法、カラー画像処理装置および記録媒体
JP5533670B2 (ja) * 2009-01-29 2014-06-25 日本電気株式会社 カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
US8284236B2 (en) 2009-02-19 2012-10-09 Sony Corporation Preventing interference between primary and secondary content in a stereoscopic display
JP5515988B2 (ja) * 2010-04-05 2014-06-11 ソニー株式会社 信号処理装置、信号処理方法、表示装置及びプログラム
US9013552B2 (en) * 2010-08-27 2015-04-21 Broadcom Corporation Method and system for utilizing image sensor pipeline (ISP) for scaling 3D images based on Z-depth information
GB2483433A (en) 2010-08-31 2012-03-14 Sony Corp 3D image adjustment based on differences in colour properties between stereo pair
US20120062551A1 (en) * 2010-09-13 2012-03-15 Lg Electronics Inc. Image display apparatus and method for operating image display apparatus
CN102466962B (zh) * 2010-10-29 2015-02-18 华晶科技股份有限公司 立体影像产生方法及立体成像系统
TWI441093B (zh) * 2010-10-29 2014-06-11 Altek Corp 立體影像產生方法及立體成像系統
CN102480625A (zh) * 2010-11-26 2012-05-30 日立民用电子株式会社 立体影像处理装置及方法,立体显示装置和接收装置
KR101852811B1 (ko) * 2011-01-05 2018-04-27 엘지전자 주식회사 영상표시 장치 및 그 제어방법
CN103385005B (zh) * 2011-05-03 2015-10-21 奥林巴斯映像株式会社 立体图像处理装置以及立体图像处理方法
KR101803571B1 (ko) * 2011-06-17 2017-11-30 엘지디스플레이 주식회사 입체영상표시장치와 이의 구동방법
WO2013027320A1 (ja) * 2011-08-25 2013-02-28 パナソニック株式会社 画像処理装置、3次元撮像装置、画像処理方法、および画像処理プログラム
KR101316196B1 (ko) * 2011-12-23 2013-10-08 연세대학교 산학협력단 입체 영상 화질 향상 장치 및 방법과 이에 관한 기록매체
US20130202190A1 (en) * 2012-02-02 2013-08-08 Sheng-Chun Niu Image processing apparatus and image processing method
US9472163B2 (en) * 2012-02-17 2016-10-18 Monotype Imaging Inc. Adjusting content rendering for environmental conditions
KR20130127867A (ko) * 2012-05-15 2013-11-25 삼성전자주식회사 스테레오 비전 장치와 이의 제어 방법
US9560343B2 (en) 2012-11-23 2017-01-31 Samsung Electronics Co., Ltd. Apparatus and method for calibrating multi-layer three-dimensional (3D) display
US9299189B1 (en) * 2013-03-08 2016-03-29 Bentley Systems, Incorporated Techniques for updating design file lighting values
WO2015175730A1 (en) 2014-05-13 2015-11-19 Nant Vision, Inc. Augmented reality content rendering via albedo models, systems and methods
US9872012B2 (en) * 2014-07-04 2018-01-16 Samsung Electronics Co., Ltd. Method and apparatus for image capturing and simultaneous depth extraction
CN106663327B (zh) * 2014-08-27 2020-01-24 锐珂牙科技术顶阔有限公司 3-d表面的自动重新拼接
US10049294B2 (en) * 2015-01-30 2018-08-14 X-Rite Switzerland GmbH Imaging apparatus, systems and methods
US20160366323A1 (en) * 2015-06-15 2016-12-15 Mediatek Inc. Methods and systems for providing virtual lighting
EP3144891A1 (en) 2015-09-17 2017-03-22 Thomson Licensing Method and apparatus for estimating reflectance parameters and a position of a light source in a scene
EP3144898A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing Method and system for determination of intrinsic images from two dimensional images in a video sequence
US10713765B2 (en) 2017-03-03 2020-07-14 Dolby Laboratories Licensing Corporation Color image modification with approximation function
US10235797B1 (en) 2017-11-27 2019-03-19 Lowe's Companies, Inc. Inverse rendering of visual material properties

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981737A (ja) * 1995-09-11 1997-03-28 Meidensha Corp 三次元物体モデル生成方法
JPH11345319A (ja) * 1998-06-02 1999-12-14 Fujitsu Ltd 画像の影除去方法、画像処理装置及び記録媒体
JP2000184396A (ja) * 1998-12-10 2000-06-30 Canon Inc 映像処理装置及びその制御方法及び記憶媒体
JP2002345000A (ja) * 2001-02-22 2002-11-29 3D.Com Kk カラーグラス方式(rgb−3d方式)を利用した3d立体動画映像の生成方法及び装置
WO2005034527A1 (en) * 2003-09-30 2005-04-14 Eric Belk Lange Stereoscopic imaging
JP2005208300A (ja) * 2004-01-22 2005-08-04 Olympus Corp カメラ及び焦点検出装置
JP2005229280A (ja) * 2004-02-12 2005-08-25 Fuji Photo Film Co Ltd 画像処理装置および方法並びにプログラム
JP2005275790A (ja) * 2004-03-24 2005-10-06 Namco Ltd 画像生成方法、立体視用印刷物、プログラム及び情報記憶媒体

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6704042B2 (en) * 1998-12-10 2004-03-09 Canon Kabushiki Kaisha Video processing apparatus, control method therefor, and storage medium
US6707938B2 (en) * 2000-12-06 2004-03-16 Xerox Corporation Principal axis look-up for color correction
KR20020081661A (ko) * 2001-04-19 2002-10-30 주식회사 오픈비주얼 네트워크 환경에서 3차원 물체의 시각화와 조작을 위한방법 및 장치
RU2216781C2 (ru) * 2001-06-29 2003-11-20 Самсунг Электроникс Ко., Лтд Основанные на изображениях способ представления и визуализации трехмерного объекта и способ представления и визуализации анимированного объекта
US20040070565A1 (en) * 2001-12-05 2004-04-15 Nayar Shree K Method and apparatus for displaying images
TWI257072B (en) * 2003-06-20 2006-06-21 Ind Tech Res Inst 3D color information acquisition method and device thereof
US7356180B2 (en) * 2003-09-30 2008-04-08 Sharp Laboratories Of America, Inc. Systems and methods for correcting image color balance
US7260322B2 (en) * 2004-01-21 2007-08-21 Olympus Corporation Changeable-lens camera, camera system, and focus detection device
US7542034B2 (en) * 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
CN1801218A (zh) * 2004-12-31 2006-07-12 英业达股份有限公司 三维对象渲染系统及方法
US7689035B2 (en) * 2005-06-17 2010-03-30 The Regents Of The University Of California Methods for identifying, separating and editing reflection components in multi-channel images and videos
US9508190B2 (en) 2006-06-09 2016-11-29 Thomson Licensing Method and system for color correction using three-dimensional information
KR101342987B1 (ko) 2006-11-21 2013-12-18 톰슨 라이센싱 3d 이미지의 컬러 보정을 위한 방법 및 시스템
US20090010507A1 (en) * 2007-07-02 2009-01-08 Zheng Jason Geng System and method for generating a 3d model of anatomical structure using a plurality of 2d images

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981737A (ja) * 1995-09-11 1997-03-28 Meidensha Corp 三次元物体モデル生成方法
JPH11345319A (ja) * 1998-06-02 1999-12-14 Fujitsu Ltd 画像の影除去方法、画像処理装置及び記録媒体
JP2000184396A (ja) * 1998-12-10 2000-06-30 Canon Inc 映像処理装置及びその制御方法及び記憶媒体
JP2002345000A (ja) * 2001-02-22 2002-11-29 3D.Com Kk カラーグラス方式(rgb−3d方式)を利用した3d立体動画映像の生成方法及び装置
WO2005034527A1 (en) * 2003-09-30 2005-04-14 Eric Belk Lange Stereoscopic imaging
JP2005208300A (ja) * 2004-01-22 2005-08-04 Olympus Corp カメラ及び焦点検出装置
JP2005229280A (ja) * 2004-02-12 2005-08-25 Fuji Photo Film Co Ltd 画像処理装置および方法並びにプログラム
JP2005275790A (ja) * 2004-03-24 2005-10-06 Namco Ltd 画像生成方法、立体視用印刷物、プログラム及び情報記憶媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011258179A (ja) * 2010-05-14 2011-12-22 Canon Inc 画像処理装置及びその制御方法

Also Published As

Publication number Publication date
KR20090086964A (ko) 2009-08-14
JP4945642B2 (ja) 2012-06-06
US20100290697A1 (en) 2010-11-18
CN101542537B (zh) 2012-09-19
WO2008063167A1 (en) 2008-05-29
CN101542537A (zh) 2009-09-23
KR101342987B1 (ko) 2013-12-18
EP2089852A1 (en) 2009-08-19
US8538144B2 (en) 2013-09-17

Similar Documents

Publication Publication Date Title
JP4945642B2 (ja) 3d画像の色補正の方法及びそのシステム
US9508190B2 (en) Method and system for color correction using three-dimensional information
US20200066026A1 (en) Fusing, texturing, and rendering views of dynamic three-dimensional models
JP6493395B2 (ja) 画像処理装置と画像処理方法
US6677956B2 (en) Method for cross-fading intensities of multiple images of a scene for seamless reconstruction
Agusanto et al. Photorealistic rendering for augmented reality using environment illumination
US20110273466A1 (en) View-dependent rendering system with intuitive mixed reality
US20110273369A1 (en) Adjustment of imaging property in view-dependent rendering
Meilland et al. 3d high dynamic range dense visual slam and its application to real-time object re-lighting
US7068274B2 (en) System and method for animating real objects with projected images
US7019748B2 (en) Simulating motion of static objects in scenes
US6930681B2 (en) System and method for registering multiple images with three-dimensional objects
US6249285B1 (en) Computer assisted mark-up and parameterization for scene analysis
EP2147412B1 (en) 3d object scanning using video camera and tv monitor
US20030038822A1 (en) Method for determining image intensities of projected images to change the appearance of three-dimensional objects
JP5795384B2 (ja) 映像処理装置、照明処理装置及びその方法
US20190051052A1 (en) Photorealistic Augmented Reality System
JPWO2020075252A1 (ja) 情報処理装置、プログラム及び情報処理方法
US20240062345A1 (en) Method, apparatus, and computer-readable medium for foreground object deletion and inpainting
JP2003216973A (ja) 三次元画像処理方法、三次元画像処理プログラム、三次元画像処理装置および三次元画像処理システム
JP4764963B2 (ja) 画像処理装置
TWI603287B (zh) 虛擬物件之影像合成方法與裝置
Güssefeld et al. Are reflectance field renderings appropriate for optical flow evaluation?
Kageyama et al. Efficient distortion-free neural projector deblurring in dynamic projection mapping
US11380048B2 (en) Method and system for determining a spectral representation of a color

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120305

R150 Certificate of patent or registration of utility model

Ref document number: 4945642

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150309

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250