JP2013038775A - 高速反射屈折式ライトフィールドレンダリングのための光線画像モデル化 - Google Patents

高速反射屈折式ライトフィールドレンダリングのための光線画像モデル化 Download PDF

Info

Publication number
JP2013038775A
JP2013038775A JP2012157221A JP2012157221A JP2013038775A JP 2013038775 A JP2013038775 A JP 2013038775A JP 2012157221 A JP2012157221 A JP 2012157221A JP 2012157221 A JP2012157221 A JP 2012157221A JP 2013038775 A JP2013038775 A JP 2013038775A
Authority
JP
Japan
Prior art keywords
image
mirror
ray
point
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012157221A
Other languages
English (en)
Inventor
Yuanyuan Ding
ディング ユアンユアン
Jing Xiao
ザオ ジング
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Publication of JP2013038775A publication Critical patent/JP2013038775A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/08Mirrors
    • G02B5/09Multifaceted or polygonal mirrors, e.g. polygonal scanning mirrors; Fresnel mirrors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/08Mirrors
    • G02B5/10Mirrors with curved faces
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Input (AREA)
  • Studio Devices (AREA)

Abstract

【課題】ライトフィールドを取得する単純かつ経済的な反射屈折式カメラ及び方法を提供する。
【解決手段】反射屈折式カメラが、光線構造絵素(レイクセル)の2Dアレイとして定義される光線画像を作製することによって3Dシーンから画像のライトフィールドを作り出す。各レイクセルは光強度、ミラー反射ロケーション、及びミラー入射光の光線方向を取得する。次に、対応するレイクセルを組み合わせることによって光線画像から3D画像がレンダリングされる。
【選択図】図25

Description

本発明は反射屈折式カメラの技術分野に関する。より具体的には、本発明は、現実世界のシーンのライトフィールドを取得するための反射屈折式カメラの利用に関する。
コンピューターにより生成される3次元、すなわち3D、画像が研究及びエンタテインメント等の種々の応用分野において望ましい。3D画像をレンダリングする方法は種々ある。例えば、様々な素材、及び光のセットで構成される幾何プリミティブから成るシーンが3次元グラフィックスシステムに入力されてよく、システムは次に、この情報に基づき出力画像を計算し、レンダリングする。しかし、このアプローチは非常に大きなコンピューター利用量と労力を要する。
代替のアプローチは、画像ベースのレンダリングと呼ばれてよく、既存のあらかじめ取得された画像のセットに基づき、環境の、異なる、すなわち新しい、視像を生成する。このアプローチは、2次元、すなわち2D、画像の集合から3D画像をレンダリングするために用いられてよい。実際、複数の2D視像からの3Dシーンの再構成は恐らく、コンピュータービジョンにおいて最も探求されている問題の1つである。これは通例、処理デバイスが、共通シーンの2つ以上の画像内の対応する物体を一致させることができることを必要とする。次に、古典的ステレオマッチングアルゴリズムはピンホールカメラモデルを用いて奥行きを推測する。
コンピュータービジョンの技術分野では、2つ以上の画像に共通する物体(あるいは物体特徴又は特徴点)のこの一致はしばしば対応一致(又は対応問題)と呼ばれる。第2の画像は、第1の画像を撮影したカメラが移動した後、時間が経過した後、かつ/又は撮像された物体が移動した後に撮影されたとして、対応一致は、第1の画像のどの部分が第2の画像のどの部分に対応する(すなわち一致する)のかを見いだそうと試みる。例えば、第1の画像は、第1の観視角度から第1の視野、FOV(field-of-vision)、によって撮影される現実世界のシーンのものであってよく、第2の画像は、第2の観視角度から第2のFOVによって撮影される同じシーンのものであってよい。第1及び第2のFOVは少なくとも部分的に重複するとすれば、対応一致は第1及び第2の画像の重複部分内の共通特徴点の一致に言及する。
それ故、対応一致は、コンピュータービジョンにおける、特に、立体視、ビュー合成、及び3D(又は透視法)再構成における、主要な問題である。2つの観視角度から撮影された2つの画像内の多数の画像特徴、又は物体、を一致させたとすれば、次に、立体視像合成、又は3D再構成を達成するべく、一致した画像特徴同士の間の位置関係を特定するために、エピポーラ幾何が用いられてよい。
エピポーラ幾何とは基本的に立体視の幾何である。例えば図1では、2台のカメラ11及び13が、大きい方の球19及び小さい方の球21から成る共通3Dシーン10の2つの2D画像15及び17をそれぞれ作り出す。2D画像15及び17は2つの別個の観視角度23及び25から撮影される。エピポーラ幾何は3Dシーン10(例えば球19及び21)内の点同士(例えば球19及び21)の間の幾何学的関係、並びに2D画像15及び17におけるそれらの相対投影を記述する。これらの幾何学的関係は、以下においてより完全に記載されるエピポーラ拘束、又はステレオ拘束、の基盤である、像点間の拘束を生じさせる。
図1は水平視差を示しており、カメラ11の視点からは、(2D画像15に示されるように)小さい方の球21が大きい方の球19の前にあるように見えるが、カメラ13の視点からは、(2D画像17に示されるように)小さい方の球21が大きい方の球19の側方に少し離れてあるように見える。それにもかかわらず、2D画像15及び17は両方とも同じ3Dシーン10のものであるので、どちらも大きい方の球19及び小さい方の球21の相対位置の真実の表現である。それ故、カメラ11、カメラ13、小さい方の球21及び大きい方の球19の間の位置関係は2D画像15及び17に対する幾何学的拘束を確立し、それにより、エピポーラ、又はステレオ、拘束が分かりさえすれば、2D画像15及び17を与えられるだけで3Dシーン10を再構成することが可能になる。
エピポーラ幾何はピンホールカメラモデルに基づいており、その単純化された表現が図2に示されている。ピンホールカメラモデルでは、カメラが、各カメラの焦点にそれぞれある左の点OL及び右の点OR等の点によって表される。点POは、本例では2本の十字交差線によって表されている、イメージングされる3Dシーン内の関心のある点(すなわち物体)を表す。
通例、画像平面(すなわちイメージングされる3Dシーンの2D表現が取得される平面)はカメラの焦点の後方にあり、反転している。説明を容易にするためかつ、反転した取得画像の複雑化を回避するために、取得画像の非反転表現を示すべく、2つの仮想画像平面、ImgL及びImgR、はそれらのそれぞれの焦点、OL及びOR、の前方に示されている。これらの仮想画像平面は、3Dシーンが観視される窓と考えてよい。点PLは点POの、左の仮想画像ImgL上への2D投影であり、点PRは点POの、右の仮想画像ImgR上への2D投影である。本技術分野において周知のように、3Dから2Dへのこの変換は透視投影、又は画像投影と呼ばれてよく、ピンホールカメラモデルによって記述される。この投影演算を、カメラから発出しその焦点を通過する光線によってモデル化することが一般的である。各モデル化された発出光線は取得画像内の単一の点に対応しよう。本例では、これらの発出光線は点線27及び29によって示されている。
エピポーラ幾何は、各カメラの互いに対する位置に関する拘束も定義する。これは、焦点OL及びORの相対位置を用いてなされてよい。第1のカメラの焦点は第2のカメラの画像平面上の別個の点上に投影し、バイスバーサ。本例では、焦点ORは仮想画像平面ImgL上の像点EL上に投影し、焦点OLは仮想画像平面ImgR上の像点ER上に投影する。像点EL及びERはエピポール、又はエピポール点と呼ばれる。エピポール、及びそれらの投影源の焦点は単一の線、すなわち線31、上にある。
点POは焦点OLの真正面にあるので、焦点OLから点POへの線27は仮想画像平面ImgL内の単一の点PLとして見られる。これは、図1の画像15において、小さい方の球21が大きい方の球19の前にあるように見える態様と同様である。しかし、焦点ORからは、OLから点POへの同じ線27は像点ERから点PRへの変位線33を見られている。これは、図1の画像17において、小さい方の球21が大きい方の球19の側方に変位されているように見える態様と同様である。この変位線33はエピポーラ線と呼ばれてよい。逆に、焦点ORからは、線29は仮想画像平面ImgR内の単一の点PRとして見られるが、焦点OLからは、線29は仮想画像平面ImgL上の変位線、又はエピポーラ線、35として見られる。
このように、エピポーラ幾何は三角法の基盤を形成する。例えば、カメラOR及びOLの相対的平行移動及び回転が分かっているとすると、左の仮想画像平面ImgL上の投影点PLが分かれば、右の仮想画像平面ImgR上のエピポーラ線33はエピポーラ幾何によって分かる。さらに、点POは右の仮想画像平面ImgR上に、この特定のエピポーラ線33上にある点PRにおいて投影しなければならない。本質的に、1つの画像平面内で観察される各点について、同じ点がもう1つの画像平面内で、既知のエピポーラ線上に観察されなければならない。これが、異なる画像平面上の対応する像点が満たさなければならないエピポーラ拘束を与える。
別のエピポーラ拘束が以下のように定義されてよい。投影点PL及びPRが分かれば、それらの対応する投影線27及び29も分かる。さらに、投影点PL及びPRが同じ3D点POに対応するならば、それらの投影線27及び29は正確に3D点POにおいて交差しなければならない。これは、3D点POの3次元位置は2つの投影点PL及びPRの2D座標から算出されることができることを意味する。このプロセスは三角法と呼ばれる。
エピポーラ幾何はホモグラフィ、すなわち射影変換、の基盤も形成する。ホモグラフィは、観察者の視点が変化すると、観察される物体の認知される位置はどうなるのかを記述する。図3に、これの例が示されている。同図では、正方形12の形状が、2つの画像投影14及び16においては、2つの異なる視点V1及びV2からそれぞれ観視される通りに歪んで示されている。先と同じく、画像平面14及び16は、正方形12が観視される窓と考えられてよい。
ホモグラフィは、画像投影14及び16並びに正方形12の間で共通の点を特定しよう(すなわち点の位置合わせ)。例えば、正方形12の4つの隅A、B、C及びDは画像投影14内の点A’、B’、C’及びD’に対応し、画像投影16内の点A”、B”、C”及びD”に対応する。それ故、画像投影14内の点A’、B’、C’及びD’はそれぞれ画像投影16内の点A”、B”、C”及びD”に対応する。
ピンホールモデルが適用されるとすれば、エピポーラ幾何は、ホモグラフィが、空間内の同じ平面表面の任意の2つの画像を関係付けることを可能にし、それは、画像の偏位修正、画像の位置合わせ、又は2つの画像間のカメラモーション(回転及び平行移動)の計算を可能にする。推定されたホモグラフィ行列からカメラの回転及び平行移動が抽出されれば、この情報はナビゲーションのために用いられてもよいし、あるいは3D物体のモデルを、それらが、正しい遠近をもってレンダリングされ、元のシーンの一部であったように見えるように画像又は映像に挿入するために用いられてもよい。
例えば、図4では、カメラ22及び24が立方体26の3Dシーンの写真を異なる視点から各々撮影する。カメラ22の視点からは、立方体26は、2D画像28に示される通りに見え、カメラ24の視点からは、立方体26は、2D画像30に示される通りに見える。ホモグラフィは、相関する点を特定することを可能にする。相関する点のうちのいくつかは説明の目的のために点線によって示されている。画像32に示されるように、これは、2D画像28及び30の両方が縫い合わせられ、3D画像を作り出すことを可能にする。それ故、画像の対の間の対応を自動的に見いだすことが立体視の古典的問題となっているが、残念ながら、この作業を達成するために利用可能なアルゴリズムは常に正しい対応を見いだすとは限らない場合がある。
3D画像を作製し操作する(特にコンピュータービジョンの分野における)別の方法はボクセルの利用である。ボクセル(すなわちボリューム画素又はボリューム絵素)とは、画素が2次元空間上の値を表す態様(すなわちビットマップ)と同様の、3次元空間内の正規格子上の値を表すボリューム要素である。ボクセルは医療及び科学データの可視化及び解析、並びにビデオゲーム及びコンピューターシミュレーションにおける地形の表現において頻繁に用いられる。
図5(A)に、3D画像のボクセル表現の例が示されている。ティーポットTBはティーポットTAのボクセル表現である。ボクセルを包含するボリュームは、直接的なボリュームレンダリングによるか、又は所与の閾値の等高線をたどる多角形等値面の抽出によって可視化されることができる。ボクセルがどのように定義されるのかにかかわりなく、ボクセルは一般に、3D画像の操作を容易にするボリューム情報を包含する。ボクセル表現の解像度はボクセルのサイズによって決まる。例えば、図5(B)はティーポットTAのより高い解像度のボクセル画像TCを示す。それ故、ボリュームディスプレイには、それらの解像度を記述するためにボクセルを用いるものがある。例えば、ディスプレイが512×512×512ボクセルを表示することができてよかろう。ボクセル解像度が高いほど、3D表現はきめ細かくなる。
3D物体の透視表現をレンダリングする別の方法は、物体の周りの直接取得ライトフィールドによるものである。ライトフィールドとは、空間内のあらゆる点を通ってあらゆる方向に進む光の量を記述する関数である。図6を参照すると、コンセプトが幾何光学に限定されるならば、すなわちインコヒーレント光、及び光の波長よりも大きい物体に限定されるならば、光の基本的キャリアは光の光線、又は光線である。光線に沿って進む光の量についての尺度は放射輝度であり、Lによって示されており、ワット(W)毎ステラジアン(sr)毎平方メートル(m2)単位で測られる。ステラジアンは立体角の尺度であり、平方メートルは断面積の尺度である。
光の不変の配置によって照明される3次元空間の領域内のすべてのこうした光線に沿った放射輝度はプレノプティック関数と呼ばれる。プレノプティック照明関数は、コンピュータービジョン及びコンピューターグラフィックスにおいて任意の時点における任意の観視角度における任意のあり得る観視位置からのシーンの画像を表現するために用いられる理想的関数である。図6(B)に示されるように、空間内の光線は3つの座標、x、y、及びz並びに2つの角度θ及びφによってパラメーター化されることができるので、それは5次元関数である。ただし、時間、波長、及び偏光角を追加の変数と見なせば、より高次元の関数が得ることであってよい。
ライトフィールドは、1つの点に突き当たる方向毎に1つずつのベクトルであって、それらの放射輝度に比例する長さを有する、ベクトルの無限の集合として扱われてもよい。これらのベクトルを、光のあらゆる集合にわたって、又は方向の全球にわたって積分すると、単一のスカラー値−その点における総放射照度、及び合成された方向を生じさせる。例えば、図6(C)は、2つの光源IA及びIBから発出し、点P’に突き当たる2つの光の光線rA及びrBを示す。光の光線rA及びrBはベクトルDA及びDBを生じさせ、これらのベクトルは結合してベクトルD’を定義し、ベクトルD’は点P’における総放射照度を記述する。3D空間におけるベクトル値関数はベクトル放射照度場と呼ばれてよく、場内の各点におけるベクトル方向は、その点に配される平坦表面に、それを最も明るく照明するように向かい合うことになろう配向として解釈されることができる。
しかし、コンピューターグラフィックスの技術分野における実際の適用のためには、ライトフィールドを記述するために用いられる次元数を減らすことが有益である。物体が収縮包装されている等、3Dシーン内のロケーションが物体(すなわち研究対象の被写体)の凸包の外側に限定されるならば、その場合、ライト関数は冗長情報を包含することになろう。なぜなら、光線に沿った放射輝度は、それが物体とぶつかるまで、その全長経路に沿った点間で一定のままであるからである。冗長情報は1次元であり、4次元関数を残すことが見いだされている。この関数は光場、4Dライトフィールド又はルミグラフと呼ばれることもある。正式には、4Dライトフィールドは、何もない空間中の光線に沿った放射輝度として定義される。この、次元数を減らした定義を用いると、プレノプティック関数はデジタルカメラを用いて測られることができる。このことのより完全な説明がLevoyへの米国特許第6,097,394号において提供されており、同文献はその全体が本願明細書において参照により援用されている。
Levoyは、図6(D)に示されているように、ライトフィールド内の光線のセットは2平面パラメーター化を用いてパラメーター化されてよいことを説明している。先に説明されたように、このパラメーター化は、透視イメージングの解析幾何学に密接に関連するという利点を有する。実際、2平面ライトフィールドについて考える簡単な方法は、uv平面上の観察者の位置から各々撮影される、st平面(及びそれに跨がって又はそれを越えて位置してよいあらゆる物体)の透視画像の集合として考えることである。このようにしてパラメーター化されたライトフィールドはライトスラブと呼ばれることもある。図7(A)に、これの例が示されている。この場合では、uv平面上の複数のカメラC1ないしCnが、st平面の複数の視像(すなわち透視画像)を提供することによってライトスラブLSを作り出す。
コンピューターグラフィックスにおいては、ライトフィールドは通例、3Dモデルをレンダリングすることによるか又は実際のシーンを撮影することによって作られる。いずれの場合でも、ライトフィールドを作るために、多数の視点集合から複数の視像が得られなければならない。用いられるパラメーター化に依存して、この集合は通例、線、円、平面、球、又は他の形状のいくらかの部分に広がることになる。例えば図7(B)では、ライトフィールドの中心にある円筒Cの周りのライトフィールドを取得するために4つの光スラップLS1ないしLS4が用いられる。このように、ライトフィールドを写真により取得することは種々の観視角度からの多くの画像及び複雑な機構を必要とする。これは多くの場合、特に日常的な使用のためには、ライトフィールドの作製を複雑にしてしまう。
先に説明されたように、コンピューターアプリケーションにおいて3D画像をレンダリングすることに向けた複数のアプローチがある。しかし、ライトフィールドの融通性(レンダリングされる3D画像の視点及び焦点を変更する能力等)、及び取得されたデジタル画像の利用によって作り出されるというそれらの能力の故に、ライトフィールドが特に興味深い。しかし、ライトフィールドの利用は、それらの、種々の観視角度から撮影される3D被写体の複数のデジタル画像の必要性によって複雑になる。
種々の観視角度から複数の画像を生成するためのイメージングデバイスの数(又は単一のイメージングデバイスが繰り返し用いられる回数)を減らす1つの方法は反射屈折式カメラの利用である。反射屈折式カメラ、又はシステム、はピンホールカメラよりも広い視野から被写体をイメージングし、かくして、異なるFOVからの複数の画像の必要性を低減することができる。しかし、反射屈折式カメラシステムはピンホールカメラモデルには該当しない。したがって、それらは、上述の3Dレンダリング方法が基づくエピポーラ幾何に支配されない。これは、反射屈折式カメラシステムを、3D画像を生成する上述の方法には適さないものにする。ピンホールモデルの方法を、上述されたように、反射屈折式カメラに直接適用しようと試みてもよいが、結果は固有誤差を有し、歪みを呈しがちであり、最適なものとはならないことになる。
本発明の目的は、ライトフィールドを取得する単純かつ経済的な方法を提供することである。
本発明の別の目的は、2D取得画像から透視画像をレンダリングするために必要なカメラの数を減らすことである。
本発明のさらに別の目的は、ライトフィールドの取得において、及び3D画像の作製において反射屈折光学系を利用する方法を提供することである。
上述の目的は、所望の3Dシーンを反射するためにミラーアレイ状に配列される複数の曲面ミラーと、曲面ミラーの光線画像を取得するデジタルイメージングシステムであって、光線画像の各々は光線構造絵素(レイクセル(ray-xel))の2次元アレイであり、各それぞれのレイクセルは所定の色モデルによる光強度尺度、ミラー反射ロケーション座標、及びミラー入射光線方向座標を含む、デジタルイメージングシステムと、を有する反射屈折式カメラシステムであって、光強度尺度は、それぞれのレイクセルにおいて受けられる光強度を示し、ミラー反射ロケーション座標は、対応する曲面ミラー上の表面ロケーションであって、該表面ロケーションから、反射された光の光線が、対応する曲面ミラーからそれぞれのレイクセルに進む、表面ロケーションを示し、反射された光の光線は、3Dシーン内の点から表面ロケーションに入射する光の光線の反射であり、ミラー入射光線方向座標は、3Dシーン内の点から表面ロケーションへの入射する光の光線のベクトル方向を示す、反射屈折式カメラシステムにおいて達成される。
好ましくは、この反射屈折式カメラシステムでは、デジタルイメージングシステムはピンホールカメラを含む。代替的に、デジタルイメージングシステムはピンホールカメラである。さらに代替的に、デジタルイメージングシステムは、処理デバイスと通信するピンホールカメラを含む。
好ましくは、上述の反射屈折式カメラシステムは非中心性である。すなわち、曲面ミラーは任意の曲率を有する。
加えて、所定の色モデルはRGB色モデルである。
本デジタルイメージングシステムは、3Dシーン内の点に対応するレイクセルからの情報を組み合わせることによって3Dシーン内の点についてのライトフィールドをレンダリングしてよい。1つの実施形態では、各レイクセルのミラー入射光線方向情報はライトフィールドの形成において組み合わせられる。
代替的に、デジタルイメージングシステムは、互いに対応する光線画像内のすべてのレイクセルのすべてのレイクセル情報を組み合わせることによって3Dシーンのライトフィールド画像をレンダリングする。
加えて、デジタルイメージングシステムは、(a)取得された光線画像内の対応するレイクセルからのレイクセル情報を組み合わせることによって被写界深度画像をレンダリングすること、(b)曲面ミラーのうちの選択された1つについての透視画像をレンダリングすること、(c)グラフカット技法を用いて奥行きマップを回復すること、及び、(d)レンダリングされた透視画像をギルドとして用いるガイドフィルタリングによって奥行きマップを後処理すること、によって2D光線画像から奥行きマップをレンダリングしてよい。
この場合、ステップ(c)は、第1の光線画像内の各レイクセルについての探索領域を、第2の光線画像内の高さ2ε及び幅dmax xの窓として定義することであって、ただし、dmax xは最大水平方向不一致であり、εは第1の光線画像内の点Pの、第2の光線画像上の伸張歪みである、定義することと;特定のラベル付けfについてのエネルギー関数を、
E(f)=Ed(f)+Eocc(f)+Es(f)+Ereproj(f)
として定義することであって、ただし、Edは、色整合性を測るデータ項であり、Eoccは遮蔽項であり、Esは平滑項であり、Ereprojは、
として再投影誤差を定義し、
は光線画像内のすべての点についての、点pからp+[dx,dy]までの最も近い距離の合計を求める、定義することと、を含んでよい。
上述の目的は、反射屈折式カメラにおいてライトフィールドをレンダリングする方法であって、該方法は、所望の3Dシーンを反射するためにミラーアレイ状に配列される複数の曲面ミラーを設けることと、曲面ミラーの光線画像を取得するデジタルイメージングシステムであって、光線画像の各々は光線構造絵素(レイクセル)の2次元アレイであり、各それぞれのレイクセルは所定の色モデルによる光強度尺度、ミラー反射ロケーション座標、及びミラー入射光線方向座標を含み、ただし、光強度尺度は、それぞれのレイクセルにおいて受けられる光強度を示し、ミラー反射ロケーション座標は、対応する曲面ミラー上の表面ロケーションであって、表面ロケーションから、反射された光の光線が、対応する曲面ミラーからそれぞれのレイクセルに進む、表面ロケーションを示し、反射された光の光線は、3Dシーン内の点から表面ロケーションに入射する光の光線の反射であり、ミラー入射光線方向座標は、3Dシーン内の点から表面ロケーションへの入射する光の光線のベクトル方向を示す、デジタルイメージングシステムを設けることと、3Dシーン内の点に対応するレイクセルからの情報を組み合わせることによって3Dシーン内の点についてのライトフィールドをレンダリングする;を有する方法でも達成される。
このアプローチでは、各レイクセルのミラー入射光線方向情報はライトフィールドの形成において組み合わせられる。1つの実施形態では、互いに対応する光線画像内のすべてのレイクセルのレイクセル情報を組み合わせることによって3Dシーンがレンダリングされる。
好ましくは、反射屈折式カメラシステムは非中心である。すなわち、曲面ミラーは任意の曲率を有する。
同様に、好ましくは、所定の色モデルはRGB色モデルである。
さらに好ましくは、デジタルイメージングシステムは、(a)取得された光線画像内の対応するレイクセルからのレイクセル情報を組み合わせることによって被写界深度画像をレンダリングすること、(b)曲面ミラーのうちの選択された1つについての透視画像をレンダリングすること、(c)グラフカット技法を用いて奥行きマップを回復すること、及びレンダリングされた透視画像をギルドとして用いるガイドフィルタリングによって奥行きマップを後処理すること、によって光線画像から奥行きマップをさらにレンダリングする。
好ましくは、このアプローチでは、ステップ(c)は、第1の光線画像内の各レイクセルについての探索領域を、第2の光線画像内の高さ2ε及び幅dmax xの窓として定義することであって、ただし、dmax xは最大水平方向不一致であり、εは第1の光線画像内の点Pの、第2の光線画像上の伸張歪みである、定義することと;特定のラベル付けfについてのエネルギー関数を、
E(f)=Ed(f)+Eocc(f)+Es(f)+Ereproj(f)
として定義することであって、ただし、Edは、色整合性を測るデータ項であり、Eoccは遮蔽項であり、Esは平滑項であり、Ereprojは、
として再投影誤差を定義し、
は光線画像内のすべての点についての、点pからp+[dx,dy]までの最も近い距離の合計を求める、定義することと、を含む。
添付の図面と併せて以下の記載及びクレームを参照することによって、本発明のより完全な理解とともに他の目的及び達成が明らかになり理解されるようになる。
エピポーラ立体モデルの基盤としての水平視差を示す。 ステレオ拘束を記述するエピポーラ幾何の単純化された適用である。 ホモグラフィの原理を示す。 2つの2D画像から3D画像をレンダリングするホモグラフィの利用を示す。 ボクセルを示す。 ライトフィールドの原理を示す。 ライトフィールドを作製する方法を示す。 反射屈折式カメラ機構の単純化された例を示す。 3種類の反射屈折式カメラを示す。 反射屈折式カメラにおけるホモグラフィの利用を示す。 図10(A)の反射屈折式カメラを用いて得られた結果を比較する。 反射屈折式カメラを用いてライトフィールドを作り出すアプローチの原理を示す。 図12(A)及び図12(B)の反射屈折式カメラの機構及び結果を示す。 反射屈折式カメラを用いてボクセルを作製する機構を示す。 本発明による反射屈折式カメラを示す。 イプシロン線の基盤としての、反射屈折式カメラ機構内の点の垂直歪みを示す。 一般線形カメラ(General Linear Camera、GLC)の枠組みの一般的な記述を提供する。 GLC投影による、3D点P[x,y,z]の、画素[u,v]への対応付けを示す。 イプシロンステレオモデルの基盤を示す。 反射屈折式カメラにおけるイプシロンステレオ拘束の利用を示す。 本発明による反射屈折式較正プロセスの一部を示す。 本発明による反射屈折式カメラの単純化された機構を示す。 ライトフィールドの取得における、本発明による反射屈折式カメラの利用を示す。 本発明によって取得されたライトフィールド画像を示す。 本発明による光線画像を用いた3D画像のレンダリングを説明するブロック図である。 図15のミラーアレイ内の選択されたミラーのレンダリングされた透視画像を示す。 グラフカット技法へのイプシロンステレオ拘束の組み込みを示す。 初期奥行きマップを示す。 図26の透視画像をガイドとして用いて図28の奥行きマップをガイドフィルタリングした後の最終的な奥行きマップを示す。
対応一致は、コンピュータービジョンにおける、特に、立体、ビュー合成、及び3D再構成における、主要な問題である。実際、ステレオマッチングは恐らく、コンピュータービジョンにおいて最も研究されている3Dシーン再構成方法である。ほとんどの既存のアプローチは、入力カメラは、単一の比較的狭い透視像を提供する透視投影カメラであることを仮定する。さらに、ピンホールカメラモデルによって定義される透視投影カメラの利用が通例仮定されるので、ほとんどの研究努力は、異なるカメラモデルには関連しない課題を扱うことに重点を置いている。例えば、ほとんどの研究はテクスチャ、ノイズ、鏡面性、及び遮蔽境界に重点を置いている。これらの方法は、2つの画像が、純粋な水平視差を有するように偏位修正されることを可能にするエピポーラ幾何の存在を仮定し、それ故、ステレオ拘束を受ける。
最近、マルチ透視投影カメラを用いる3D再構成への関心が大きくなってきている。マルチ透視投影カメラは、ピンホールカメラを用いて可能であるよりも広い透視像を提供し、かつ/又は複数の同時透視像を提供する。残念ながら、マルチ透視投影カメラは通例、ピンホールカメラモデルに従わない。したがって、1対のマルチ透視投影カメラはエピポーラ拘束を満たさないであろう。それ故、ピンホールカメラ用に開発された3D再構成技法は一般的にマルチ透視投影カメラには直接転用可能でない。
反射屈折式カメラはマルチ透視投影カメラの一種であり、それ故、ピンホールカメラモデルには従わない。したがって、このようなカメラについては厳格なステレオ拘束が存在しなくてもよい。反射屈折光学系は、レンズ(屈折光学)及び曲面ミラー(反射光学)を用いて光学系内で屈折及び反射を組み合わせる。マルチ透視投影反射屈折式カメラ(又はカメラシステム/機構)は、ピンホールカメラモデル機構を用いて達成可能であるよりも視野、FOV、が広いという利点を有する。
図8に、反射屈折式カメラ機構61の単純化された例が示されている。透視投影カメラ65(又はピンホールカメラ等の、3Dシーンの2D透視投影画像を作製するための単一透視投影カメラ)は、曲面ミラー63と組み合わせられ、基本的な反射屈折式(又は反射屈折式全方位)カメラを構成する。放物線状又は双曲線状であってよい曲面ミラー63はカメラ65の視野を増大させるが、カメラ65によって取得される画像を歪ませる。説明の目的のために、カメラ65の前方に仮想画像平面67が、単純化された投影外形69とともに示されている。単純化された投影は、ミラー63から仮想画像平面67上に投影されるx形状のメーカーの中心を示している。
反射屈折式カメラにはいくつかの基本的な種類がある。図9(A)を参照すると、現実世界のシーンからカメラ76(カメラの焦点によって表されている)にやって来る光学的光線71a〜71dがミラー73上で反射し、特異点75において交差し、該特異点75が単一の実効的視点を構成する場合には、カメラ−ミラー系は中心系である。特異点75における交差は、ミラー73に球面形状を与えることによって達成されることができる。
それ故、中心反射屈折式カメラは、単一の実効的視点を生じさせる球形ドーム状ミラーを有するものとして特徴付けられることができる。それらの単一の実効的視点(及びそれ故、一様な歪み)の故に、従来技術の試みには、曲面ミラー73によって生じる画像歪みを補償するように取得画像を操作することによって立体特性を中心反射屈折式カメラに拡張することに向けてなされているものがある。しかし、このような系は通例、カメラ及びミラーの軸同士を注意深く一致させること、及びミラーがその軸に関して回転対称である(すなわち球形)ことを必要とする。完全を期すために、このアプローチの例が以下に示されているが、それらの厳格な機構要件はそれらの適用を制限する。
図9(B)に示されるように、別の種類の反射屈折式カメラは非中心(すなわち非単一の実効的視点)系である。この場合においては、現実世界のシーンからカメラ86に向けてやって来る光学的光線81aないし81dはミラー83上で反射するが、特異点において交差することは要求されない。非中心反射屈折式カメラの方がそれらのより厳密性の低い要件の故に中心反射屈折式カメラよりも構築が簡単で低コストになろうが、非中心反射屈折式カメラは、ステレオ拘束を適用しようとする試みをいずれも複雑にする。中心反射屈折式カメラ76の画像平面77上の投影点70a〜70dは非中心反射屈折式カメラ86の画像平面87上の投影点80a〜80dとは異なったように歪むであろうこと、それ故、図9(A)に示されるもの等の中心系用に設計されたアプリケーションは一般的に、図9(B)又は図9(C)のもの等の非中心系には直接適用可能ではなかろうことに留意すべきである。
図9(C)は別の種類の非中心系を示す。図9(C)の系では、現実世界のシーンからカメラ96にやって来る反射光線91a〜91dはミラー93の軸98に平行である。平行光線91a〜91dはカメラの光学的中心96に向かって集束しないので、カメラの光学的中心96にあるカメラのCCD平面上に画像を集中させるためにカメラとミラー93との間に正射投影レンズ97が配されよう。
反射屈折式カメラからの画像を解析すること(すなわちそのデジタル処理)の困難にもかかわらず、それらの増大した視野の故に、自動システムでの反射屈折式カメラ(隣接する曲面ミラーのアレイを有するものを含む)の利用が望ましい。
図10(A)及び図10(B)に、3D画像の作製における中心反射屈折式カメラの利用の例が示されている。図10(A)を参照すると、ピンホールカメラ40、及び支持平面38上に支持される正方形配列の球面ミラー36のミラーアレイ36Aを提供することによって中心反射屈折光学系が構築される。4つの隅マーカー42Aないし42Dが正方形ミラーアレイ36Aの外周を提供し、球面ミラー36同士の間には複数の内側マーカー44が提供される。4つの外側マーカーは、カメラ40及び支持平面38の、互いに対する配向を割り出すために用いられる。内側マーカー44及び球面ミラー36の、隅マーカー42A〜42Dに対する相対位置は分かっているから、内側マーカー44の位置が算出され、それにより、ミラー36の相対位置が割り出される。
次に、ピンホールベースのホモグラフィが用いられ、支持平面38に対するカメラ40の観視角度を補償し、それにより、ミラーアレイ36Aに対する観視角度カメラ40の補償も提供する。例えば、図10(B)は、支持平面38の、カメラ40に対する誇張された傾斜を示す。しかし、4つの隅マーカー42A〜42Dを特定すること、及びホモグラフィの利用によって、カメラ40の観視角度は補償されることができ、ミラー36の相対位置が確定されることができる。このアプローチは、ミラー36が完全に円形かつ球面(すなわち中心反射屈折光学系)であることを仮定しかつ、この較正プロセスにおけるミラー反射を無視する。
図11(A)ないし図11(C)に、このアプローチによって得られる結果の例が示されている。図11(A)は、図10(A)の反射屈折光学系によってイメージングされるサンプル被写体、すなわち鳥の巣箱、を示し、図11(B)は、ミラーアレイ36Aの1つのミラー36において観視される通りの1つの画像の例を示す。図11(C)に、ミラーアレイ36A内の異なるミラーの寄与を組み合わせることによって、ホモグラフィを用いて3D画像を再構成することの結果が示されている。このアプローチは多数の仮定をし、曲面ミラーの歪み効果の一部を無視するので、図11(C)における結果としてできる3D再構成は、本当の画像11(A)に対する、一定比率の歪みをいくらか呈する、ノイズのある画像となる。
先に説明されているように、透視投影カメラを用いて取得されるライトフィールドは広く研究されており、それらのための高速レンダリングアルゴリズムが開発されている。したがって、反射屈折光学系の恩恵をライトフィールドのアプリケーションと組み合わせることが有益であろう。しかし、一般に、ライトフィールドアルゴリズムは透視投影、すなわちピンホールベースの、カメラのために開発されており、このようなアルゴリズムは非透視投影反射屈折式カメラのために直接用いられることはできない。
しかし、反射屈折光学系を用いてライトフィールドを取得しようとする試みが、Taguchiらによる「軸方向円錐:広角度ライトフィールドレンダリング用の球面反射屈折式カメラのモデル化(Axial-Cones: Modeling Spherical Catadioptric Cameras for Wide-Angle Light Field Rendering)」、SIGGRAPH ASIA、2010年に提案されている。図10(A)の以前の例におけるのと同様に、Taguchiらのアプローチも、完全に円形かつ球面のミラーの予測可能な歪みをうまく利用するために、中心反射屈折光学系に限定されている。Taguchiらは各球面ミラーを、ミラーの軸に沿って順々に連なる一連の仮想ピンホールカメラとしてシミュレートしている。こうすると、仮想ピンホールカメラに、エピポーラ幾何に基づく立体技法が適用されることができる。
Taguchiらによると、反射屈折式イメージングシステムはそれらの広角度イメージングの故に望ましいのではあるが、それらは、透視投影(すなわちピンホールベースの)カメラ用に設計されたアルゴリズムが用いられることを許さないマルチ透視画像を作る。有効利用の反射屈折光学系は正確な幾何学的光線モデル化及び高速アルゴリズムを必要としようが、Taguchiらは、一般的な(及びより具体的には、非中心)反射屈折光学系のためのこのようなアルゴリズムは存在しないと説明している。それ故、既存のピンホールベースのアルゴリズムを活用するために、Taguchiらは、中心反射屈折式カメラを、ピンホールカメラモデルに各々従う軸方向円錐カメラと呼ばれるものの集合群としてモデル化することを提案している。各球面ミラーは軸方向円錐カメラのそれぞれの集合によってモデル化されよう。図12に、このアプローチの例が示されている。
図12(A)及び図12(B)を参照すると、図12(A)に示されるように、球面ミラーのための軸方向円錐をモデル化する幾何学が用いられる。図12(B)に示されるように、球面ミラー50の、指定された軸方向円錐方向に沿って複数の仮想ピンホールカメラがモデル化される。各ミラーについて、異なる光線円錐を各々有する複数の仮想透視投影カメラが、指定された軸に沿って方向付けられてモデル化され、各ミラーの指定された軸は異なる視点を規定する。このようにして、既存のピンホールベースのライトフィールドアルゴリズムは複数の仮想透視投影カメラと併用されてよい。
図13(A)はTaguchiらのシステムのための機構を示し、図13(B)は、球面ミラーの正方形状アレイをより近くで見たものを示す。図13(C)は、Taguchiらの機構を用いて得られるいくつかの結果を示す。結果は、使用可能なライトフィールドを本当に取得しているが、結果は、ミラーの曲率に由来する相当な歪みも示してみせている。
上述の反射屈折機構は中心反射屈折光学系に限定され、それらはエピポーラ幾何を、図10及び図11の例におけるように(反射屈折式カメラがステレオ拘束に従わないことに由来する固有誤差を無視しつつ)直接適用するか、又は12及び13の例におけるように(各曲面ミラーを、指定された軸方向円錐方向に沿った仮想ピンホールカメラの集合としてシミュレートすることによって)間接的に適用しようと試みる。
ステレオマッチングに対する別の代替のアプローチはボリューム再構成である。本技術分野において周知のように、ボリューム再構成は、スペースカービング等の方法を用いて、まずシーンをボクセルに離散化し、次にボクセルをそれらの視認性及び入力画像との整合性に基づき刈り込んでよい。出願人は、Ding(本発明の発明者)らによる「マルチ透視ステレオマッチング及びボリューム再構成(Multiperspective Stereo Matching and Volumetric Reconstruction)」、コンピュータービジョン、2009 IEEE 12th International Conference、2009年9月29日〜2009年10月2日、1827〜1834ページにおいてこのようなアプローチを示している。同文献は、その全体が本願明細書において参照により援用されている。
ピンホールカメラモデルはマルチ透視投影カメラに適用されないので、Dingらのアプローチはより包括的な一般線形カメラモデルを利用する。本技術分野において周知のように、一般線形カメラモデルは多くの既存のマルチ透視投影カメラ(プッシュブルーム及びクロススリットカメラ等)を光線の2Dアフィン部分空間として一様にモデル化することができる。まず、各マルチ透視投影カメラは、任意のマルチ透視投影カメラの1次近似のためのツールとして用いられる区分的基本一般線形カメラすなわちGLCに分解される。このアプローチはシーンをボクセルに離散化し、GLC逆投影を適用して各ボクセルを入力マルチ透視投影カメラ上に対応付ける。
図14(A)に、複数のマルチ透視投影カメラ画像から3Dシーン幾何に回復するこのマルチ透視投影ボリューム再構成の例が示されている。複数の曲面ミラー52がシーン内に配置することであり、カメラ54がこれらのミラーの画像を取得する。従来のピンホールベースの方法に特徴的なボクセルの不均一な離散化を回避するために、マルチ透視投影カメラ間に仮想ピンホールカメラがまず配置され、次に、図14(C)に示されるようにその観視錐台ボリュームが投影空間内で一様に離散化することである。次に、ボクセルはそれらの、入力画像との整合性、及び視認性に基づき刈り込まれる。
色整合性を測るために、各入力カメラ内のボクセルの対応画像がまず求められる。正確な逆投影を達成するために、各マルチ透視投影カメラは区分的GLCに分解される。図13(B)に示されるように、これは、マルチ透視画像が三角形群にテッセレートされること、及び各頂点における関連光線が見いだされることを必要とする。最後に、各三角形からの光線トリプレットがGLCとして扱われ、三角形平面はデフォルトのuv平面として用いられる。この近似を用いることの利点は、GLCが、閉じた形の投影を提供することである。
ボクセルを逆投影するためにGLC分解を用いる直接的なアプローチは、テッセレーション内のGLCを一つ残らず調べ、ボクセルの画像を計算する。投影されるボクセルがGLC三角形の内部に位置すれば探索は止まる。しかし、GLCテッセレーションレベルを制御することは難しくなり得る:細かいテッセレーションはより正確な近似を生じさせるが、より多くの計算を必要ともする。
したがって、コンピューターグラフィックスにおける詳細度(level-of-detail、LOD)技法と同様の動的なテッセレーション方式が好ましい。マルチ透視投影カメラはまずGLCの粗いセットを用いてテッセレートされ、標準的な、1つから4つへの細分が遂行され、細分は図14(B)に示されるように四分木内に記憶される。カメラに3D点を逆投影するために、最上位のGLCより開始し、3D点の投影の画像を計算する。どのGLCが最終的な投影を包含しているのかが判定され、探索はその子GLC上で繰り返される。リーブノードに到達すれば探索は止まる。通例、複雑なマルチ透視投影カメラ上にボクセルを正確に逆投影するためには、4ないし5つの細分レベルで大抵十分である。
このボクセルによるアプローチは、任意のミラー表面に適用されるが、GLC分解を用いる近似を導入する。これらの近似は数値誤差を生じさせ、複雑な計算を必要とする場合がある。
目下好ましい実施形態は包括的な形状(すなわち中心及び非中心反射屈折光学系)のミラーを用いる反射屈折式カメラに適しており、好ましくはライトフィールドの取得及び定義を最適化する。好ましくは、取得されるライトフィールドは、それを既存のGPU(グラフィック処理ユニット(Graphic processing unit))処理に適したものにする形式のものである。
好ましい実施形態では、これは、新しいデジタル画像記録方式を定義することを含む。これを達成するために、本アプローチは、反射屈折式カメラの歪み効果に対処するべく(エピポーラ幾何の水平視差ステレオ拘束に加えて)垂直視差ステレオ拘束を用いる。
図15を参照すると、本発明による現実世界の反射屈折式カメラシステムの例が、ミラーアレイ100(例えば、6角の蜂の巣状アレイ)に配列された複数の曲面ミラー、及び少なくとも1台のカメラ92(好ましくはピンホールカメラ)を含んでよい。本例では、ミラーアレイ100内の各ミラーは、実質的に円形の外周並びに歪んだ(すなわち放物線状又は別の態様で湾曲した)表面を有し、カメラ92は、それがミラーアレイ100内のすべての(又は複数の)ミラーの反射画像を同時にイメージングする(すなわち撮影する又は画像取得する)ように構成される。
代替的に、カメラ92はミラーアレイ100のサブセットを一度にイメージングするように構成されてもよいし、又はミラー毎に別々のカメラが提供されてもよい。さらに代替的に、複数のカメラが、複数のカメラの各々がミラーアレイ100のサブセットを別々にイメージングする機構内で用いられてもよい。これらの場合では、各カメラの取得画像が別の(及び好ましくは隣接する)カメラの取得画像とのいくらかの重複を有することが望ましい。次に進む前に、反射屈折式カメラシステムの特性である垂直視差を説明することが有益であってよい。
図16に、反射屈折式カメラ内の垂直歪みの現実世界の例が示されている。同図では、3Dシーン内の点111が、曲面(すなわちドーム)ミラー113によって伸張歪みを受け、カメラ115の観視位置に対する垂直曲線112を形成する(すなわち反射する)ように示されている。カメラ115は3D曲面ミラー113の2D表現119の2D画像117を形成する。曲線112は、曲面ミラー113の曲率に従ってよく、画像117内の歪んだ垂直曲線121を形成する。説明しやすくするために、画像117の拡大画像平面117’が示されている。拡大画像平面117’内において、垂直曲線121’が3D曲面ミラー113の2D表現119’内に示されている。
説明を容易にするために、図16では伸張及び曲線112の長さは誇張されていることを理解されたい。同様に、本例では、現実ワードの点111は比較的垂直な反射(すなわち曲線112)を形成するように示されているが、点111及びカメラ115の観視角度に対するミラー113の配向に依存して、点111はミラー113上の斜めに歪んだ(すなわち、水平方向及び垂直方向を組み合わせて歪んだ)反射を形成する場合があることを理解されたい。この、曲面ミラーによる点の伸張歪みは本願明細書においてイプシロン線と呼ばれる。
イプシロン線は、本願明細書においてイプシロンステレオ拘束と呼ばれるものの基盤を形成する。つまり、3Dシーン内の現実の点に対応するイプシロン線のサイズ、位置、及び配向を求めることができれば、3D点が、求められたイプシロン線に対応付くかどうか(すなわちそれが、求められたイプシロン線上にあるか又はそこから所定の距離内にあるかどうか)を判定することによって、3Dシーン内部の3D点が、第1の観視角度で撮影された第1の(歪んだ2D)画像内の特定の特徴点に対応するかどうかを判定することができる。さらに、第2の観視角度から撮影された第2の歪んだ2D画像について同じことができかつ、両2D画像を撮影するのに用いられるカメラが曲面ミラー(単数又は複数)に対して較正されていれば、両2D画像上の両特徴点が互いに対応するのかどうかを判定することができる。
イプシロン線を求めること、及びそれに続くイプシロン拘束についての一般的な説明を行うために、イプシロン拘束を導出すべき一般的なカメラモデルをまず提供することが有益である。説明しやすくするために、本導出は、当技術分野において一般線形カメラ(GLC)モデルとして周知の枠組みの中でなされる。該モデルは、反射屈折式カメラ等のマルチ透視投影カメラを含む多くの種類のカメラに適用可能な一般的な枠組みを提供する。図17に、GLC枠組みの一般的な説明が示されている。
GLC枠組みでは、3つの光の光線(以下、光線)のあり得るすべてのアフィン結合に沿った放射輝度が収集される。光線は2つの平行平面のそれらの交点によってパラメーター化される。図17では、光線r1、r2、及びr3が平行平面131及び133とのそれらの交点によってパラメーター化される。2つの平行平面は各々、それ自身の横座標及び縦座標によって記述されるデカルト平面である。ライトフィールドに関する上述の説明との整合性のために、平面131はデカルト座標[u,v]によって記述されてよく、平面133はデカルト座標[s,t]によって記述されてよい。このパラメーター化は2平面パラメーター化と呼ばれてよい。好ましくは、各光線は、σ=s−uτ=t−vを代入することによって再パラメーター化される。説明を容易にするために、本願明細書においては[σ,τ,u,v]によるパラメーター化が用いられる。
平面131(以下、平面uv)はデフォルトの平面であり、それは位置z=0(すなわち平面uvに垂直なz方向)にあり、平面133(以下、平面st)はz=1にあると仮定される。それ故、[σ,τ,1]は光線の方向を表す。
GLCは3つの光線のアフィン結合として定義される。
GLC={r:r=α・[σ1,τ1,u1,v1]+β・[σ2,τ2,u2,v2]+(1−α−β)・[σ3,τ3,u3,v3],∀α,β} (1)
GLCモデルは、今度は、基準GLCを形成するために、[u,v]座標を[0,0]、[1,0]、及び[0,1]として有する3つの特定の光線を選ぶことによって単純化される。
r[σ,τ,u,v]=(1−α−β)・[σ1,τ1,0,0]+α・[σ2,τ2,1,0]+β・[σ3,τ3,0,1] (2)
以上より、α=u及びβ=vであることが自明である。したがって、あらゆる画素[u,v]はGLC内の一意の光線に対応付く。図18に示されるように、GLC投影は3D点P[x,y,z]を画素[u,v]に対応付ける。ここで、
基本的に、GLC投影はあらゆる3D点Pを光線に対応付ける。示されている三角形並びに光線r1、r2及びr3は、点Pが対応付く光線を定義するための基準フレームを提供するが、それ自体は物理的表現を有しないことを理解されたい。GLCモデルは、ピンホールカメラ、正射投影カメラ、プッシュブルームカメラ、及びクロススリットカメラを含む多くの以前のカメラを統一する。
分母はGLCの固有方程式に対応する。
Az2+Bz+C=0 (4)
式(4)における根zi(i=1,2)は、GLC内のすべての光線が共に通過することになる、平面z=zi上のスリット(線)に対応する。例えば、すべての光線は2つのスリットを共に通過するのでクロススリット固有方程式は2つの異なる根を有する。一方、斜めのカメラは解を有しない。
GLCの枠組みを記載したので、次のステップは、イプシロン拘束、又は代替的に、イプシロンステレオペアのより厳密な説明を与えることである。エピポーラ幾何では、ステレオペアは、純粋に水平な視差を有する2つの画像から成る、すなわち、あらゆる3D点Pについて、2つの別個のFOVからの2つのカメラ視野内のその画像[u,v]及び[u’,v’]はv=v’を満たさなければならない。本イプシロンステレオモデル、すなわちイプシロンステレオペア、は、エピポーラ幾何のステレオ拘束を満たさないカメラ対を効果的に融合する。
図19を参照すると、画像(A)では、現実世界の物体150上の5つの点141〜145が、2つの別個の視点、V及びV’から観視されると、歪みを受ける。本例では、現実世界の物体150は図16の曲面ミラー113等の湾曲した反射面であってよい。歪みの故に、物体150の曲率に従う点141〜145は、観視の視点Vからは、直線の水平線151に従うように見える。しかし観視の視点V’からは、点141〜145は、水平線151に対して斜めの上向きの経路に沿った連続した波状パターンに従うように見える。
点141〜145の各々は歪み、各々、歪みオフセット又は垂直視差(上述された、図16における垂直曲線112によって示唆されるもの等)を定義する。この垂直視差は本願明細書においてイプシロン、ε、垂直視差と呼ばれる。観視の視点V’からは、点143は2εの歪みオフセット内のどこに見えてもよい。それ故、点Qが点143の歪みオフセット内に存在すると判定されれば、点Qは点143に対応してよい。しかし、点Qが、点143によって定義される歪みオフセットの外側に存在すると判定されれば、点Qは点143に対応しないと結論されてよい。
それ故、以下の特性が成り立つならば、2つの視像V及びV’はイプシロンステレオペアを形成する(すなわち視像V内の特徴点は視像V’内の特徴点に対応する)。光線V(u,v)及びV’(u’,v’)は、|v−v’|≦εの場合のみ交差する。
図20(A)を参照すると、曲面ミラー101及び103は図15のミラーアレイ100内の任意の2つのミラーを代表する。本例は3つ以上のミラーに直接拡張されてよいことを理解されたい。説明を容易にするために、ミラー101及び103上の画像は各々、歪んだ直角三角形を示すものとして図示されている。ミラー101は現実の3Dシーン(不図示)からの直角三角形の、第1のFOVからの第1の歪んだ(すなわち湾曲した)視像161’を示し、ミラー103は第2のFOVからの同じ直角三角形の第2の歪んだ視像161”を示す。カメラ92は両ミラー101及び103の画像を取得する。
図20(B)に、結果としてできるマルチ透視画像が示されている。画像101’は、ミラー101を撮影した画像に対応し、画像103’は、ミラー103を撮影した画像に対応する。説明の目的のために、三角形161’の縁端画素165(すなわちミラー画像101’上の点)及びミラー画像103’上のその対応するイプシロンステレオ拘束曲線167が示されている。ミラー画像103’上の点(又は画素)165”がミラー画像101’の点165に一致する(すなわち「対応する」、又は「位置が合う」)ことを検証したければ、可能性のある点165”がイプシロン拘束を満足するかどうかを判定する必要があろう。
例として、ミラー画像103’内の点165”がミラー画像101’内の点165にインデックス付けされてよいかどうか(すなわちそれに対応する、又は一致してよいかどうか)を知ることが望ましいならば、画素点165”が実質的に画素点165のイプシロンステレオ拘束内にあるかどうかを判定することになろう。可能性のある点165”は、エピポーラベースの技法、又は関心のある特徴点を特定するための他の周知の技法によって特定されていてよい。可能性のある点165”が実際に点165に対応するかどうかを判定するために、可能性のある画素点165”から、特定されたイプシロンステレオ拘束曲線167までの最短距離dが突き止められる。この距離dが所定の最大値、Dmax、(好ましくは5画素)よりも大きくなければ、可能性のある対応点165”は本当に画素点165に対応すると見なされる(すなわち画素(単数又は複数)165”は画素(単数又は複数)165にインデックス付けされる)。
所望の場合には、一致画素対(又は以下において説明されるように、一致したレイクセル対)のインデックスが維持されてよい。その場合、画素点165及び可能性のある対応画素点165”で構成される画素対は、一致した画素対(又は一致したレイクセル対)のインデックスに追加されることになろう。一方、求められた距離dが所定の最大値Dmaxよりも大きければ、可能性のある対応点165”は、点165に対応しないとして退けられることができよう。この場合、画素(単数又は複数)165及び可能性のある対応画素(単数又は複数)165”は、一致した画素対のインデックスから取り除かれる(又はさもなくばそれに入れられない)ことになろう。
2つのこのような視像はいずれもε対と呼ばれてよい。好ましくは、すべての視像はu連続かつv連続であると仮定されてよい。シーン解析は、両視像から見えるシーン幾何のみを考慮することによって単純化されてよい。イプシロンステレオペアのより詳しい説明が、Yuanyuan Ding(本発明の発明者)らによる「イプシロンステレオペア(Epsilon Stereo Pairs)」、British Machine Vision Conference(BMVC)、2007年に見いだされてよい。同文献はその全体が本願明細書において参照により援用されている。
本発明に戻ると、当業者によって理解されるであろうように、図15のもの等の反射屈折機構は初期システム較正プロセスを受けるであろう。当技術分野において周知の較正方法は種々あり、典型的な較正プロセスの例が、図10(A)を参照して示されている。しかし、本発明の重要な相違点は、以下においてより完全に説明されるように、曲面ミラーによって作り出される垂直視差が無視されないことである。
図21を参照すると、図15のものと同様の要素はすべて同様の参照文字を有し、上述されており、好ましい較正プロセスが、ミラーアレイ100の前方の3Dシーンをシミュレートするために所定の基準物(市松模様板62等)を配しよう。次に、デジタルカメラ92が、ミラーアレイ100内の各ミラーから反射された市松模様板の画像(又は画像群)を取得しよう。しかし、本較正方法の、従来技術のものとの相違点は、市松模様板62、ミラーアレイ100及びカメラ92の互いに対する正確な位置が求められることであり、本較正方法はさらに、各ミラー上のあらゆる表面点(すなわちイメージングされる画素に対応するあらゆる点)から3Dシーン上のその対応点への光の光線方向を較正し記録する。
目下好ましい実施形態では、カメラ92によって取得された画像の各画素はその対応するミラーに相互に関連付けられる。各ミラーの表面曲率は、各ミラー上の各表面ロケーション(すなわち表面点)がその対応する画像画素に対応付けられかつ、各表面点は市松模様板62上のその対応する特定の物理点にも対応付けられるように決められる。この対応付け情報は電子メモリー内に記憶されてよい。該電子メモリーは、カメラ92の内部に組み込まれてもよいし、又はカメラ92によってアクセス可能であってもよいし、又は別の態様でカメラ92と組み合わせられてもよい(カメラ92の外部のデータ処理デバイスを用いる等)。
説明しやすくするために、黒及び白の正方形の3つの列がミラーM9の表面上のそれらの反射位置にベクトルで対応付けられて示されている。本例では、このベクトル対応付けは、ミラーM9上の点から市松模様板62上の対応する物理点に至る矢印によって示されるように、ミラーM9上の(画像画素に対応する)各点から市松模様板62上のその対応点への光の光線の方向の特定及び記憶を意味する。ミラーM9上の(画像画素に対応する)すべての表面点は3Dシーン内のそれらのそれぞれの物理点にベクトル対応付けされることを理解されたい。ミラーアレイ100内のすべてのミラーも同様にベクトル対応付けされることをさらに理解されたい。すなわち、各ミラー上の、取得画像内の画素に対応する各表面ロケーションも同様にベクトル対応付けされよう。このようにして、3Dシーン(市松模様板62によって表される)から各個々のミラーにやって来る光の光線の方向を特定し、受けられた光の光線が跳ね返る、個々のミラー上の物理的表面位置を特定することが可能である。このベクトル対応付け情報は同様に電子メモリー内に記憶されてよい。電子メモリーはカメラ92内に組み込まれてもよいし、又はカメラ92によってアクセス可能であってもよいし、又は別の態様でカメラ92と組み合わせられてもよい。
図22に、較正後の、本発明による単純化された反射屈折光学系が示されている。同図において、図15及び図21のものと同様のすべての要素は同様の参照文字を有し、上述されている。説明を容易にするために、図22にはミラーM9が1つだけ示されているが、ミラーM9はミラーアレイ100を構成する複数のミラーのうちの1つであろうことを理解されたい。
図示のように、ミラーアレイ100(単一の例示的なミラーM9によって代表される)から3Dシーン(単一の点P1によって表される)が反射される。説明を容易にするために、点P1からミラーM9に進む単一のミラー入射光線214が示されている。先に説明されているように、ミラーM9の表面上の反射点(ミラー反射ロケーション218として特定される)に対するミラー入射光線214のベクトル方向は、XYZ軸線によって示されるデカルト座標系を用いて記録されてよい。これは、点P1からミラー反射ロケーション218へのミラー入射光線214のベクトル方向を示すミラー入射光線方向の座標を定義する。
理解されるであろうように、ミラー入射光線214はミラー反射ロケーション218から反射し(すなわち跳ね返り)、デジタルイメージングシステム210に進むミラー反射光線216になる。ミラー反射ロケーション218の座標は、(又は同様の)デカルト座標系、あるいは他の適当な座標系を用いてミラー反射ロケーション座標として記録されてよい。次に、以下においてより完全に説明されるように、ミラー反射光線216がデジタル画像システム210によって取得され、光線画像の一部として記憶される。
デジタルイメージングシステム210はミラーアレイ100(そのミラーM9のみが示されている)の光線画像を取得する。デジタルイメージングシステム210はピンホールカメラ92のみによって構成されてもよいし、又はデジタル処理デバイス202と組み合わせたピンホールカメラ92で構成されてもよい。取得された光線画像、及び又は較正データ、はカメラ92内に記憶されてもよいし、又は代替的に任意使用の外部電子メモリー204内に記憶されてもよい。電子メモリー204は任意選択的にカメラ92内又はデジタル処理デバイス202内にあってもよいし、あるいはカメラ92及び/又はデジタル処理ユニット202によってアクセス可能であってもよい。
各光線画像は光線構造絵素(レイクセル)の2次元アレイであり、各それぞれのレイクセルは所定の色モデルによる光強度尺度、ミラー反射ロケーション座標、及びミラー入射光線方向座標を含む。光強度尺度は、それぞれのレイクセルにおいて受けられる光強度を示す。本図例では、ミラー反射光線216に対応するレイクセルは、点であって、該点から出るアレイを有する、点として示されている。点は光強度尺度及びミラー反射ロケーション座標を示し、アレイはミラー入射光線方向を示す。
図23に、ライトフィールドの作製における本実施形態の利用のより完全な図例が提供されている。同図において、図15及び図21〜図22のものと同様のすべての要素は同様の参照文字を有し、上述されている。明解にするために、物理的3Dシーン内の単一の物理点P1の前方にミラーアレイ100が再び示されている。本例において、点P1は各ミラーの各取得画像内の単一の画素に対応する。典型的な3Dシーンはより大きい物体で構成されようことを理解されたい。好ましくは、ミラーは球面ミラーに限定されるのではなく、むしろ、種々の曲率を有する、凹状又は凸状になっていることを含む任意の曲率を有してよい。
カメラ92はミラーアレイ100の光線画像94を取得する。説明の目的のために、画像画素とそれらの対応するミラーとの間の相互関係を強調するために、光線画像94は、ミラー毎に1つの区域に分割されて示されている。これは画素の適当な対応付けによって達成されてよいことを理解されたい。画素のこの対応付けは較正プロセスの一部であってよい。
デジタル画像を定義するためのいくつかの標準色モデルがあるが、デジタルカメラは最も一般的には赤−緑−青(Red-Green-Blue、RGB)色モデルで取得画像を記録する。つまり、取得画像の各画素は、その取得された(色)光強度を示すRGB値を記録する。しかし、本発明は、各画素についての(色を含む)光強度情報に加えて方向(又はベクトル)情報を組み込むことによって、デジタル画像が記録される様式を変更する。デジタル画像を記録するために用いられる色モデルにかかわりなく、目下好ましい実施形態は追加のロケーション及び光の光線方向情報をさらに記憶する。
好ましくは、各ミラーの表面は、各ミラー上の各ミラー反射ロケーションの物理的位置が記録されるように、所定の座標系(すなわち表面対応付けシステム)に従って特定される。好ましくは、各ミラー上の各ミラー反射ロケーション(すなわち表面位置)は(XM0,YM0,ZM0)等のデカルト座標、又は他の適した座標系を用いて記録される。ここで、(X,Y,Z)は表面座標を特定し、M0は所与のミラーを特定する。所望の場合には、反射されている3Dシーン内の物理点を特定するためにパラメーターP0が追加されてよい(これは、所望の場合に、点の位置合わせにおいて用いられてよい)。この場合、各物理的表面ロケーションは(XM00,YM00,ZM00)として記録されてよい。ここで、P0は3Dシーン内の特定の点を特定する。各ミラー反射ロケーション及び対応する物理点の対応付けは較正プロセスの間に達成されてよい。代替的に、又はそれに加えて、取得された光線画像を記憶した後に、イプシロンステレオ拘束及びエピポーラステレオ拘束を組み合わせることによって複数のミラー間の物理点の相互関係が作られてよい。
例えば、図23では、物理点P1はミラーM1上でミラー反射ロケーション62において反射され、該ロケーションは(XM1,YM1,ZM1)として対応付けられてよい。反射される物理点も記録されるならば、点P1を反射するミラー反射ロケーションは(XM11,YM11,ZM11)として記録されてよい。同じ物理点P1はミラーM2上でミラー反射ロケーション64において反射され、該ロケーションは(XM2,YM2,ZM2)として対応付けられてよい。この場合も先と同様に、反射される物理点も対応付けられるならば、ミラーM2上の、点P1を反射するミラー反射ロケーションは(XM21,YM21,ZM21)として記録されてよい。第3の例として、物理点P1はミラーM3上でミラー反射ロケーション66において反射され、該ロケーションは(XM3,YM3,ZM3)として対応付けられてよい。先と同様に、光線画像取得時に物理点P1も対応付けられる場合には、ミラーM3上の、点P1を反射するミラー反射ロケーションは(XM31,YM31,ZM31)として記録されてよい。
各ミラーの、点が反射される物理的ミラー反射ロケーションを記憶することに加えて、本発明はさらに好ましくは、各ミラー上のミラー反射ロケーションから、反射されている3Dシーン内の物理点に至るミラー入射光線方向情報を記憶する。説明の各々のために、この光線方向は本願明細書においてベクトル、又はベクトル方向と呼ばれる。ベクトルは通例、大きさ及び方向の両方を含むであろうが、所望の場合には、RGB値が光の光線ベクトルの大きさ成分として用いられてよいことを理解されたい。先に説明されているように、ミラー入射光線方向を得る1つの方法は、システム較正時に、既知の対応付けられたパターンを3Dシーンとして配し、各ミラー上の各既知のパターンロケーションの反射ロケーション及び方向を記録することによるものである。各ミラーの表面は対応付けられ、各対応付けられたパターンのロケーションは既知であるので、各ミラー表面ロケーションからの各パターンロケーションへの光の光線方向が求められ、記憶されることができる。
このベクトル方向は、デカルト座標(又は他の適した座標系)を用いて(好ましくは光線画像取得時に)記憶され、dx、dy、dzとして示されてよい。例えばミラーM1では、ミラー反射ロケーション62(XM1,YM1,ZM1)から物理点P1へのミラー入射光線68の方向は(dx1,dy1,dz1)として記憶されてよい。同様に、ミラーM2については、ミラー反射ロケーション64(XM2,YM2,ZM2)から物理点P1へのミラー入射光線は(dx2,dy2,dz2)として記憶されてよい。
したがって、取得された光線画像の各レイクセルは所与の色モデルによる色/光の強さの値を記憶するだけでなく、所与の画素についての各ミラー上の物理的表面反射ロケーション(XM0,YM0,ZM0におけるミラー反射ロケーションとして示される)及びこの物理的ロケーションから3Dシーン内の実際の物理点への光の光線についてのベクトル方向(ミラー入射光線方向dx0,dy0,dz0として示される)も記憶する。それ故、結果としてできる絵素記憶構造は光線構造と呼ばれる。
一般性及び計算効率のために、結果としてできるマルチ透視投影光線画像は、「2D光線の2D画像」を用いてモデル化される。より正確には、光線画像は「光線構造」の2Dアレイである。各画素についての「RGB」値のみを記憶する古典的画像とは対照的に、(本発明による)「レイクセル」は「RGB」情報を記憶するだけでなく、光線の初期ミラー表面ロケーション(XM0,YM0,ZM0におけるミラー反射ロケーション)及び光線方向(ミラー入射光線方向dx0,dy0,dz0)も記憶する。ベクトル方向情報を組み込む光線構造が取得画像94内の矢印として示されている。説明しやすくするために、ミラーM1、M2、及びM3内の画素について記憶されるRGB、ミラー反射ロケーション、及びミラー入射光線方向情報が同様に示されている。
共通点、P1、に対応する、各ミラーからのレイクセル情報を合わせると、結果は、共通点P1に対応するライトフィールド68になる。基本的に、各ミラーの各光線画像はそれ自身の別々の(及び個々の)光強度情報並びに/あるいはミラー反射ロケーション及び/又はミラー入射光線方向情報に寄与する。
互いに対応するレイクセルは、それらのミラー反射ロケーション及び/又はミラー入射光線方向情報によることによって特定されてよい。すなわち、各ミラー上の各表面ロケーションは3D上の別々の点に対応付けられ、この対応付けは、互いに対応する、各光線画像内のレイクセルを求めるために用いられてよい。代替的に、レイクセル間の対応は、一致したレイクセル対のインデックスによって求められてもよい。
かように、「光線画像」モデル化の利点は、それが、複雑なモデル化を用いずに各取得画像からライトフィールドを直接レンダリングすることを可能にすることである。同様に、本アプローチは、ミラー表面の形状の種類、又はカメラ−ミラーの並びに対する要件がない。
加えて、図17〜図19を参照して先に説明されているように、GLCにおける定義あるいは3つの光線r1、r2、及びr3は純粋に、投影点を定義するための基準を作り出すことである。しかし、本例では、光線r1、r2、及びr3は各ミラー上の各反射画像上に三角形を構成しようから、これは実質的に各ミラー画像の三角形描出を定義する。周知のように、GPUは、あらゆるものがすべて三角形でできていることを前提として作業し、それらは、四辺形又は湾曲した表面パッチ等のより複雑な形状をいずれもまず三角形に切り分ける(すなわち三角形レンダリング)。本光線画像は三角形レンダリングによって既に定義されているので、現在取得された光線画像は、レンダリングステップにおけるマルチ透視投影反射屈折式カメラから任意の所望の透視像への直接的なGPUベースのテクスチャ対応付けを可能にする。
図24に、図15のミラーアレイ100の各ミラーからのレイクセル情報を組み合わせることによってライトフィールド画像220を作製する例が示されている。理解されるであろうように、ライトフィールド画像220を用いて、ライトフィールド内の任意の選択アイテムに個々に焦点を合わせることができよう。加えて、ミラーアレイ100内の異なるミラー提供される視野の大きな変化の故に、ライトフィールド画像220は実質的に合成大開口画像である。これは、いくつかのアイテムの遮蔽を補償することを可能にする場合がある。
本発明の追加的な利用は、アイテムの、ライトフィールド内の互いに対する奥行きを求めることにおける利用である。これは画像の3Dレンダリングにおいて有用である。好ましくは、この2Dから3Dへのレンダリングは、上述のイプシロンステレオ拘束を組み込むグラフカットアルゴリズムを利用する。
図25を参照すると、光線画像(単数又は複数)を作製した後、2Dから3Dへのレンダリングにおける第1のステップは、被写界深度画像(すなわちライトフィールド画像)をレンダリングすることである(ステップS1)。このステップはすべてのミラーからのレイクセル寄与を組み合わせ、ミラーアレイによって提供される視野の大きな変化の故に合成大開口画像を実質上作り出す。図24に、このステップの例が示されている。
次に、ミラーアレイ100内の1つのミラーがその後選択されてよく、その1つのミラーについての透視画像がレンダリングされる(ステップS2)。図26に、このような透視画像の例が示されている。本発明の1つの実施形態では、図16〜図20(A)/図20(B)を参照して先に説明されたように、透視画像のレンダリングは好ましくはイプシロン拘束を利用する。正しい3D画像を作るために、3Dシーン内のイメージングされた物体の相対的奥行き位置を確立するための奥行きマップが必要である。奥行きマップを定義する好ましい方法は、グラフカット技法の利用によるものである。
視覚対応のためのグラフカットベースのアルゴリズムは、エピポーラ幾何の存在を通例仮定するが、高精度かつ安定的な再構成を作ることができる。例として、グラフカットを用いて視覚対応を計算することの説明が、Kolmogorovらによる「グラフカットによる遮蔽のある視覚対応の計算(Computing Visual Correspondence with Occlusions via Graph Cuts)」、ICCV、508〜515ページ、2001年に提供されている。同文献は、その全体が本願明細書において参照により援用されている。
先に説明されているように、1対のマルチ透視投影カメラは一般的にエピポーラ拘束を満たさないであろう。しかし、イプシロンステレオ拘束を用いることで、本発明はステレオマッチングをマルチ透視投影カメラに拡張する。本アプローチによって、反射屈折光学系のための一般的なステレオ拘束をモデル化することが可能になる。さらに、この一般的なステレオ拘束は中心反射屈折光学系(球面ミラーを有するもの等)に限定されない。
イプシロンステレオ拘束を用いる力ずくのアプローチは、不一致ラベルセットを2次元に拡張することによってグラフカット又は信念伝播等の古典的ステレオマッチングを変更することである。1つの画像ビュー内の列内のすべての画素は別の画像ビュー内の同じ列の周りの±ε帯に対応付くこと、ただし、εは境界があり、通常、非常に小さいことを思い出されたい。したがって、標準的なステレオマッチングにおける2D探索空間をそのまま用いることができる。しかし、このアプローチの欠点は、このようなラベル付けの下での対応する光線は任意に斜めになり得、3D点に対応付かない場合があろうことである。
首尾一貫したエピポーラ幾何を強化するために、2つの光線間の「近さ」を測るべく追加のペナルティー項が追加されることが好ましい。図27を参照すると、説明しやすくするために、2つの観視角度からの2つの平坦画像I1及びI2が示されている。反射屈折光学系で撮影される画像は歪むであろうことを理解されたい。進行中の説明は一般線形カメラ(GLC)モデルの上述の説明を土台にしている。左ビュー参照カメラGLCL(すなわち第1の曲面ミラーからの第1の画像ビュー)内の各画素p[uL,vL]について、その対応する光線rp=[σL,τL,uL,vL]がpからまず計算されることに留意されたい。ただし、σL、τLは画素pにおける光線方向を記述する。好ましい実施形態では、この光線方向はミラー入射光線方向に対応し、光線画像内のレイクセル情報から直接取り込まれてよい。しかし、それは、以下のように、GLCモデルから求められてもよい。
σ(u,v)=(1−u−v)・σ1+u・σ2+v・σ3 (6)
τ(u,v)=(1−u−v)・τ1+u・τ2+v・τ3
次に、光線rpは右ビューカメラGLCR(すなわち第2の曲面ミラーからの第2の画像ビュー)内に投影される。
GLCは3D光線rpについての閉じた形の投影を提供する。rpはuv平面に平行でないとすると、rpは[u0,v0,0]においてuv平面と交差し、方向[σ0,τ0,1]を有することになる。rpを通る光線はすべて次式を満たす。
[u,v,0]+λ1[σ,τ,1]=[u0,v0,0]+λ2[σ0,τ0,1]
λ1及びλ2を消去すると、次式を得る。
(u−u0)(τ−τ0)−(v−v0)(σ−σ0)=0 (7)
式(6)を用いると、式(7)のσ、τは次式のようにu、vで置換されてよい。
(u−u0)((1−u−v)τ1+uτ2+vτ3−τ0)
−(v−v0)((1−u−v)σ1+uσ2+vσ3−σ0)=0 (8)
それ故、rpはGLC内の円錐曲線Cpに投影する。
したがって、右ビューカメラGLCR(すなわち第2の曲面ミラーからの第2の画像ビュー)内の投影光線は曲線Cpである。したがって、GLCR内の画素q[uR,vR]がどれほどよくp[uL,vL]に一致するのかを測るために、pとqとの間の色整合性及びqからCpまでの距離の両方を測る。p及びqからの対応する光線rp及びrqが3D空間内の点200において交差するならば、qはCp上にあるはずであり、qからCpまでの距離は理想的にはゼロであるはずであることに留意されたい。反射屈折式の応用では、この距離は通例ゼロではない。したがって、本実装では、この距離はCp上の、qに最も近い点を見いだすことによって計算され、この距離は再投影距離Dreproj(p,q)として特定される。
最後に、イプシロンステレオマッチング問題は2D不一致ラベル付け問題として定式化される。GLCL内の各画素pについての探索領域はGLCR内の高さ2ε及び幅dmax xの窓として定義される。ここで、dmax xは最大水平方向不一致であり、εはGLCパラメーターから計算される。特定のラベル付けfについてエネルギー関数が次のように定義される。
E(f)=Ed(f)+Eocc(f)+Es(f)+Ereproj(f) (9)
最初の3項は古典的ステレオマッチングにおいて一般に用いられる色整合性を測定するデータ項Ed、遮蔽項Eocc、及び平滑項Es。最後の項、Ereproj(f)、は、2つの光線間の「近さ」を測定する上述の追加のペナルティー項である。より具体的には、それは光線画像内のすべての点について、Cp上の、qに最も近い点(p及びp+[dx,dy]として特定される)の合計を測定し、再投影誤差項Ereprojとして定義される。すなわち、
このアプローチを用い、図28に、グラフカット技法を用いて回復された奥行きマップ(ステップS3)が示されている。
次に、この奥行きマップはガイドフィルタリング(ステップS4)によって後処理され、好ましくは図25の透視画像を用いることがギルドとして用いられる。ガイドフィルターに関する情報が、Heらによる「ガイドされた画像フィルタリング(Guided Image Filtering)」、ECCV、1〜8ページ、2010年に見いだされることができる。同文献はその全体が本願明細書において参照により援用されている。さらに好ましくは、本発明と同じ譲受人に譲渡された、構図変更のための重要度フィルタリング(Importance Filtering for Image Retargeting)、米国特許出願第13/099,228号に開示されているように、ステップS4は重要度フィルタリングを利用する。同文献はその全体が本願明細書において参照により援用されている。
図29に示されているように、これはより正確な奥行きマップ化画像をもたらす。
本発明はいくつかの特定の実施形態と併せて記載されているが、上述の記載に鑑みれば、多くのさらなる代替、変更及び変形が容易に分かることは当業者には明白である。それ故、本願明細書において記載されている本発明はこのような代替、変更、応用及び変形をすべて、添付の請求項の精神及び範囲内にあってよいものとして含むように意図されている。
10…3Dシーン 11…カメラ 12…正方形 13…カメラ 14…画像投影(画像平面) 15…2D画像(画像) 16…画像投影(画像平面) 17…2D画像(画像) 19…球 21…球 22…カメラ 23…観視角度 24…カメラ 25…観視角度 26…立方体 27…点線(線、投影線) 28…2D画像 29…点線(線、投影線) 30…2D画像 31…線 32…画像 33…変位線(エピポーラ線) 35…エピポーラ線 36…球面ミラー(ミラー) 36A…ミラーアレイ(正方形ミラーアレイ) 38…支持平面 40…ピンホールカメラ(カメラ、観視角度カメラ) 42A〜42D…隅マーカー 44…内側マーカー 50…球面ミラー 52…曲面ミラー 54…カメラ 61…反射屈折式カメラ機構 62…市松模様板(ミラー反射ロケーション) 63…曲面ミラー(ミラー) 64…ミラー反射ロケーション 65…透視投影カメラ(カメラ) 66…ミラー反射ロケーション 67…仮想画像平面 68…ミラー入射光線(ライトフィールド) 69…投影外形 70a〜70d…投影点 71a〜71d…光学的光線 73…ミラー(曲面ミラー) 75…特異点 76…カメラ(中心反射屈折式カメラ) 77…画像平面 80a〜80d…投影点 81a〜81d…光学的光線 83…ミラー 86…カメラ(非中心反射屈折式カメラ) 87…画像平面 91a〜91d…反射光線(平行光線) 92…カメラ(デジタルカメラ、ピンホールカメラ) 93…ミラー 94…光線画像(取得画像) 96…カメラ(光学的中心) 97…正射投影レンズ 98…軸 100…ミラーアレイ 101…曲面ミラー(ミラー) 101’…画像(ミラー画像) 103…曲面ミラー(ミラー) 103’…画像(ミラー画像) 111…点 112…垂直曲線(曲線) 113…曲面(ドーム)ミラー(3D曲面ミラー、ミラー) 115…カメラ 117…2D画像(画像) 117’…拡大画像平面 119…2D表現 119’…2D表現 121…垂直曲線 121’…垂直曲線 131…平行平面(平面) 133…平行平面(平面) 141〜145…点 150…物体 151…水平線 161’…視像(三角形) 161”…視像 165…縁端画素(点、画素点、画素) 165”…点(又は画素)(画素点、対応点、対応画素) 167…イプシロンステレオ拘束曲線 200…点 202…デジタル処理デバイス(デジタル処理ユニット) 204…電子メモリー 210…デジタルイメージングシステム(デジタル画像システム) 214…ミラー入射光線 216…ミラー反射光線 218…ミラー反射ロケーション 220…ライトフィールド画像 OL、OR…点(焦点、カメラ) PL、PR…点(投影点) PO…点(3D点) p…点(画素) P1…点(物理点、共通点) P1…物理点 Q…点 q…画素 rA、rB…光線 rp…光線(3D光線) V、V’…視点(視像、光線)。

Claims (20)

  1. 所望の3Dシーンを反射するためにミラーアレイ状に配列される複数の曲面ミラーと、
    前記曲面ミラーの光線画像を取得するデジタルイメージングシステムであって、前記光線画像の各々は光線構造絵素(レイクセル)の2次元アレイであり、各それぞれのレイクセルは所定の色モデルによる光強度尺度、ミラー反射ロケーション座標、及びミラー入射光線方向座標を含む、デジタルイメージングシステムと、
    を含む反射屈折式カメラシステムであって、
    前記光強度尺度は、前記それぞれのレイクセルにおいて受けられる前記光強度を示し、
    前記ミラー反射ロケーション座標は、対応する曲面ミラー上の表面ロケーションであって、前記表面ロケーションから、反射された光の光線が前記対応する曲面ミラーから前記それぞれのレイクセルに進む、前記表面ロケーションを示し、前記反射された光の光線は、前記3Dシーン内の点から前記表面ロケーションに入射する光の光線の反射であり、
    前記ミラー入射光線方向座標は、前記3Dシーン内の前記点から前記表面ロケーションへの前記入射する光の光線のベクトル方向を示す、
    反射屈折式カメラシステム。
  2. 前記デジタルイメージングシステムは、ピンホールカメラを含む、請求項1に記載の反射屈折式カメラシステム。
  3. 前記デジタルイメージングシステムは、ピンホールカメラである、請求項1に記載の反射屈折式カメラシステム。
  4. 前記デジタルイメージングシステムは、処理デバイスと通信するピンホールカメラを含む、請求項1に記載の反射屈折式カメラシステム。
  5. 前記反射屈折式カメラシステムは、非中心性である、請求項1に記載の反射屈折式カメラシステム。
  6. 前記曲面ミラーは、任意の曲率を有する、請求項1に記載の反射屈折式カメラシステム。
  7. 前記所定の色モデルは、RGB色モデルである、請求項1に記載の反射屈折式カメラシステム。
  8. 前記デジタルイメージングシステムは、前記3Dシーン内の前記点に対応する前記レイクセルからの情報を組み合わせることによって前記3Dシーン内の前記点についてのライトフィールドをレンダリングする、請求項1に記載の反射屈折式カメラシステム。
  9. 各レイクセルの前記ミラー入射光線方向情報は、前記ライトフィールドの形成において組み合わせられる、請求項8に記載の反射屈折式カメラシステム。
  10. 前記デジタルイメージングシステムは、互いに対応する前記光線画像内のすべてのレイクセルのすべての前記レイクセル情報を組み合わせることによって前記3Dシーンのライトフィールド画像をレンダリングする、請求項1に記載の反射屈折式カメラシステム。
  11. 前記デジタルイメージングシステムは、
    (a)前記取得された光線画像内の対応するレイクセルからのレイクセル情報を組み合わせることによって被写界深度画像をレンダリングすること、
    (b)前記曲面ミラーのうちの選択された1つについての透視画像をレンダリングすること、
    (c)グラフカット技法を用いて奥行きマップを回復すること、及び、
    (d)前記レンダリングされた透視画像を前記ギルドとして用いるガイドフィルタリングによって前記奥行きマップを後処理すること、
    によって前記光線画像から奥行きマップをレンダリングする、請求項1に記載の反射屈折式カメラシステム。
  12. ステップ(c)は、
    第1の光線画像内の各レイクセルについての探索領域を、第2の光線画像内の高さ2ε及び幅dmax xの窓として定義することであって、ただし、dmax xは最大水平方向不一致であり、εは前記第1の光線画像内の点Pの、前記第2の光線画像上の伸張歪みである、定義することと、
    特定のラベル付けfについてのエネルギー関数を、
    E(f)=Ed(f)+Eocc(f)+Es(f)+Ereproj(f)
    として定義することであって、ただし、Edは、色整合性を測るデータ項であり、Eoccは遮蔽項であり、Esは平滑項であり、Ereprojは、
    として再投影誤差を定義し、
    は光線画像内のすべての点についての、点pからp+[dx,dy]までの最も近い距離の合計を求める、定義することと、
    を含む、請求項11に記載の反射屈折式カメラシステム。
  13. 反射屈折式カメラにおいてライトフィールドをレンダリングする方法であって、
    前記方法は、
    所望の3Dシーンを反射するためにミラーアレイ状に配列される複数の曲面ミラーを設けることと、
    前記曲面ミラーの光線画像を取得するデジタルイメージングシステムであって、前記光線画像の各々は光線構造絵素(レイクセル)の2次元アレイであり、各それぞれのレイクセルは所定の色モデルによる光強度尺度、ミラー反射ロケーション座標、及びミラー入射光線方向座標を含み、ただし、
    前記光強度尺度は、前記それぞれのレイクセルにおいて受けられる光強度を示し、
    前記ミラー反射ロケーション座標は、対応する曲面ミラー上の表面ロケーションであって、前記表面ロケーションから、反射された光の光線が前記対応する曲面ミラーから前記それぞれのレイクセルに進む、前記表面ロケーションを示し、前記反射された光の光線は、前記3Dシーン内の点から前記表面ロケーションに入射する光の光線の反射であり、
    前記ミラー入射光線方向座標は、前記3Dシーン内の前記点から前記表面ロケーションへの前記入射する光の光線のベクトル方向を示す、前記デジタルイメージングシステムを設けることと、
    前記3Dシーン内の前記点に対応するレイクセルからの情報を組み合わせることによって前記3Dシーン内の前記点についてのライトフィールドをレンダリングすることと、
    を含む方法。
  14. 各レイクセルの前記ミラー入射光線方向情報は、前記ライトフィールドの形成において組み合わせられる、請求項13に記載の方法。
  15. 互いに対応する前記光線画像内のすべてのレイクセルのすべての前記レイクセル情報を組み合わせることによって前記3Dシーンのライトフィールド画像がレンダリングされる、請求項13に記載の方法。
  16. 前記反射屈折式カメラシステムは、非中心性である、請求項13に記載の方法。
  17. 前記曲面ミラーは、任意の曲率を有する、請求項13に記載の方法。
  18. 前記所定の色モデルは、RGB色モデルである、請求項13に記載の方法。
  19. 前記デジタルイメージングシステムは、
    (a)前記取得された光線画像内の対応するレイクセルからのレイクセル情報を組み合わせることによって被写界深度画像をレンダリングすること、
    (b)前記曲面ミラーのうちの選択された1つについての透視画像をレンダリングすること、
    (c)グラフカット技法を用いて奥行きマップを回復すること、及び、
    (d)前記レンダリングされた透視画像を前記ギルドとして用いるガイドフィルタリングによって前記奥行きマップを後処理すること、
    によって前記光線画像から奥行きマップをさらにレンダリングする、請求項13に記載の方法。
  20. ステップ(c)は、
    第1の光線画像内の各レイクセルについての探索領域を、第2の光線画像内の高さ2ε及び幅dmax xの窓として定義することであって、ただし、dmax xは最大水平方向不一致であり、εは前記第1の光線画像内の点Pの、前記第2の光線画像上の伸張歪みである、定義することと、
    特定のラベル付けfについてのエネルギー関数を、
    E(f)=Ed(f)+Eocc(f)+Es(f)+Ereproj(f)
    として定義することであって、ただし、Edは、色整合性を測るデータ項であり、Eoccは遮蔽項であり、Esは平滑項であり、Ereprojは、
    として再投影誤差を定義し、
    は光線画像内のすべての点についての、点pからp+[dx,dy]までの最も近い距離の合計を求める、定義することと、
    を含む、請求項19に記載の方法。
JP2012157221A 2011-08-10 2012-07-13 高速反射屈折式ライトフィールドレンダリングのための光線画像モデル化 Withdrawn JP2013038775A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/207,224 US8432435B2 (en) 2011-08-10 2011-08-10 Ray image modeling for fast catadioptric light field rendering
US13/207,224 2011-08-10

Publications (1)

Publication Number Publication Date
JP2013038775A true JP2013038775A (ja) 2013-02-21

Family

ID=47677292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012157221A Withdrawn JP2013038775A (ja) 2011-08-10 2012-07-13 高速反射屈折式ライトフィールドレンダリングのための光線画像モデル化

Country Status (2)

Country Link
US (1) US8432435B2 (ja)
JP (1) JP2013038775A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9235927B2 (en) 2014-05-15 2016-01-12 Chaos Software Ltd. Shading CG representations of materials
JP7467646B2 (ja) 2020-06-24 2024-04-15 中興通訊股▲ふん▼有限公司 3次元コンテンツ処理方法および装置

Families Citing this family (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
EP3876510A1 (en) 2008-05-20 2021-09-08 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
EP2502115A4 (en) 2009-11-20 2013-11-06 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER
CN103004180A (zh) 2010-05-12 2013-03-27 派力肯影像公司 成像器阵列和阵列照相机的架构
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
JP2012190299A (ja) * 2011-03-11 2012-10-04 Sony Corp 画像処理装置および方法、並びにプログラム
US8305456B1 (en) 2011-05-11 2012-11-06 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
US9230325B2 (en) * 2011-08-19 2016-01-05 University Of Rochester Three-dimensional model acquisition using planar mirrors
US20130070060A1 (en) 2011-09-19 2013-03-21 Pelican Imaging Corporation Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion
KR102002165B1 (ko) 2011-09-28 2019-07-25 포토내이션 리미티드 라이트 필드 이미지 파일의 인코딩 및 디코딩을 위한 시스템 및 방법
US9113043B1 (en) * 2011-10-24 2015-08-18 Disney Enterprises, Inc. Multi-perspective stereoscopy from light fields
US9165401B1 (en) 2011-10-24 2015-10-20 Disney Enterprises, Inc. Multi-perspective stereoscopy from light fields
DE102012223047B4 (de) * 2011-12-16 2015-09-10 Cognex Corporation Mehrteil-Korrespondierer (corresponder) für mehrere Kameras
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US9858649B2 (en) 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
KR20150023907A (ko) 2012-06-28 2015-03-05 펠리칸 이매징 코포레이션 결함있는 카메라 어레이들, 광학 어레이들 및 센서들을 검출하기 위한 시스템들 및 방법들
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
EP3869797B1 (en) 2012-08-21 2023-07-19 Adeia Imaging LLC Method for depth detection in images captured using array cameras
US20140055632A1 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
WO2014052974A2 (en) * 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating images from light fields utilizing virtual viewpoints
US9001226B1 (en) * 2012-12-04 2015-04-07 Lytro, Inc. Capturing and relighting images using multiple devices
US9769365B1 (en) 2013-02-15 2017-09-19 Red.Com, Inc. Dense field imaging
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
US9253380B2 (en) 2013-02-24 2016-02-02 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
US9185276B2 (en) 2013-11-07 2015-11-10 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
US10229526B2 (en) 2014-03-13 2019-03-12 Imagination Technologies Limited Rendering of soft shadows
CA2848794C (en) * 2014-04-11 2016-05-24 Blackberry Limited Building a depth map using movement of one camera
AU2015204402B2 (en) * 2014-05-15 2015-11-05 Chaos Software Ltd. Shading cg representations of materials
JP2017535985A (ja) * 2014-09-03 2017-11-30 ネクストブイアール・インコーポレイテッド コンテンツを取り込み、ストリーミングし、および/または、再生するための方法および装置
WO2016054089A1 (en) 2014-09-29 2016-04-07 Pelican Imaging Corporation Systems and methods for dynamic calibration of array cameras
US10008027B1 (en) * 2014-10-20 2018-06-26 Henry Harlyn Baker Techniques for determining a three-dimensional representation of a surface of an object from a set of images
EP3016368A1 (en) * 2014-10-27 2016-05-04 Thomson Licensing Method and apparatus for handling a defect object in an image
US9984494B2 (en) * 2015-01-26 2018-05-29 Uber Technologies, Inc. Map-like summary visualization of street-level distance data and panorama data
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
KR102483838B1 (ko) 2015-04-19 2023-01-02 포토내이션 리미티드 Vr/ar 응용에서 심도 증강을 위한 다중-기선 카메라 어레이 시스템 아키텍처
US9979909B2 (en) 2015-07-24 2018-05-22 Lytro, Inc. Automatic lens flare detection and correction for light-field images
EP3384671B1 (en) 2015-12-03 2021-02-17 Augmency Teknoloji Sanayi Anonim Sirketi Multi-view occlusion-preventive optical system in the form of a screen combined with an image capturing device
WO2017095341A1 (en) 2015-12-04 2017-06-08 Koc Universitesi Physical object reconstruction through a projection display system
EP3387489B1 (en) 2015-12-07 2021-02-17 Augmency Teknoloji Sanayi Anonim Sirketi A dual function display and multi-view imaging system
CN113014906B (zh) * 2016-04-12 2023-06-30 奎蒂安特有限公司 3d场景重建方法、系统及计算机程序存储介质
WO2017185208A1 (zh) * 2016-04-25 2017-11-02 深圳前海达闼云端智能科技有限公司 一种机器人三维模型的建立方法、装置及电子设备
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10545215B2 (en) 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
CA3000134C (en) * 2017-11-27 2019-07-02 Cae Inc. Method and system for simulating a radar image
CN107958468B (zh) * 2017-12-15 2021-06-08 云南大学 利用空间位置不同的三个球标定中心折反射摄像机的方法
CN108182727B (zh) * 2018-01-12 2021-08-17 武汉科技大学 基于多视点几何一致性的相位展开方法
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
DE102018108741A1 (de) * 2018-04-12 2019-10-17 Klöckner Pentaplast Gmbh Verfahren für optische Produktauthentifizierung
CN112470191A (zh) 2018-05-02 2021-03-09 奎蒂安特有限公司 用于处理具有几乎无限细节的场景的编解码器
JP7043375B2 (ja) * 2018-09-18 2022-03-29 株式会社日立製作所 ステレオカメラ、車載灯具ユニット、及びステレオカメラシステム
CN111182278B (zh) * 2018-11-09 2022-06-14 上海云绅智能科技有限公司 一种投影展示管理方法及系统
CN111489448A (zh) * 2019-01-24 2020-08-04 宏达国际电子股份有限公司 检测真实世界光源的方法、混合实境系统及记录介质
US11436743B2 (en) 2019-07-06 2022-09-06 Toyota Research Institute, Inc. Systems and methods for semi-supervised depth estimation according to an arbitrary camera
BR112022004811A2 (pt) 2019-09-17 2022-06-21 Boston Polarimetrics Inc Sistemas e métodos para modelagem de superfície usando indicações de polarização
CN114746717A (zh) 2019-10-07 2022-07-12 波士顿偏振测定公司 利用偏振进行表面法线感测的系统和方法
WO2021108002A1 (en) 2019-11-30 2021-06-03 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
JP7462769B2 (ja) 2020-01-29 2024-04-05 イントリンジック イノベーション エルエルシー 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法
WO2021154459A1 (en) 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11652972B2 (en) 2020-03-04 2023-05-16 Toyota Research Institute, Inc. Systems and methods for self-supervised depth estimation according to an arbitrary camera
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
US20230281955A1 (en) 2022-03-07 2023-09-07 Quidient, Llc Systems and methods for generalized scene reconstruction
CN116805354B (zh) * 2023-08-23 2023-12-29 中国林业科学研究院森林生态环境与自然保护研究所(国家林业和草原局世界自然遗产保护研究中心) 一种基于神经辐射场的珍稀鸟类三维模型重构方法与装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005234224A (ja) * 2004-02-19 2005-09-02 Yasushi Yagi 全方位撮像システム
JP2008537157A (ja) * 2005-04-18 2008-09-11 シャープ株式会社 光学機器に用いるパノラマ式三次元アダプタおよびパノラマ式三次元アダプタと光学機器との組み合わせ

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2378234A1 (fr) 1977-01-24 1978-08-18 Cibie Projecteurs Feu de signalisation a catadioptre incorpore pour vehicule
US6097394A (en) 1997-04-28 2000-08-01 Board Of Trustees, Leland Stanford, Jr. University Method and system for light field rendering
US20030206652A1 (en) * 2000-06-28 2003-11-06 David Nister Depth map creation through hypothesis blending in a bayesian framework
US7901093B2 (en) * 2006-01-24 2011-03-08 Seiko Epson Corporation Modeling light transport in complex display systems
US8201951B2 (en) 2008-11-19 2012-06-19 Seiko Epson Corporation Catadioptric projectors

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005234224A (ja) * 2004-02-19 2005-09-02 Yasushi Yagi 全方位撮像システム
JP2008537157A (ja) * 2005-04-18 2008-09-11 シャープ株式会社 光学機器に用いるパノラマ式三次元アダプタおよびパノラマ式三次元アダプタと光学機器との組み合わせ

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9235927B2 (en) 2014-05-15 2016-01-12 Chaos Software Ltd. Shading CG representations of materials
KR20160029059A (ko) * 2014-05-15 2016-03-14 카오스 소프트웨어 엘티디. 물질들의 cg 표현들 쉐이딩
KR101607607B1 (ko) * 2014-05-15 2016-03-30 카오스 소프트웨어 엘티디. 물질들의 cg 표현들 쉐이딩
KR101656420B1 (ko) 2014-05-15 2016-09-09 카오스 소프트웨어 엘티디. 물질들의 cg 표현들 쉐이딩
JP7467646B2 (ja) 2020-06-24 2024-04-15 中興通訊股▲ふん▼有限公司 3次元コンテンツ処理方法および装置

Also Published As

Publication number Publication date
US8432435B2 (en) 2013-04-30
US20130038696A1 (en) 2013-02-14

Similar Documents

Publication Publication Date Title
JP2013038775A (ja) 高速反射屈折式ライトフィールドレンダリングのための光線画像モデル化
Liu et al. 3D imaging, analysis and applications
US7760932B2 (en) Method for reconstructing three-dimensional structure using silhouette information in two-dimensional image
Newcombe et al. Live dense reconstruction with a single moving camera
JP4195096B2 (ja) 3次元表面形状再構築のための装置
EP0990224B1 (en) Generating an image of a three-dimensional object
JP4392507B2 (ja) 3次元サーフェス生成方法
CN113012293B (zh) 石刻模型构建方法、装置、设备及存储介质
CN110648274B (zh) 鱼眼图像的生成方法及装置
US9147279B1 (en) Systems and methods for merging textures
Oliveira Image-based modeling and rendering techniques: A survey
JP2000137815A (ja) 新視点画像生成方法
KR102207461B1 (ko) 엑스슬릿 카메라
Pagani et al. Dense 3D Point Cloud Generation from Multiple High-resolution Spherical Images.
JP2000268179A (ja) 三次元形状情報取得方法及び装置,二次元画像取得方法及び装置並びに記録媒体
JP2003115042A (ja) 3次元形状モデルの評価方法および生成方法並びに装置
JP2019509526A (ja) 多数のカメラを用いた最適の球形映像獲得方法
TW201707437A (zh) 畫像處理裝置及畫像處理方法
Lin et al. Vision system for fast 3-D model reconstruction
US20030146922A1 (en) System and method for diminished reality
Ye et al. Ray geometry in non-pinhole cameras: A survey
KR102358854B1 (ko) 얼굴 이미지 색상 합성 장치 및 방법
Yan et al. Stereoscopic image generation from light field with disparity scaling and super-resolution
Iwadate et al. VRML animation from multi-view images
Yang View-dependent Pixel Coloring: A Physically-based Approach for 2D View Synthesis

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160609

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160613

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20160621