JP6446997B2 - スケール及び深度空間に変換することによるライトフィールドの処理 - Google Patents

スケール及び深度空間に変換することによるライトフィールドの処理 Download PDF

Info

Publication number
JP6446997B2
JP6446997B2 JP2014216328A JP2014216328A JP6446997B2 JP 6446997 B2 JP6446997 B2 JP 6446997B2 JP 2014216328 A JP2014216328 A JP 2014216328A JP 2014216328 A JP2014216328 A JP 2014216328A JP 6446997 B2 JP6446997 B2 JP 6446997B2
Authority
JP
Japan
Prior art keywords
depth
image
scale
domain
ray
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014216328A
Other languages
English (en)
Other versions
JP2015084223A (ja
Inventor
トシッチ イヴァナ
トシッチ イヴァナ
バークナー キャサリン
バークナー キャサリン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2015084223A publication Critical patent/JP2015084223A/ja
Application granted granted Critical
Publication of JP6446997B2 publication Critical patent/JP6446997B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/232Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • General Engineering & Computer Science (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Computer Graphics (AREA)
  • Image Generation (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Description

本発明は、一般に3次元シーンのライトフィールド(マルチビューイメージを含む)の処理に関し、例えば、プレノプティックイメージングシステム(plenoptic imaging system)によりキャプチャされた3次元シーンのライトフィールドの処理などに関する。
ライトフィールドは、異なる視点から撮影された3次元シーンの複数のビューを介して当該シーンを表現するため、コンピュータグラフィックコミュニティにおいてまず導入された。一般に、シーンのライトフィールドは、任意の波長及び任意の時点における3次元空間の任意の視点から撮影されたシーンの2次元イメージ(すなわち、ライトフィールドイメージ)を含む7次元関数である。コンピュータグラフィックアプリケーションでは、コンピュータは、それの3次元形状及びテクスチャを含む明示的な3次元シーンモデルを有するため、任意の視点からシーンをレンダリング可能である。すなわち、コンピュータは、ライトフィールドイメージの何れかをレンダリングし、シーンのライトフィールド全体をまた計算することが可能である。
最近、3次元シーンの4次元ライトフィールドをキャプチャするためのシステムが開発されてきた。これらのシステムは、カメラアレイ及びプレノプティックイメージングシステムを含む。これらのシステムは、典型的には、ある波長(又は波長帯域)及び時点において4次元ライトフィールド、すなわち、2次元面上の各種視点から撮影されたシーンの2次元イメージ(3次元空間における任意の視点を許容するのでなく)をキャプチャする。これらのシステムでは、3次元シーン情報は明示的にキャプチャされない。むしろ、それは、キャプチャされた4次元ライトフィールドのピクセル内に非明示的に含まれる。
4次元ライトフィールドから3次元情報を抽出することは、逆の問題である。ライトフィールドの高次元のため、それは困難な問題である。高密度深度推定(シーン内の各ピクセルの深度の推定など))はこれら困難な問題の1つであり、これは、グローバルにスムースでコンシスタントな深度マップの取得は、典型的にはグローバルな最適化を要求し、高次元データ処理のための非常に大きな複雑さを通常有するためである。
従って、ライトフィールドから深度及び他の情報を効率的かつロウバストに抽出するライトフィールド処理アプローチが必要とされる。
本発明は、3次元シーン(マルチビューイメージなど)のライトフィールドイメージを(イメージ,ビュー)ドメインから(イメージ,スケール,深度)ドメインに変換することによって、従来技術の制約を解消する。その後、処理が(イメージ,スケール,深度)ドメインにおいて実行される。上述されたライトフィールドが、(イメージ,ビュー)ドメインにおいてキャプチャされる。それらは、プレノプティックイメージングシステム、カメラアレイ又は他のタイプのマルチビューイメージングシステムによってキャプチャ可能である。それは、複数の視点から観察される2次元イメージとしての3次元シーンの表現である。(イメージ,スケール,深度)ドメインでは、スケールが3次元シーンにおけるオブジェクトの異なるサイズを表し、深度が3次元シーンにおけるオブジェクトの深度を表す。
便宜上、(イメージ,ビュー)ドメインから(イメージ,スケール,深度)ドメインに変換する処理は、スケール・深度変換として参照され、結果として得られる表現は、オリジナルのライトフィールドのスケール・深度変換として参照されてもよい。異なる変換が可能であり、“スケール・深度変換”という用語は、(イメージ,ビュー)ドメインから(イメージ、スケール,深度)ドメインへの全ての変換を含むことが意図される汎用的な用語である。
1つのアプローチでは、スケール・深度変換は、Ray−Gaussianカーネル又はそれの導関数(正規化された導関数を含む)に基づく。Ray−Gaussianにおける“Ray”とは、フラットな平面上に一定に離間した視点について、3次元シーンにおけるポイントが(イメージ,ビュー)空間において直線として現れるという事実を表す。この直線の角度が当該ポイントの深度に相当し、角度から深度へのマッピングはカメラパラメータに依存する。同一の深度の隣接するポイントは、そのとき、(イメージ,ビュー)空間における有限の断面エリアによる“レイ(ray)”を生成する。当該レイの角度は、(イメージ,スケール,深度)ドメインの(深度)部分に相当する。Ray−Gaussianにおける“Gaussian”とは、ガウスカーネルを利用して、(イメージ,スケール,深度)ドメインの(スケール)部分を実現することを表す。ライトフィールドの2次元スライスのRay−Gaussianカーネルの一例は、
であり、ここで、xは(イメージ)ドメインからの座標であり、uは(ビュー)座標であり、σは(スケール)座標であり、φは(深度)座標である。この特定の定式化は、高速変換を可能にするいくつかの効果を有する。本例のRay−Gaussianカーネルは、ライトフィールドの2次元スライスについて定義されるが、当該変換は、3次元スライスやライトフィールド全体についてカーネルを定義するため拡張可能であるとき、このケースに限定されるものでない。
(イメージ,スケール,深度)ドメインにおいて実行可能な処理の具体例は、深度推定及び3D特徴抽出である。1つのアプローチでは、スケール・深度変換は、Ray−Gaussianカーネルの2次導関数に基づき、深度推定は、ライトフィールドのスケール・深度変換において極値を検出することに基づく。他のアプローチでは、スケール・深度変換は、Ray−Gaussianカーネルの1次導関数に基づき、変換されたライトフィールドの極値の検出は、エッジ検出などの3D特徴検出に利用可能である。
本発明の他の態様は、上述したコンセプトに関連する方法、デバイス、システム、コンポーネント及びアプリケーションを含む。
本発明によると、ライトフィールドから深度及び他の情報を効率的かつロウバストに抽出するライトフィールド処理アプローチを提供することができる。
本発明は、添付した図面と共に参照されるとき、本発明の以下の詳細な説明及び添付した請求項からより容易に明らかになる他の効果及び特徴を有する。
図1は、3次元シーンを示す図である。 図2は、本発明によるライトフィールドイメージを処理する方法のフロー図である。 図3A〜3Cは、3つの異なる視点から見た2つのオブジェクトを示す図であり、図3Dは、対応するライトフィールドの(x,u)スライスを示す図である。 図4は、グレイスケールシーンのライトフィールドからの(x,u)スライス上に重畳されたレイを示す。 図5Aは、2次元イメージのガウススケール空間を示し、図5Bは、ガウスピラミッドを示す図である。 図6は、φ=π/4及びσ=6のRay−Gaussianカーネルの一例を示す。 図7A〜7Cは、Ray−Gaussian変換を計算するための異なる方法を示すフロー図である。 図8は、深度推定を示すフロー図である。 図9A〜9Bは、可能性のあるオクルージョンを示す図である。 図10Aはライトフィールドイメージセットからの1つのイメージであり、図10Bはライトフィールドイメージセットの深度推定を示し、図10Cはライトフィールドイメージセットの特徴抽出を示す。 図11は、プレノプティックイメージングシステムの図である。
図面は、説明のみのため本発明の実施例を示す。以下の説明から、当業者は、ここに説明される構成及び方法の代替的な実施例がここに説明される本発明の原理から逸脱することなく利用可能であることを容易に認識するであろう。
図面及び以下の説明は、単なる説明のための好適な実施例に関する。以下の説明から、ここに開示される構成及び方法の代替的な実施例が、特許請求の範囲の原理から逸脱することなく利用可能な実行可能な代替として容易に認識されることに留意すべきである。
[ライトフィールド]
以下の具体例では、ライトフィールドを何れか所与の方向の空間内の任意のポイントにおける放射輝度として表現する。ライトフィールドは、所与のリファレンス面上の位置(u,v)において観察され、図1に示されるように、位置(x,y)のポイントソースから到来するライトレイの放射輝度を表す4次元関数としてパラメータ化可能である。ライトフィールドをI(x,y,u,v)として記す。
図1は、3つのオブジェクト110A〜Cによる簡単化された3次元シーンを示す。図1はまた、リファレンス(x,y)プレーンとリファレンス(u,v)プレーンとを示す。2つのポイント(u,v),(u,v)がまた示される。(u,v)プレーンは、視点プレーンとしてみなすことができ、座標(u,v)は、(ビュー)ドメインとして参照される空間を定義する。ライトフィールドイメージI(x,y,u,v)は、視点(u,v)から観察者により見えるであろうイメージである。それは、ピンホールがポジション(u,v)に配置されたピンホールカメラによりキャプチャされるイメージとしてみなすことができる。同様に、ライトフィールドイメージI(x,y,u,v)は、視点(u,v)にいる観察者により見えるであろうイメージである。図1において、(x,y)プレーンは、オブジェクト空間において描画されるが、イメージ空間に定義されるユニバーサル座標系としてより適切にみなすことができる。それは、全てのライトフィールドイメージが共通する(x,y)座標系に対して定義されるという意味でユニバーサルである。座標(x,y)は、(イメージ)ドメインとして参照される空間を定義する。
従って、ライトフィールドI(x,y,u,v)は、(イメージ)及び(ビュー)ドメインからの3次元シーンの表現であるため、3次元シーンの(イメージ,ビュー)ドメイン表現として参照されることもある。デバイスは、当該空間においてイメージをキャプチャするのに利用されてもよい。例えば、プレノプティックカメラ、カメラアレイ又は他のタイプのマルチビューイメージングデバイスが、異なる視点から3次元シーンのイメージをキャプチャするのに利用されてもよい。数学的には、これらのデバイスは、(u,v)の異なる値においてライトフィールドI(x,y,u,v)をサンプリングする。イメージセットはまた、3次元シーンのマルチビューイメージとしても参照されてもよい。しかしながら、上述されたように、これらマルチビューイメージを直接処理し、それらの内部において本来的にキャプチャされる3次元情報を抽出することは困難となりうる。
図2は、本発明によるライトフィールドイメージを処理する方法のフロー図である。(イメージ,ビュー)ドメインにおいてライトフィールドイメージを直接処理する代わりに、提供270されるライトフィールドイメージは、(イメージ,ビュー)ドメインから(イメージ,スケール,深度)ドメインに変換280され、当該ドメインにおいて代わりに処理290される。変換280は、スケール・深度変換として参照される。(イメージ,スケール,深度)ドメインへの変換を含む(スケール)及び(深度)ドメインのそれぞれが、以下においてより詳細に説明される。簡単化のため、以下の説明は、1次元“イメージ”を用いるが、2次元への拡張は容易である。(イメージ)、(ビュー)、(スケール)及び(深度)の次元はそれぞれ、座標x,u,σ及びφにより表される。
[(深度)ドメイン]
図3A〜3Dに示されるようなライトフィールドの2次元スライスI(x,u)のいくつかの具体例を見る場合、一様に離間した視点によるライトフィールドの特性に固有のライン構成を観察することが可能であり、ここで、(x,u)ドメインのラインの角度はシーン内の異なる深度に対応する。図3Aは、異なる深度にある2つのオブジェクト210,220を示す。オブジェクト220はオブジェクト210の前方である。それは、視点uに応じてオブジェクト210を塞ぐかもしれないし、又はそうでないかもしれない。
図3Aは、視点uから撮影される。当該視点から、オブジェクト210はxインターバル211を占有し、オブジェクト220はxインターバル221を占有する。2つのインターバル211,221は重複せず、オクルージョン又は閉塞(occlusion)はない。図3Dは、これら2つのオブジェクトのライトフィールドの2次元(x,u)スライスを示す。図3Aのxスライスは、垂直方向のu軸上のuによりマーク付けされる。2つのインターバル211,221は、図3Dの座標u=uの2つのラインセグメントとして再生される。図3Bは、異なる視点uからの同一の2つのオブジェクトを示す。当該視点から、オブジェクト210はxインターバル212を占有し、オブジェクト220はxインターバル222を占有する。これはまた、図3Dの座標u=uの2つのラインセグメントにより示される。座標u=uにおけるセグメントに関するこれらのセグメントのシフトが存在することに留意すべきである。視点の変更による当該相対的なシフトは、視差と呼ばれる。図3Bにおいて、2つのxインターバル212,222は単に接触している。図3Cは、視点uからの2つのオブジェクトを示す。ここで、図3Dのu=uにおける2つのラインセグメントにより示されるように、オブジェクト210はxインターバル213を占有し、オブジェクト220はxインターバル223を占有する。2つのxインターバル213,223はオーバラップしており、それは、オブジェクト220がオブジェクト210の一部を塞ぐことを意味する。閉塞された領域は、オーバラップエリアである。他の視点uについて当該処理を繰り返すことは、図3Dに示される2つの台形219,229をもたらし、それはレイ(ray)として参照される。オーバラップエリア239は、オブジェクト220によるオブジェクト210のオクルージョンを表す。オブジェクト220はオブジェクト210の前方にあるため、レイ229は、オーバラップ領域239による影響を受けない。すなわち、レイ229のエッジは、パラレルでありつづける。他方、レイ219は、マイナスの三角形のオーバラップ領域239となる。
図3Dから、固有のライン構成が見える。すなわち、オブジェクトの各ポイントは、x軸との法線に関する角度φの(x,u)プレーンにおいてラインを生成する。同じ深度の隣接するポイントセットは、垂直軸と角度φを形成する幅のレイを生成する。これらの角度は、図3Dにおいてφ及びφとラベル付けされる。一般的な4次元のケースでは、これらの角度は、(x,y)プレーンとの法線に関するものとなる。便宜上、角度φは視差角度として参照される。視差角度φは、オブジェクトの深度位置に依存する。視差のため、視点となるuプレーンから深さに関してより遠いオブジェクトは、より小さな視差角度φによるラインを生成する。u軸からより遠いオブジェクト213に対応するレイ219は、より小さな視差角度φを有する。u軸により近いオブジェクト223に対応するレイ229は、より大きな視差角度φを有する。カメラアレイ又はプレノプティックカメラのいくつかの構成では、角度φはまた負となりうる。これらのレイは、垂直方向のレイ(すなわち、φ=0のレイ)を生成するオブジェクトより、視点に対する方向に沿って更に遠くにあるオブジェクトに対応する。一般に、角度φは、インターバル(−π/2,π/2)内の値をとりうる。
図4は、グレイスケールシーンのライトフィールドからの(x,u)スライスを示す。図4はまた、可変的な角度(深度)及び幅の3つのレイ419,429,439を示す。
3次元シーンにおいて視差角度φと深度との間には直接的な対応関係がある。この結果、3次元シーンの(x,u)表現は、(x,φ)ドメインに変換可能である。当該ドメインの(φ)部分は、視差角度φと深度との間の直接的な対応関係による(深度)ドメインの一例である。
[(スケール)ドメイン]
図3Dに戻って、各レイ219,229の幅は、3次元シーンの対応するオブジェクト210,220の空間的な範囲(すなわち、サイズ)に対応する。異なるサイズのオブジェクトは、シーンのスケール空間表現を用いることによって処理することができる。
1つのアプローチでは、イメージのスケール空間表現は、スケールが小さなスケール(狭くシャープなカーネルを与える)から大きなスケール(広くスムースなカーネルを与える)に変化するカーネルによりそれを畳み込むことによって取得される。異なるレベルのスケール空間において、異なるサイズのイメージ特徴は異なってスムース化され、すなわち、小さな特徴はより大きなスケールでは消失する。従って、スケール空間フレームワークは、スケールに不変なイメージ処理を可能にし、それは、オブジェクトのポーズやカメラの向き及び距離などのため、イメージにおけるオブジェクトサイズの変化を処理するのに有用である。
スケール空間を構成するのに通常利用されるカーネルはガウスカーネルである。1次元のケースにおけるガウススケール空間(今のところ視点uを無視する)は、
として定義される。ただし、
であり、σは(スケール)座標であり、*は畳み込み演算子を示す。
ガウスカーネルの導関数に基づくスケール空間がまた構成可能である。例えば、ガウススケール空間の正規化された1次導関数
はエッジ検出に利用可能であり、ここで、“正規化”とはσとの乗算を表す。すなわち、所与の信号がI(x)=t(x−x)であるとき(ただし、t(x)はステップ関数である)、
となる。
ガウススケール空間の正規化された2次導関数
は、ブロブ検出(blob detection)に利用可能であり、ここで、“正規化”とはσとの乗算を表す。これは、I(x)=t(x−x)−t(x−x)であるとき、
が、
に対して最小値を有するためである。ガウススケール空間の更なる既知の性質はAppendixに説明される。
ガウススケール空間の1つの効果は、図5A〜5Bに示されるように、ガウスピラミッドを介した再帰的なスケールドメインの実現を可能にすることである。図5Aにおいて、要素510はガウススケール空間を表す。(x,y)座標はイメージ座標であり、σはスケール座標である。簡単化のため、1次元のみのスケーリングを仮定する。要素510は、垂直軸に沿ってlog(σ)による式(1)を表す。要素510を構成する1つの方法は、要素510の異なる“スライス”により表されるようなσの異なる値について式(1)を直接計算することである。
他のアプローチは、図5Bに示されるように、ガウスピラミッドを構成することである。この場合、要素520Aは、式(1)を直接計算することによって構成される。要素520Bは、2のファクタ(1オクターブ)など乗数ファクタにより要素520Aのダウンサンプリングによって取得される。すなわち、要素520Bのスライスは、2の乗数などの要素520Aに利用されるものの乗数であるσの値において評価される。要素520Bのスライスは、式(1)の直接的な適用により計算する代わりに、要素520Aのスライスをフィルタリング及びダウンサンプリングすることによって構成可能である。同様に、要素520Cのスライスは、要素520Bのスライスをフィルタリング及びダウンサンプリングすることによって構成可能である。
[(イメージ,スケール,深度)ドメインへの変換]
ここで、上述した具体例に基づき(イメージ,ビュー)ドメインから(イメージ,スケール,深度)ドメインへの変換の具体例を検討する。本例では、キャプチャされたマルチビューイメージは、I(x,u)によって(イメージ,ビュー)ドメインにおいて表現される。(イメージ,ビュー)ドメイン表現I(x,u)を(イメージ,スケール,深度)ドメイン表現L(x;σ,φ)に変換することを所望する。便宜上、L(x;σ,φ)はまた、I(x,u)のスケール・深度変換(又はスケール・深度空間)として参照されてもよい。
まず当該変換において用いるカーネルを定義する。Ray−Gaussianカーネルを
として定義する。ここで、x及びuは図2Dに定義されるものであり、φはu軸によりRay−Gaussianカーネルが構成する角度であり(すなわち、x軸との法線との角度)、σはカーネルの幅パラメータである。Ray−Gaussianの“Ray”とは、(x,u)空間にあるレイを表す。
図6は、φ=π/4及びσ=6によるRay−Gaussian関数の一例を示す。このグレイスケールピクチャでは、より明るいピクセルはより大きな値であり、より暗いピクセルはより小さな値である。Ray−Gaussianは、x方向についてガウス状であり、u方向についてリッジ状である。リッジの傾きは、tan φに等しく、指数におけるxのシフトにおいてuを乗算する。このリニアシフトx=u tan φは、フラットプレーン上の視点の一様な離間により取得されるライトフィールドのための(イメージ,ビュー)ドメインにおけるレイ構成を最も良く表すため選択される。
しかしながら、曲線状のレイなどの異なる構成を表すためシフトx=f(u)の異なる(及び非線形であり得る)パラメータ化を選択することが可能であることに留意されたい。f(u)の適切な選択は、ライトフィールドイメージ取得のジオメトリに依存する。図2の具体例では、3次元シーンの各ポイントは、(イメージ,ビュー)スライスにおいてラインを生成し、異なる深度のポイントは、異なる角度のラインに対応する。しかしながら、マルチビューイメージが非一様マイクロレンズアレイ密度による非フラットプレーン又はプレノプティックカメラ上の非一様なカメラアレイによりキャプチャされる場合、3次元シーンの異なる深度のポイントは、(イメージ,ビュー)スライスの異なる曲線に対応してもよい。関数f(u)はこれに対応して選択される。
Ray−Gaussianカーネルを用いて、
に従ってI(x,u)のRay−Gaussian変換L(x;σ,φ)を構成する。ただし、x(イメージドメイン)上でのみ畳み込みを評価しているため、u=0が選択される。すなわち、
である。畳み込みはx上のみであるため、L(x;σ,φ)はuに依存せず、L(x;σ,φ)はパラメータとしてスケールσと角度φとの双方を有することに留意されたい。
同様に、Ray−Gaussian変換のn次導関数を
として定義する。
以下において、Ray−Gaussian変換を構成するのに有用なRay−Gaussian関数の特定の性質を示す。次の2つの補題はRay−Gaussianとそれのダウンサンプリング又はアップサンプリングファクタとのスケール変更に関する等式を証明する。
補題1:以下の式が成り立つ。
ただし、s>0はスケールファクタである。
証明:
補題1は、スケールσ及び角度φによるRay Gaussianが、ダウンサンプリングファクタsについてsにより乗算される値によるスケールsσ及び角度φによるそれのダウンサンプリングされたバージョンに等しいことを示す。ライトフィールドでは、uのダウンサンプリングは、その個数が通常は小さいシーンのいくつかのビューをドロップしていることを意味するため、通常は望ましくない。従って、xのみにおけるダウンサンプリングを扱う以下の補題を示す。
補題2:以下の式が成り立つ。
ただし、φ’=arctan(s tan φ)であり、φ∈(−π/2,π/2)であり、s>0である。
証明:tan(φ’)=s tan φであるため、
となる。
第2の補題は、スケールσ及び角度φによるRay Gaussianが、ファクタsによるxのみにおけるダウンサンプリングについて、sにより乗算された値によるスケールsσ及び角度φ’=arctan(s tan φ)におけるそれのダウンサンプリングされたバージョンに等しいことを示す。
これら2つの補題が提供されると、Ray−Gaussian変換I*Rσ,φの以下の性質を示すことができる。次の6つの命題は、ライトフィールドIのダウンサンプリングによるRay−Gaussian変換の動作に関する。完全性のため、これらの命題の証明は、Appendixに与えられる。
命題1:J(x,u)=I(sx,su)となるような(すなわち、IはJのダウンサンプリング又はアップサンプリングバージョンである)ライトフィールドスライスJ(x,u)を有する場合、
である。
命題2:J(x,u)=I(sx,u)となるような(すなわち、IはxのみにおけるJのダウンサンプリング又はアップサンプリングバージョンである)ライトフィールドスライスJ(x,u)を有する場合、
である。ただし、φ’=arctan(s tan φ)であり、φ∈(−π/2,π/2)であり、s>0である。
Ray−Gaussian変換のこれら2つの性質は、複数の方法によりライトフィールドIの変換L(x;σ,φ)を構成可能であることを示す。図7Aは直接的なアプローチを示す。このアプローチでは、Iは、σ∈{σ1, …,σn, 2σ1, …,2σn,…, 2kσ1, …,2kσn,}及びφ∈{φ1,
…, φm}について、Rσ,φにより畳み込まれる710。この式では、nはスケールのオクターブ毎のサンプルの個数であり、(k+1)はオクターブの個数であり、mは深度ドメインにおけるサンプルの個数である。他のファクタpもまた利用可能であるが、ダウンサンプリングファクタは2として選択される。図7Aにおいて、これは2つのループ722,724により実現される。
図7Bは、上記命題を用いて図5のものと同様のピラミッドをダウンサンプリング及び構成することによって計算量を低減する。これは、大きなライトフィールドにとって特に有用となりうる。このアプローチでは、Iは、図7Bのループ722,726により示されるように、σ∈{σ1, …,σn}及びφ∈{φ1, …, φm}についてRσ,φにより畳み込みされる。σの値は図7Aと比較してはるかに少ないオクターブ未満にしか及ばないことに留意されたい。その後、Iは2によりダウンサンプリング730され、ダウンサンプリングされたIは、2により乗算され(式(14)に従って)、σ∈{σ1, …,σn}及びφ∈{φ1, …, φm}についてRσ,φにより畳み込みされる。この畳み込みは、Iがダウンサンプリングされているため、より少ない計算量しか必要としない。これがループ732において(k−1)回繰り返される。
図7Cは、ダウンサンプリング737がuでなくxにおいてのみ実行されることを除き、図7Bと類似する。この場合、各ダウンサンプリングについて、深度値φがまた変更737される。すなわち、ダウンサンプリング後、ダウンサンプリングされたIが、σ∈{σ1, …,σn}及びφ∈{φ1’, …, φm’}についてRσ,φにより畳み込みされる。
また、同様の性質が、Ray−Gaussianの1次及び2次導関数に対して構成された変換について成り立つことを証明できる。
命題3:J(x,u)=I(sx,su)となるようなライトフィールドスライスJ(x,u)を有する場合(すなわち、IがJのダウンサンプリング又はアップサンプリングされたバージョンである)、
となる。
命題4:J(x,u)=I(sx,u)となるようなライトフィールドスライスJ(x,u)を有する場合(すなわち、Iがx上でのみJのダウンサンプリング又はアップサンプリングされたバージョンである)、
となる。ただし、φ’=arctan(s tan φ)であり、φ∈(−π/2,π/2)であり、s>0である。
命題3,4から、1次導関数Ray−Gaussian変換L’(x;σ,φ)の構成のため、“正規化”されたRay−Gaussian導関数
を用いて、図7A〜7Cに示されるものと同様のアプローチを実現することができる。
命題5:J(x,u)=I(sx,su)となるようなライトフィールドスライスJ(x,u)を有する場合(すなわち、IがJのダウンサンプリング又はアップサンプリングされたバージョンである)、
となる。
命題6:J(x,u)=I(sx,u)となるようなライトフィールドスライスJ(x,u)を有する場合(すなわち、Iがx上でのみJのダウンサンプリング又はアップサンプリングされたバージョンである)、
となる。ただし、φ’=arctan(s tan φ)であり、φ∈(−π/2,π/2)であり、s>0である。
同様に、命題5,6から、2次導関数Ray−Gaussian変換L”(x;σ,φ)の構成のため、“正規化”されたRay−Gaussian2次導関数
を用いて、図7A〜7Cに示されるものと同様のアプローチを実現することが可能である。
角度の変化の下でのライトフィールドとの内積の保存に関するRay−Gaussianカーネルの1以上の性質を証明することが有用である。
命題7:I(x,u)=f(x−au)を満たすライトフィールド(ただし、aは定数
を有する場合(オクルージョンがない場合)、
となる。
同様の命題が、導関数R’σ,φ及びR”σ,φについて成り立つ。これは、深度推定のための重要な性質である。なぜなら、レイの角度に関するバイアスがなく、深度値に関するバイアスがないことを保証するためである。
[正規化された2次導関数Ray−Gaussian変換からの深度推定]
図2に戻って、スケール・深度変換が、異なる目的を実現するため異なる方法により処理290されることが可能である。1つの適用では、3次元シーンの(イメージ,スケール,深度)ドメイン表現は、3次元シーンにおける深度を推定するため処理される。以下の具体例は、スライスにおける位置、幅(σに基づく)及び角度(φに基づく)と共に(x,u)空間においてレイを検出することに基づく。
図8は、Ray−Gaussianに基づきこれを実現するためのフロー図を示す。図8は、図2に示される処理の一例である。ここで、変換ステップ880は、正規化された2次導関数Ray−Gaussian変換
に基づく。処理ステップ890は、L”(x;σ,φ)の極値(局所的最小値及び最大値)を求めることに基づく。極値ポイントのパラメータ{(x,σ,φ)}は、各レイpについて以下の情報を与える。
・レイの中心の位置x
・レイの幅2σ
・レイの角度φ
角度φから、カメラキャリブレーションパラメータをd=fb/tan(φ)として利用することによって(ただし、fはカメラ焦点長さであり、bはカメラ間距離である)、当該レイの深度d(すなわち、3次元シーンにおける対応するポイントの深度)を取得できる。プレノプティックカメラについて、レイトレーシング又は波伝搬を用いてプレノプティックイメージ形成をシミュレートすることによって、より正確な角度・深度値の割り当てを評価できる。この第2アプローチは、深度推定において光パラメータのより正確な利用を含む。
レイを検出し、それのパラメータを検出した後、更なる技術を適用することによって結果を更に精緻化できる。1つの技術は、重複するレイ間のオクルージョンコンフリクト892を決定する。各レイの位置及び幅を有するため、図3Dに示されるものなど、オーバラップするレイセットを求めることができる。オーバラップしているレイを検出すると、フォアグラウンドからバックグラウンドへのレイのオーダリングを決定することができる。より大きな角度のレイはより小さな深度を示すため(より近いオブジェクトとより大きな視差)、より大きな角度のレイは、図9Aに示されるようにフォアグラウンドにあるべきである。図9Aにおいて、レイ910は(x,u)空間においてレイ920を塞ぐ。これは、レイ910がより急峻な角度であるため可能であり、それがカメラにより近く、より近くのオブジェクトがより遠くのオブジェクトを塞ぐことを意味する。
イメージにおけるノイズのため、検出されたレイは図9Bに提供される状況に従う。本例では、レイ920はレイ910を塞ぐが、レイ920はより遠くのオブジェクトを表す。重複するレイによるこのようなケースを処理するための1つのアプローチは、全てのレイのセットから“塞がれた”レイ910を取り除くことである。図9Aに従う状況について、レイを維持し、更にオクルージョンに関する情報を記録することが可能である。
オクルージョン検出892の後に残った検出されたレイからの情報を組み合わせることによって、深度894をピクセルに割り当てることが可能である。また、(x,u)スライスからのスケール・深度空間と、ライトフィールドの(y,v)スライスからのスケール・深度空間とを処理することによって検出されるレイからの情報を合成可能である。(x,u)は水平方向の視差によるビューに対応し、スライス(y,v)は垂直方向の視差によるビューに対応する。割り当てのための複数のオプション(複数のレイ)によるピクセルについて、より高い信頼値を有する割り当てを選択してもよい。他の全てのファクタが等しい場合、当該ピクセルのスケール・深度空間の最も大きな絶対値を有するレイを抽出する。
図8における破線は、3次元シーンにおけるエッジ及びそれらの角度を検出するための更なる処理パスを示す。これは、以下においてより詳細に説明される。当該情報はまた、深度割り当てを向上させるため利用可能である。例えば、レイ検出及びエッジ検出からの信頼値を組み合わせ、より良好な深度割り当てを取得することができる。また、誤りがあるかもしれないとき、両サイドにおけるシャープなエッジを有しない弱いレイを排除することができる。
[1次導関数Ray−Gaussian変換からの3D特徴検出]
3次元シーンにおいてエッジを検出し、正規化された1次導関数Ray−Gaussian変換
において極値を検出することによって、これらのエッジの深度値を推定することが可能である。極値ポイントのパラメータ{(x,σ,φ)}は、各エッジqに関する以下の情報を提供する。
・エッジの位置x
・エッジのスケールσ
・エッジの角度φ
エッジは、通常は有用なイメージ特徴である。各エッジ特徴に割り当てられた深度値を取得するため、本方法は3D特徴検出を効果的に実行する。図8の破線のボックスにおいて、エッジ特徴検出方法のフローチャートが示される。これは、図2に示される処理の他の例である。ここで、変換ステップ980は、正規化された1次Ray−Gaussian変換
に基づく。処理ステップ990は、L’(x;σ,φ)の極値(局所的最小値及び最大値)を検出することに基づく。オクルージョン検出992はまた、エッジ検出に適用可能である。
図8の破線のボックスにおいて示されるアプローチは、他のタイプの特徴検出に一般化できる。処理ステップ990は、所望される特徴検出に応じて異なる処理と置換されうる。例えば、第2イメージ次元yに沿って連結されたスケール・深度変換の4Dボリュームにおいて極値を検出することによって、イメージ特徴としてコーナーを検索できる。
[実験結果]
スタンフォードデータベースからの“トラック”ライトフィールド上の深度推定及び3D特徴検出方法を評価した。これは、カメラガントリにより取得された(x,y,u,v)ライトフィールドであり、水平方向と垂直方向との双方のカメラのずれによるイメージを含む。トータルで16×16のイメージがある。図10Aにおいて、1つのイメージのグレイスケールバージョンが示される。以下の結果は、ライトフィールドのグレイスケールバージョンについて示されるが、ここで説明されるアプローチはまた、マルチカラーチャネルからの結果を集約するのに利用可能である。
(x,u)及び(y,v)スライスについて個別にRay−Gaussian変換、レイ検出及びエッジ検出を適用し、その後、深度割り当て前にそれらを合成した。深度マップ推定のため、レイ検出とエッジ検出との双方からの情報を利用した。ある後処理後(メディアンフィルタリング及びモーフォロジカルクロージング)に取得した深度マップが図10Bに示される。図10Bでは、より明るいグレイスケールはより近い深度を表し、より暗いグレイスケールはより遠くの深度を表す。最終的に、図10Cは、オリジナルカラーイメージにオーバレイされた検出された3D特徴の位置を示す。各特徴の深度は、特徴マーカの擬似カラーにより示される。より暖色(赤色)のカラーはより近い特徴を示し、より寒色(青色)のカラーはより遠くの特徴を示す。
[プレノプティックイメージングシステム]
図11は、上述したアプローチにより用いるのに適したライトフィールドイメージをキャプチャすることが可能なプレノプティックイメージングシステムの図である。システムは、シーン110のプレノプティックイメージをキャプチャする。プレノプティックイメージは、本来的にシーン110のマルチビューイメージである。プレノプティックイメージングシステムは、光学モジュール1105が複数の要素及び/又は非レンズ要素(ミラーなど)を含みことが可能であることが理解されるが、図11において単一のレンズ要素により表される画像形成光学モジュール1105を含む。光学モジュール1105は、シーン110の従来の光学イメージ1160を形成する。光学モジュール1105はまた、プライマリイメージングモジュール、サブシステム又はシステムとして参照されてもよい。光学イメージ1160は、光学モジュール1105のイメージプレーン1125において形成される。光学モジュール1105は、瞳1117及び瞳面1115により特徴付けされ、図11において、単一のレンズ要素と共置される物理的な開口絞りにより表される。より複雑な光学モジュール1105では、瞳1117及び瞳面1115は、光学モジュール内の何れの光要素とも共置される必要はない。
従来のイメージングシステムでは、検出アレイは、光学イメージ1160をキャプチャするため、イメージプレーン1125に配置される。しかしながら、このことは、図11のプレノプティックイメージングシステムの場合には異なる。本例では、マイクロイメージング要素1121のアレイ1120は、イメージプレーン1125に配置される。図11において、マイクロイメージング要素1121はマイクロレンズとして示される。ピンホールのアレイなどの他の要素がまた利用可能である。検出アレイ1130は、マイクロイメージングアレイ1120の後方(すなわち、光学的に下流)に配置される。より詳細には、検出アレイ1130は、瞳プレーン1115に対する共役面に配置される。すなわち、各マイクロイメージング要素1121は、共役面1135において瞳プレーン1115のイメージを生成し、当該イメージが検出アレイ1130によりキャプチャされる。
マイクロレンズの場合、各マイクロレンズ1121は、検出プレーン1135において瞳のイメージ1170を形成する。瞳のイメージは、検出アレイ1130において検出手段1131のサブセットによりキャプチャされる。各マイクロレンズ1121は、それ自体のイメージ1170を形成する。従って、検出プレーン1135において形成されるプレノプティックイメージ全体は、各マイクロレンズ1121に1つのイメージとなるイメージ1170のアレイを含むことになる。このアレイ化されたイメージングは、検出アレイをスーパーピクセル1133に効果的に細分化し、各スーパーピクセルは複数の検出手段1131を含む。各マイクロレンズ1121は、瞳を対応するスーパーピクセル1133にイメージングし、各瞳イメージは、その後に対応するスーパーピクセルの検出手段によりキャプチャされる。
各検出手段1131は、瞳1117の一部を介し移動するレイを収集する。各マイクロレンズ1121は、シーン110の一部から生じるレイを収集する。従って、各検出手段1131は、シーン110の一部から特定方向に移動するレイを収集する。すなわち、各検出手段1131は、特定の視点から撮影されるとき、シーンのイメージ全体の小さな部分を収集する。同じ視点から生じる検出手段1131により収集されたデータを集約することによって、当該視点からのシーンの完全なイメージが構成可能である。異なる視点から全てのイメージを集約することによって、シーンの完全なライトフィールドが構成可能である。図11において、プロセッサ1180は、検出アレイ1130からデータを収集し、それを処理する。プロセッサ1180はまた、LF変換と上述された他の処理とを実行してもよい。
図11は、プレノプティックイメージングシステムによるライトフィールドのキャプチャを示す。上述されるように、カメラアレイなどの他のタイプのライトフィールドイメージングシステムがまた利用可能である。
多くのプレノプティックカメラは、これらのカメラから取得したライトフィールドの具体的な構成を生じさせる特定の光学的性質を有する。当該構成は、ライトフィールドの(イメージ,ビュー)ドメインのレイの角度とスケールとの間の確定的な関係に反映される。例えば、遠く離れてフォーカスされたメインレンズ(レンズの“過焦点距離”などにある)を備えたプレノプティックカメラは、小さな視差角度により特徴付けされるレイが小さなブラー(又はブラーのない)を有し、より大きな視差角度により特徴付けされるレイがより大きなブラーを有するライトフィールドを生成する。ブラー(スームスネス)は、レイがスケール深度処理により検出されるスケールのレベルに影響を与えるため、深度とスケールとの間には確定的な関係がある。これらのタイプの関係は、(イメージ,スケール,深度)空間におけるサーチの複雑さを低減するため、効果的に利用可能である。例えば、関数fにより与えられるスケールと深度との間の一対一の関係が存在する場合、(イメージ,スケール,深度)空間内の3次元サーチは、(イメージ,f(スケール,深度))内の2次元サーチに減縮可能である。これは、スケール・深度処理の他の適用と共に、深度推定及び3D特徴検出への双方の適用例において利用可能である。
メインレンズが過焦点距離より近いオブジェクトにフォーカスされている場合、焦点距離より近いオブジェクトを含むライトフィールドは、より大きな視差角度及びより大きなブラーによるレイによって特徴付けされる。焦点距離より遠くのオブジェクトは、より大きな負の視差角度及びより大きなブラーにより特徴付けされる。
詳細な説明は多くの詳細を含むが、これらは本発明の範囲を限定するものとして解釈されるべきでなく、本発明の異なる具体例及び態様を示すためのものとして単に解釈されるべきである。本発明の範囲は詳細に上述されていない他の実施例を含むことが理解されるべきである。例えば、ライトフィールドは、カメラの非正規的な配置によるカメラアレイやマルチ開口光学系(複数のレンズと1つのセンサアレイとを有するシステム)などのプレノプティックイメージングシステム以外のシステムによりキャプチャ可能である。他のレイとして、スケール・深度ライトフィールド変換は、上述された具体例以外の目的のため、すなわち、セグメント化、圧縮、オブジェクト検出及び認識、オブジェクトトラッキング及び3Dシーン可視化などのために処理可能である。最後の例として、スケール空間は、上述されたガウスカーネル以外のカーネルを用いて構成可能である。当業者に明らかな他の各種修正、変更及び変形が、添付した請求項に規定されるような本発明の趣旨及び範囲から逸脱することなく、ここに開示された本発明の方法及び装置の構成、処理及び詳細において可能である。従って、本発明の範囲は、添付した請求項及びそれらの法的な均等によって決定されるべきである。
他の実施例では、本発明は、コンピュータハードウェア、ファームウェア、ソフトウェア及び/又はこれらの組み合わせにより実現される。本発明の装置は、プログラマブルプロセッサによる実行のため、非一時的なマシーン可読記憶媒体において有形に具現化されるコンピュータプログラムプロダクトにより実現可能であり、本発明の方法ステップは、入力データに対して操作し、出力を生成することによって本発明の機能を実行するための命令のプログラムを実行するプログラマブルプロセッサにより実行可能である。本発明は、データストレージシステム、少なくとも1つの入力装置及び少なくとも1つの出力装置との間でデータ及び命令を送受信するため接続される少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行可能な1以上のコンピュータプログラムにより効果的に実現可能である。各コンピュータプログラムは、ハイレベル手続き型又はオブジェクト指向プログラミング言語により、又は所望される場合にはアセンブリ又は機械語により実現可能であり、何れの場合も、言語はコンパイル又はインタープリットされた言語とすることが可能である。適切なプロセッサは、例えば、汎用及び特定用途マイクロプロセッサとの双方を含む。一般に、プロセッサは、ROM及び/又はRAMから命令及びデータを受信する。一般に、コンピュータは、データファイルを格納するための1以上のマスストレージデバイスを含み、当該デバイスは、内部のハードディスク及び着脱可能なディスクなどの磁気ディスク、光磁気ディスク及び光ディスクを含む。コンピュータプログラム命令及びデータを有形に具現化するのに適した記憶装置は、例えば、EPROM、EEPROM及びフラッシュメモリデバイスなどの半導体メモリデバイス、内部のハードディスク及び着脱可能なディスクなどの磁気ディスク、光磁気ディスク及びCD−ROMディスクなどを含む全ての形態の不揮発性メモリを含む。上述した何れかは、ASIC(Application−Specific Integrated Circuit)及び他の形態のハードウェアにより補完又は搭載可能である。
[Appendix:1次元ガウスカーネルの性質(従来技術)]
以下の性質は、1次元ガウスカーネルについて示される。2次元以上への拡張は容易である。1次元ガウスカーネルについて、
となる。J(x)=I(sx)を定義する。このとき、
が成り立つ。1次導関数について、
が成り立つ。2次導関数について、
が成り立つ。
さらに、以下は、命題1〜6(上述した式(14)〜(19))の証明である。
命題1の証明:
命題2の証明:
命題3の証明:
命題4の証明:
命題5の証明:
命題6の証明:
命題7の証明:
任意のa∈(−1,1)について、
となる。
1105 光学モジュール
1120 マイクロイメージングアレイ
1130 検出アレイ
1180 プロセッサ

Claims (20)

  1. 3次元シーンのライトフィールドイメージを処理する方法であって、当該方法は、コンピュータシステム上で実行され、
    前記3次元シーンのライトフィールドイメージの(イメージ,ビュー)ドメイン表現にアクセスするステップと、
    前記(イメージ,ビュー)ドメイン表現を(イメージ,スケール,深度)ドメイン表現に変換するため、スケール・深度変換を適用するステップと、
    前記3次元シーンの(イメージ,スケール,深度)ドメイン表現を処理するステップと、
    を有する方法。
  2. 前記スケール・深度変換の(スケール)部分は、ガウスカーネル又はそれの導関数の1つに基づく、請求項1記載の方法。
  3. 前記スケール・深度変換の(深度)部分は、前記(イメージ,ビュー)ドメインにおいて異なる曲線を生成する前記3次元シーンにおける異なる深度のポイントに基づく、請求項1記載の方法。
  4. 前記スケール・深度変換の(深度)部分は、前記(イメージ,ビュー)ドメインにおいて異なる角度によりレイを生成する前記3次元シーンにおける異なる深度のポイントに基づく、請求項3記載の方法。
  5. 前記スケール・深度変換は、Ray−Gaussianカーネル
    又はそれの導関数の1つに基づき、xは(イメージ)座標であり、uは(ビュー)座標であり、σは(スケール)座標であり、φは(深度)座標である、請求項1記載の方法。
  6. 前記スケール・深度変換を適用するステップは、
    σ∈{σ1, …,σn}及びφ∈{φ1, …, φm}について、前記Ray−Gaussianカーネル又はそれの導関数により前記(イメージ,ビュー)ドメイン表現を畳み込むステップと、
    pにより前記(イメージ,ビュー)ドメイン表現をダウンサンプリングし、σ∈{σ1, …,σn}及びφ∈{φ1, …, φm}について、前記Ray−Gaussianカーネル又はそれの導関数により畳み込むステップを(k−1)回繰り返すステップと、
    を有し、
    nはスケールのダウンサンプリング範囲毎のサンプル数であり、mは深度ドメインにおけるサンプル数であり、pはダウンサンプリングファクタである、請求項5記載の方法。
  7. 前記スケール・深度変換を適用するステップは、
    σ∈{σ1, …,σn}及びφ∈{φ1, …, φm}について、前記Ray−Gaussianカーネル又はそれの導関数により前記(イメージ,ビュー)ドメイン表現を畳み込むステップと、
    pにより前記(イメージ,ビュー)ドメイン表現のイメージ部分をダウンサンプリングし、σ∈{σ1, …,σn}及びφ∈{φ1’, …, φm’}について、前記Ray−Gaussianカーネル又はそれの導関数により畳み込むステップを(k−1)回繰り返すステップと、
    を有し、
    nはスケールのダウンサンプリング範囲毎のサンプル数であり、mは深度ドメインにおけるサンプル数であり、pはダウンサンプリングファクタである、請求項5記載の方法。
  8. 前記3次元シーンの(イメージ,スケール,深度)ドメイン表現を処理するステップは、前記(イメージ,スケール,深度)ドメイン表現に基づき前記3次元シーンにおける深度を推定するステップを含む、請求項1記載の方法。
  9. 前記スケール・深度変換は、正規化された2次導関数Ray−Gaussian変換であり、
    前記3次元シーンにおける深度を推定するステップは、前記正規化された2次Ray−Gaussian変換の極値を検出し、前記極値に基づき深度を推定するステップを含む、請求項8記載の方法。
  10. 前記3次元シーンにおいて深度を推定するステップは更に、前記極値に基づきオクルージョンを検出するステップを含む、請求項9記載の方法。
  11. 正規化された1次導関数Ray−Gaussian変換を前記(イメージ,ビュー)ドメイン表現に更に適用するステップと、
    前記正規化された1次Ray−Gaussian変換の極値を検出するステップと、
    前記正規化された1次Ray−Gaussian変換の極値に基づき前記3次元シーンにおけるエッジを推定するステップと、
    前記推定されたエッジに基づき前記深度の推定を改善するステップと、
    を更に有する、請求項9記載の方法。
  12. 前記3次元シーンの(イメージ,スケール,深度)ドメイン表現を処理するステップは、前記(イメージ,スケール,深度)ドメイン表現の処理に基づき前記3次元シーンにおいて3次元特徴を抽出するステップを含む、請求項1記載の方法。
  13. 前記スケール・深度変換は、正規化された1次導関数Ray−Gaussian変換であり、
    前記3次元シーンにおいて3次元特徴を抽出するステップは、前記正規化された1次導関数Ray−Gaussian変換の極値を検出し、前記極値に基づき3次元特徴を抽出するステップを含む、請求項12記載の方法。
  14. 前記3次元シーンのライトフィールドイメージは、一定に離間した視点から撮影される、請求項1記載の方法。
  15. 前記3次元シーンのライトフィールドイメージは、プレノプティックイメージングシステムによりキャプチャされる、請求項1記載の方法。
  16. 前記(スケール)ドメイン及び前記(深度)ドメインはそれぞれ、1次元である、請求項1記載の方法。
  17. 前記ライトフィールドイメージは、前記(スケール)ドメインと前記(深度)ドメインとの間の確定的関係を有し、
    前記(イメージ,スケール,深度)ドメイン表現を処理するステップは、前記確定的関係を利用する、請求項1記載の方法。
  18. 前記3次元シーンのライトフィールドイメージは、プレノプティックイメージングシステムによりキャプチャされ、
    前記(スケール)ドメインと前記(深度)ドメインとの間の確定的関係は、前記プレノプティックイメージングシステムにより決定される、請求項17記載の方法。
  19. 前記(イメージ,スケール,深度)ドメイン表現を処理するステップは、前記(イメージ,スケール,深度)ドメイン上でサーチするステップを含み、
    前記(スケール)ドメインと前記(深度)ドメインとの間の確定的関係は、前記サーチの計算複雑さを低減する、請求項17記載の方法。
  20. 3次元シーンのライトフィールドイメージを処理する方法を実現するようコンピュータシステムに指示するためのコンピュータプログラムコードを含む非一時的な有形なコンピュータ可読媒体であって、
    前記方法は、
    前記3次元シーンのライトフィールドイメージの(イメージ,ビュー)ドメイン表現にアクセスするステップと、
    前記(イメージ,ビュー)ドメイン表現を(イメージ,スケール,深度)ドメイン表現に変換するため、スケール・深度変換を適用するステップと、
    前記3次元シーンの(イメージ,スケール,深度)ドメイン表現を処理するステップと、
    を有する媒体。
JP2014216328A 2013-10-25 2014-10-23 スケール及び深度空間に変換することによるライトフィールドの処理 Expired - Fee Related JP6446997B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/064,090 2013-10-25
US14/064,090 US9460515B2 (en) 2013-10-25 2013-10-25 Processing of light fields by transforming to scale and depth space

Publications (2)

Publication Number Publication Date
JP2015084223A JP2015084223A (ja) 2015-04-30
JP6446997B2 true JP6446997B2 (ja) 2019-01-09

Family

ID=51690829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014216328A Expired - Fee Related JP6446997B2 (ja) 2013-10-25 2014-10-23 スケール及び深度空間に変換することによるライトフィールドの処理

Country Status (3)

Country Link
US (1) US9460515B2 (ja)
EP (1) EP2866202B1 (ja)
JP (1) JP6446997B2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10327627B2 (en) 2013-01-18 2019-06-25 Ricoh Company, Ltd. Use of plenoptic otoscope data for aiding medical diagnosis
US9565996B2 (en) 2013-01-18 2017-02-14 Ricoh Company, Ltd. Plenoptic otoscope
US9460515B2 (en) * 2013-10-25 2016-10-04 Ricoh Co., Ltd. Processing of light fields by transforming to scale and depth space
US9569853B2 (en) * 2013-10-25 2017-02-14 Ricoh Company, Ltd. Processing of light fields by transforming to scale and depth space
US10117579B2 (en) 2014-11-14 2018-11-06 Ricoh Company, Ltd. Simultaneous capture of filtered images of the eye
EP3106912A1 (en) 2015-06-17 2016-12-21 Thomson Licensing An apparatus and a method for obtaining a registration error map representing a level of fuzziness of an image
EP3145168A1 (en) 2015-09-17 2017-03-22 Thomson Licensing An apparatus and a method for generating data representing a pixel beam
EP3144887A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing A method and an apparatus for generating data representative of a pixel beam
US9955861B2 (en) 2015-10-16 2018-05-01 Ricoh Company, Ltd. Construction of an individual eye model using a plenoptic camera
US10098529B2 (en) 2015-10-28 2018-10-16 Ricoh Company, Ltd. Optical design of a light field otoscope
US10194139B2 (en) 2016-02-22 2019-01-29 Ricoh Company, Ltd. Disparity-to-depth calibration for plenoptic imaging systems
US10136116B2 (en) 2016-03-07 2018-11-20 Ricoh Company, Ltd. Object segmentation from light field data
EP3220351A1 (en) 2016-03-14 2017-09-20 Thomson Licensing Method and device for processing lightfield data
CN113014906B (zh) 2016-04-12 2023-06-30 奎蒂安特有限公司 3d场景重建方法、系统及计算机程序存储介质
US10089788B2 (en) 2016-05-25 2018-10-02 Google Llc Light-field viewpoint and pixel culling for a head mounted display device
EP3273686A1 (en) * 2016-07-21 2018-01-24 Thomson Licensing A method for generating layered depth data of a scene
US10296780B2 (en) 2017-03-07 2019-05-21 Ricoh Company, Ltd. Automatic eardrum registration from light field data
US10275644B2 (en) 2017-03-08 2019-04-30 Ricoh Company, Ltd Automatic classification of eardrum shape
US10776995B2 (en) * 2017-10-17 2020-09-15 Nvidia Corporation Light fields as better backgrounds in rendering
CN112470191A (zh) 2018-05-02 2021-03-09 奎蒂安特有限公司 用于处理具有几乎无限细节的场景的编解码器

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4658372A (en) 1983-05-13 1987-04-14 Fairchild Camera And Instrument Corporation Scale-space filtering
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
RU2216781C2 (ru) * 2001-06-29 2003-11-20 Самсунг Электроникс Ко., Лтд Основанные на изображениях способ представления и визуализации трехмерного объекта и способ представления и визуализации анимированного объекта
US7199793B2 (en) * 2002-05-21 2007-04-03 Mok3, Inc. Image-based modeling and photo editing
US7382897B2 (en) 2004-04-27 2008-06-03 Microsoft Corporation Multi-image feature matching using multi-scale oriented patches
US20080219579A1 (en) * 2007-03-05 2008-09-11 Aksyuk Vladimir A Methods and Apparatus for Compressed Imaging Using Modulation in Pupil Plane
ES2372515B2 (es) * 2008-01-15 2012-10-16 Universidad De La Laguna Cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales.
EP3876510A1 (en) 2008-05-20 2021-09-08 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8244058B1 (en) * 2008-05-30 2012-08-14 Adobe Systems Incorporated Method and apparatus for managing artifacts in frequency domain processing of light-field images
US8363973B2 (en) * 2008-10-01 2013-01-29 Fuji Xerox Co., Ltd. Descriptor for image corresponding point matching
US8315476B1 (en) * 2009-01-20 2012-11-20 Adobe Systems Incorporated Super-resolution with the focused plenoptic camera
ATE551841T1 (de) 2009-04-22 2012-04-15 Raytrix Gmbh Digitales bildgebungsverfahren zum synthetisieren eines bildes unter verwendung der mit einer plenoptischen kamera aufgezeichneten daten
JP2011248671A (ja) * 2010-05-27 2011-12-08 Kddi Corp 多数の参照用映像の中から検索キー用映像を用いて検索する映像検索装置、プログラム及び方法
US8749694B2 (en) 2010-08-27 2014-06-10 Adobe Systems Incorporated Methods and apparatus for rendering focused plenoptic camera data using super-resolved demosaicing
JP5206853B2 (ja) * 2011-09-08 2013-06-12 カシオ計算機株式会社 補間画像生成装置、再構成画像生成装置、補間画像生成方法及びプログラム
US8941750B2 (en) * 2011-12-27 2015-01-27 Casio Computer Co., Ltd. Image processing device for generating reconstruction image, image generating method, and storage medium
US9460515B2 (en) * 2013-10-25 2016-10-04 Ricoh Co., Ltd. Processing of light fields by transforming to scale and depth space

Also Published As

Publication number Publication date
US20150117756A1 (en) 2015-04-30
EP2866202A2 (en) 2015-04-29
JP2015084223A (ja) 2015-04-30
EP2866202A3 (en) 2015-12-02
US9460515B2 (en) 2016-10-04
EP2866202B1 (en) 2020-07-29

Similar Documents

Publication Publication Date Title
JP6446997B2 (ja) スケール及び深度空間に変換することによるライトフィールドの処理
US10755428B2 (en) Apparatuses and methods for machine vision system including creation of a point cloud model and/or three dimensional model
US9569853B2 (en) Processing of light fields by transforming to scale and depth space
US10136116B2 (en) Object segmentation from light field data
Yoon et al. Light-field image super-resolution using convolutional neural network
US9092890B2 (en) Occlusion-aware reconstruction of three-dimensional scenes from light field images
CN110476185B (zh) 景深信息估算方法和装置
KR101893047B1 (ko) 이미지 처리 방법 및 이미지 처리 장치
Yoon et al. Learning a deep convolutional network for light-field image super-resolution
Tosic et al. Light field scale-depth space transform for dense depth estimation
Kuhn et al. A tv prior for high-quality scalable multi-view stereo reconstruction
US9338437B2 (en) Apparatus and method for reconstructing high density three-dimensional image
JP6655379B2 (ja) 焦点スタックから適応スライス画像を生成する方法および装置
Fleischmann et al. Lens-based depth estimation for multi-focus plenoptic cameras
Lee et al. Improving focus measurement via variable window shape on surface radiance distribution for 3D shape reconstruction
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
Anisimov et al. Rapid light field depth estimation with semi-global matching
Marto et al. Structure from plenoptic imaging
Chen et al. Depth-guided deep filtering network for efficient single image bokeh rendering
Sakurikar et al. Dense view interpolation on mobile devices using focal stacks
KR100927236B1 (ko) 영상 복원 방법, 영상 복원 장치 및 영상 복원 방법을 실행하는 프로그램이 기록된 컴퓨터에서 판독될 수 있는 기록매체
Muniraj et al. Subpixel based defocused points removal in photon-limited volumetric dataset
JP7099538B2 (ja) 画像処理装置および画像処理方法
Ma Computational depth from defocus via active quasi-random pattern projections
Mao et al. A robust framework for multi-view stereopsis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181119

R151 Written notification of patent or utility model registration

Ref document number: 6446997

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees