JP6375619B2 - オクルージョンを意識した明視野像からの3次元シーンの再構成 - Google Patents

オクルージョンを意識した明視野像からの3次元シーンの再構成 Download PDF

Info

Publication number
JP6375619B2
JP6375619B2 JP2013262218A JP2013262218A JP6375619B2 JP 6375619 B2 JP6375619 B2 JP 6375619B2 JP 2013262218 A JP2013262218 A JP 2013262218A JP 2013262218 A JP2013262218 A JP 2013262218A JP 6375619 B2 JP6375619 B2 JP 6375619B2
Authority
JP
Japan
Prior art keywords
layer
field
light
atom
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013262218A
Other languages
English (en)
Other versions
JP2014140158A (ja
Inventor
トシッチ イヴァナ
トシッチ イヴァナ
バークナー キャサリン
バークナー キャサリン
リヌ イエヌティン
リヌ イエヌティン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2014140158A publication Critical patent/JP2014140158A/ja
Application granted granted Critical
Publication of JP6375619B2 publication Critical patent/JP6375619B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three-dimensional [3D] modelling for computer graphics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、一般的には、3次元シーンの再構成技術に関係し、より具体的には、プレノプティック撮像システムによってキャプチャされた画像からそのようなシーンを再構成する技術に関係する。
光照射野(Light Field)は、3次元の撮像シーンを複数の異なる視座から撮影することによる複数のビューを介して、当該3次元の撮像シーンを表現するために、コンピュータ・グラフィックスの世界において最初に導入された概念である。一般的には、撮像シーンの光照射野は、当該撮像シーンの2次元の画像(すなわち、明視野像(Light Field Image))を含む7次元の関数であり、当該2次元の画像は、任意の波長かつ任意の時点において3次元空間内の任意の視座から撮影された画像である。コンピュータ・グラフィックス分野の特定用途においては、当該撮像シーンは、当該撮像シーンの3次元的な形状とテクスチャを含む明示的な3次元シーン・モデルを有している。従って、コンピュータは、任意の視座から当該撮像シーンをレンダリング処理(描画処理)することが可能である。すなわち、当該コンピュータは、当該複数の明視野像の中のどれでもレンダリング処理することが可能であり、従って、当該撮像シーンの全体的な光照射野を算出することがさらに可能である。
近年、3次元撮像シーンの4次元的な光照射野をキャプチャするためのシステムが開発されてきている。これらのシステムは、カメラの配列(Camera Array)とプレノプティック撮像システム(Plenoptic Imaging System)を含んでいる。これらのシステムは、典型的には、4次元的な光照射野をキャプチャする。すなわち、これらのシステムは、特定の波長(または波長帯域)かつ特定の時点において(3次元空間内の任意の視座から撮影可能とするのではなく)一つの2次元面上に位置する任意の視座から撮影された複数の2次元画像をキャプチャする。これらのシステムにおいては、撮像シーンに関する3次元的な情報は明示的にはキャプチャされない。むしろ、そのような3次元的な情報は、上述のとおりキャプチャされた4次元的な光照射野を構成する複数の画素の中に暗黙的に包含されている。当該4次元的な光照射野から上述した3次元的な情報を抽出する技法は、(例えば、上述した4次元的な光照射野の合成とは逆方向の処理を行うために解決すべき)逆変換問題であり、オクルージョンが存在する場合には、より困難な条件設定の下で解決すべき問題である。
さらに、オクルージョンによって加えられる曖昧さを解消し、光照射野(またはその基礎となる3次元シーン)をそれぞれ異なる深さを持つ複数のレイヤ上の構成部分にセグメント化する処理は、光照射野に対して後続の処理を行う方法にとってしばしば必要な処理ステップとされ、そのような方法は、撮像シーンの複数の部分に対するディジタル・フィルタリング処理や、多重ビューの画像積層構造から仮想的なビューを合成する処理を含んでいる。撮像シーンの複数のレイヤが適切にセグメント化されていない場合に古典的な画像処理技法を適用すると、被写体の輪郭の周辺にアーチファクトが生じる場合がある。
以上より、光照射野のデータから3次元の撮像シーンを再構成する際に、オクルージョンの問題に対処するための新規なアプローチが必要とされている。
本発明は、3次元撮像シーンの複数のレイヤを当該撮像シーンの明視野像から再構成する手法を提供することによって先行技術が克服不可能であった限界を克服するものである。当該3次元の撮像シーンは、当該撮像シーンについて複数の異なる深さを表現する複数のレイヤーから構成される集合としてモデル化され、さらには、あるレイヤの一部が他のレイヤによって背後に隠されるオクルージョンを表現するマスクとしてモデル化される。当該複数のレイヤは、過剰に網羅的な辞書から選択された複数の関数(以下の説明においては、この関数を指して「アトム」と呼ぶ)の線形結合として表現される。当該複数のレイヤを代わる代わる評価し、当該複数のマスクを評価するために、本発明においては、反復実行的なアプローチが使用される。本発明に係る一つのアプローチにおいては、深さと角度との間には対応関係があるとした上で、上述した辞書内における当該複数のアトムは、互いに異なる角度を向くように方向付けられた複数の「リッジレット(ridgelet:尾根状の部分要素)」とされている。
本発明のその他の実施態様は、装置またはシステムとしての実施、および上述したアプローチに対応する方法としての実施を含んでいる。本発明は上述した以外の他の技術的優位性や技術的特性を有し、当業者が本明細書に添付した図面を参照しながら本発明を理解するならば、以下に記載される本発明の詳細な説明および本明細書に添付した特許請求の範囲の記載から、本発明に関するそのような他の技術的優位性や技術的特性は当業者にとっては直ちに自明なものとなる。なお、本明細書に添付した図面の簡単な説明は以下のとおりである。
3次元の撮像シーン内におけるオクルージョンの様子を図示する概念図 3つの異なる視座から観察した2つの被写体を図示する概念図 3つの異なる視座から観察した2つの被写体を図示する概念図 3つの異なる視座から観察した2つの被写体を図示する概念図 対応する光照射野の(u,x)スライスを図示する概念図 光照射野から3次元撮像シーンの複数のレイヤを再構成するための反復実行的な方法を説明するフロー図 3次元撮像シーン内における2つの明視野像を示す図 3次元撮像シーン内における2つの明視野像を示す図 図4に示した撮像シーンについて再構成された前面レイヤと背面レイヤの画像を示す図 図4に示した撮像シーンについて再構成された前面レイヤと背面レイヤの画像を示す図 3次元撮像シーン内におけるさらに別の2つの明視野像を示す図 3次元撮像シーン内におけるさらに別の2つの明視野像を示す図 図6に示した撮像シーンについて再構成された前面レイヤと背面レイヤの画像を示す図 図6に示した撮像シーンについて再構成された前面レイヤと背面レイヤの画像を示す図 プレノプティック撮像システムの構成を示す図
本明細書に添付した図面は、単に具体例を例示することだけを目的として、本発明の複数の実施形態を図示している。当該技術分野における当業者であれば、以下において検討されている実施例の説明を読むことにより、本明細書において説明される発明の基本原理から逸脱することなく、本発明の実施に際して、本明細書中で例示されている構造や方法を代替する別の実施例を採用することが可能であることを直ちに理解するであろう。
本明細書に添付した図面および以下に記載する発明の詳細な説明は、単に具体例の例示のみを目的として、複数の好適な実施形態と関係している。以下の発明の詳細な説明から、本明細書に添付した特許請求の範囲において特許請求されている発明の基本原理から逸脱することなく、本明細書が開示する構造や方法を代替する別の実施形態を、本発明の代替的な実施例として実施可能であることが当然に理解されることに留意されたい。
オクルージョンの効果に起因して、光照射野から上述した3次元的な情報を復元するために、3次元撮像シーンに関する特定の先験的な知見を考慮に入れる。本実施例は、上述した先験的な知見として「疎らなである」という性質に基づく先験的知見を使用する。このような先験的知見は、一つの明視野像が少数の基本的な関数(これを「アトム」と呼ぶ)を線形結合したものであり、当該アトムは、当該アトムを含む大規模かつ過剰に網羅的な辞書から選択されるという事を前提としている。しかしながら、オクルージョンが発生している部分の周辺では、光線の合成態様は線形とはならない。従って、本実施例においては、光照射野に関して非線形で疎らな表現モデルを定義することとした。これらのモデルは、複数のレイヤと複数のマスクとに基づいている。当該複数のレイヤは、撮像シーンの中の複数の異なる深さに対応し、当該複数のマスクは、各レイヤ内における被写体の空間的な広がりに対応する。
以下の具体例においては、空間内の任意の点位置における与えられた任意の方向からの光照射を光照射野として定義する。オクルージョンが存在しない場合においては、光線が伝搬する経路に沿った光照射輝度は変化しないと仮定することが可能である。さらに、図1に示すとおり、光照射野は、位置座標(x,y)に位置する点光源から到来し、与えられた基準面の上の位置座標(u,v)において観測される光線の光照射を表現する4次元の関数としてパラメータ化されることが可能である。そこで、当該光照射野を以下の数式により
と表し、この時、
である。
図1は、3つの被写体110A〜110Cを図示している。さらに図1は、座標(x,y)で表される基準座標平面および座標(u,v)で表される基準座標平面を示しており、後者の座標平面内には2つの座標点(u,v)および(u,v)がさらに図示されている。(u,v)座標平面は、観察者がその上に位置する座標平面であると捉えることが可能である。以下の数式
により表される明視野像は、座標位置(u,v)に位置する観察者によって観察される画像である。この画像は、座標(u,v)で表される位置に針の穴が設けられているピン・ホール(Pin Hole)カメラによって撮像された画像であると捉えることが可能である。同様に、以下の数式
により表される明視野像は、座標位置(u,v)に位置する観察者によって観察される画像である。図1において、座標(x,y)で表される基準座標平面は、その上に被写体が位置する座標平面として描かれてはいるが、それよりも画像空間内において定義されるユニバーサル座標系として捉えた方がより適切である。この座標系は、複数の明視野像の全てが共通の基底座標系である(x,y)座標系から相対的に見た座標により定義されるという意味において、ユニバーサルな性質を有する。
オクルージョンが存在しない場合には、総体的な光照射野は、被写体の各々からの寄与成分を合計したものになるであろう。しかしながら、オクルージョンにより互いに部分的に前後に重なり合って見える複数の被写体が撮像シーン内に存在する場合には、複数の異なる被写体の上の複数の点から到来する光線の合成態様は線形にはならない。図1においては、被写体110Cは、被写体110Bの前方に位置しており、その被写体Bは被写体110Aの前方に位置している。もしも、これらの被写体が不透明な材質であれば、特定の視座から観察した場合に、一つの被写体がオクルージョンにより他の被写体の一部を背後に隠す可能性がある。
このような状況に対処するために、3次元撮像シーンは、複数の異なる深さに位置する複数のレイヤOへと量子化される。オクルージョンが存在しない場合にレイヤOによって生成される光照射野をL(r)と表記する。便宜上、L(r)とL(r)とを区別するために、L(r)を指して「レイヤ単位の光照射野」と呼び、L(r)を指して「シーン全体の光照射野」と呼ぶことが可能である。「シーン全体の光照射野L(r)」は、全てのレイヤを考慮に入れた概念であり、以下の数式
で表される非線形の関数である。以下、当該撮像シーンの離散化されたモデルとして、複数のレイヤ及びこれらのレイヤ内の複数の被写体がz={z,z,…,z}で表される離散的な深さにおいてそれぞれ存在し、i≦jならばz≦zであり、kがレイヤの総数を表すようなモデルを考える。今、レイヤOがレイヤOの前方に位置していると仮定する。すなわち、z≦zであると仮定する。以下の説明において、相対的な意味の用語「前面レイヤ」は、他のレイヤの前方に位置するレイヤを指して言うために用いられ、用語「背面レイヤ」は、他のレイヤのは後方に位置するレイヤを指して言うために用いられる。図1においては、被写体110Bは、被写体110Aの前方にあり、被写体110Cの後方にある。背面レイヤOからの光線は、オクルージョンにより前面レイヤOに遮られる可能性があり、当該背面レイヤから発した一部の光線だけが基準面に到達する可能性がある。本実施例は、レイヤOに関するマスクMを定義することによって、このような状況をモデル化している。マスクMは、背面レイヤOから到来する光線に対してレイヤOによって加えられるオクルージョン効果を表現するものである。本実施例は、これらのマスクを使用することにより、多重レイヤから成る光照射野のモデルを以下の数式で表されるとおりに定義している。
このモデルでは、k個のレイヤとk−1個のマスクが存在する。この具体例においては、複数のマスクはバイナリ(2進)表現形式で定義されている。しかしながら、本実施例においては、マスクの値を数値範囲(0,1)内の連続値として定義する(すなわち、グレー・スケール値として定義する)こともまた可能であり、それにより、被写体が半透明な材質である場合にも適用可能となるようにこのモデルを拡張することができる。
続いて、本実施例においては、以下の数式
で表される過剰に網羅的な辞書から選択された複数の関数(アトム)φを線形結合したものとして、上述したレイヤ単位の光照射野L(r)を定義する。すなわち、レイヤ単位の光照射野L(r)を以下の数式のとおりに定義する。
上述した辞書が過剰に網羅的である場合、複数のアトム係数C(例えば、複数のアトムをそれぞれ重み付けして線形結合式により合成することによりレイヤ単位の光照射野を形成する際に使用されるアトム毎の重み付け係数C)から成る集合について無限に数多くの解が存在することとなる。しかしながら、辞書内のアトムが信号の構造(例えば、光学系に固有の光学的信号構造)に対して良好に適合されるならば、わずか数個のアトム係数だけがゼロ以外の値をとることとなり、この場合、本実施例においては、疎らに存在する解のみを探索するだけで済ませることが可能となる。解が疎らにのみ存在するという上述した仮定は、本実施例の実施のために以下の問題を解決する際において、本実施例にとっての大前提となる。
<問題>例えば、プレノプティック撮像システムやカメラの配列から取得する等して、シーン全体の光照射野L(r)が与えられた場合、本実施例は、全てのレイヤi=1,…,kに関するレイヤ単位の光照射野L(r)およびレイヤi=1,…,(k−1)に関する対応するマスクM(r)を推定できなくてはならない。何故ならば、
であるから、L(r)とM(r)を推定することにより、L(r)を推定する処理動作は、
を推定する処理動作に簡約化されることとなるからである。
上述した問題を解決するために、本実施例は、当該光照射野の構造を良好に表現する辞書Dを好適な辞書として選択する。図2A〜図2Dに示すような光照射野に関する2次元の(u,x)スライスの幾つかの具体例を見てみると、光の直線的な伝搬特性に固有の直線構造が見てとれる。説明を明確にするために、図2A〜図2Dは、完全な4次元の座標系表現(u,v,x,y)ではなく、座標系表現(u,x)を使用した2次元形式の具体例としている。図2Aは、互いに異なる深さに位置する2つの被写体210と220を図示している。被写体220は被写体210の前方に位置しているので、視座が位置する座標uに応じて、被写体210の一部をオクルージョンにより背後に隠す場合もあれば、そうでない場合もある。
図2Aは、座標uに位置する視座から撮影される場合を図示している。この視座から見ると、被写体210は、x座標軸上の区間211を占有しており、被写体220は、x座標軸上の区間221を占有している。当該2つの区間211と221とは互いに重なり合っていないので、オクルージョンは発生していない。図2Dは、これら2つの被写体を含む撮像シーンに関するシーン全体の光照射野の2次元の(u,x)スライスを図示している。図2Aに示したx−スライスは、縦軸であるu座標軸の上にuとして表記されている。上述した2つの区間211と区間221は、図2Dにおいて縦軸上の座標u=uに位置する2つの直線状セグメントとして再現されている。図2Bは、上記と同じ2つの被写体を座標uに位置する異なる視座から見た場合を図示している。この視座から見ると、被写体210は、x座標軸上の区間212を占有しており、被写体220は、x座標軸上の区間222を占有している。この状態はさらに、図2Dにおいて縦軸上の座標u=uに位置する2つの直線状セグメントによって図示されている。これら2つの直線状セグメントは、座標u=uに位置する2つの直線状セグメントから相対的に見て位置がずれていることに注目されたい。視座の位置変化に起因するこのような相対的な位置のずれは「視差」と呼ばれている。図2Bにおいては、x座標軸上の2つの区間212と区間222とは互いにちょうど触れ合っているように見える。図2Cは、座標uに位置する視座から見た場合の当該2つの被写体を図示している。この時、被写体210は、x座標軸上の区間213を占有しており、被写体220は、x座標軸上の区間223を占有しており、この状態はさらに、図2Dにおいて縦軸上の座標u=uに位置する2つの直線状セグメントによって図示されている。x座標軸上の当該2つの区間213と区間223とは互いに重なり合っている状態にあり、これは、被写体220が被写体210の一部分をオクルージョンにより覆い隠していることを意味している。当該オクルージョンにより覆い隠された領域は、すなわち、被写体同士が互いに重なり合う領域である。以上において述べた処理過程を上記以外の他の座標uに位置する他の複数の視座についても反復実行することにより、図2Dに図示する2つの帯状領域219と229が結果として得られる。被写体同士が重なり合うこととなる領域239は、被写体210により被写体220の一部分が覆い隠されるオクルージョン状態を表している。
図2Dから固有の直線構造を見てとることが可能である。すなわち、被写体の上の各点は、(u,x)座標平面上を伸びる一つの直線を生成する。さらには、当該直線の各々は、x座標軸の法線方向を基準としてθで表される相対的な角度を形成する。これらの角度は、図2Dにおいて参照符号によりθおよびθと表記されている。一般化された4次元の場合においては、これらの角度は、(x,y)座標平面の法線方向を基準とした相対的な角度となるだろう。便宜上、角度θを指して視差角度と呼ぶことにする。視差角度θは、被写体の深さ位置に依存している。視差に起因して、複数の被写体同士の間において、x基準面の深さ位置が互いにより近接するに従って、より垂直に近い方向を向いた直線、すなわち、より小さな視差角度θが生成されることとなる。帯状領域219は、x軸からより近い位置にあって区間213により表される被写体に対応するものであるが、帯状領域219は、より垂直に近い方向を向いており、より小さな視差角度θを有している。帯状領域229は、x軸からより遠い位置にあって区間223により表される被写体に対応するものであるが、帯状領域219は、より水平方向に傾いており、より大きな視差角度θを有している。
この種の信号構造は、互いに異なる方向を向いた複数の「リッジレット」によって良好に表現することが可能である。リッジレットは、一つの次元においてはウェーブレット関数となり、他の次元においては一定値関数となるようなフィルターである。光照射野内における光線の角度は、当該光線が発する源である被写体が位置する深さと直接的に関係しているので、複数の異なるレイヤ内の複数の被写体は、互いに異なる角度θの方向を向いているリッジレットによって表現されることとなる。特定の一つの辞書に関してリッジレットを選択することは、本実施例における必須の要件ではないことに留意されたい。当業者であれば、本実施例に関して提案されるモデルと共に使用すべき異なる辞書を本実施例の実施のために適宜選択したり、設計したり、学習したりすることが可能である。しかしながら、一つの辞書内に含まれる複数の異なるアトムは、好適には、互いに異なる角度(さもなければ深さに依存して決まるその他の特徴量)を有しているべきであり、そのようにすることで、本実施例は当該複数の異なるアトムに対して互いに異なる深さのレイヤをそれぞれ割り当てることが可能となる。同様に、当業者であれば、映像獲得のために使用される光学系にさらに基づいた辞書を設計することが可能である。例えば、プレノマティック型のカメラ・システムにおいて、視差角度θが互いに異なる(すなわち、互いに異なる深さに位置する複数の被写体にそれぞれ対応する)複数の直線同士の間では、焦点のずれに起因して加えられるブラー効果の発生の仕方が互いに異なったものとなる。複数の異なる視差角度θの各々に沿った(すなわち、複数の異なる深さ位置に対応する)それぞれの光線についてのブラー生成カーネルが既知であれば、当該ブラー生成カーネルに関する知識を辞書の設計内容に反映させることが可能である。
上述した問題を解決するための一つのアプローチは、線形緩和に基づくアプローチである。本実施例を説明するための具体例においては、離散化された複数の光照射野について検討しているので、本実施例においては、以下のとおりに数学的表記法を修正することを考える。
ここで、lは、レイヤiにおける光照射野の複数のサンプリング値から成るベクトルであり、MはM(r)の複数のサンプリング値を行列内の対角要素として含む対角行列を表す。説明を簡単にするために、複数の被写体が2つのレイヤ内に位置している撮像シーンについて以下のとおり検討するが、ここで検討するアルゴリズムは、複数の被写体が任意の個数(例えば、3個以上)のレイヤ内に存在する場合に一般化することが可能である。本実施例は、3次元立体のボリューム全体をN個の可能なレイヤに離散化するけれども、観察される撮像シーンは、k≪Nとした場合に、k個のレイヤだけを占有すると仮定している。ここで設定する例示的な撮像シーン内において、被写体の存在位置に対応する2つのレイヤのインデックスをレイヤpおよびレイヤqと表記することにする。つまり、第1の被写体は、インデックスがpであるレイヤ内に存在し、第2の被写体は、インデックスがqであるレイヤ内に存在する。以前の説明において式(1)で表したモデルは、以下のように修正される。
ここで、Rは辞書を表す行列であり、cおよびcは、要素としてのアトム係数を疎らに含む係数ベクトル(例えば、上述した「アトム毎の重み付け係数」を要素として含む重み付け係数ベクトルであって、非ゼロ値をとる要素が疎らにしか存在しない重み付け係数ベクトル)である。上記の数式においてはさらに、オクルージョン効果を表現するための項として
が導入されている。オクルージョンは、典型的には画素領域内において疎らに存在しているので、本実施例においては、疎らに存在するアトム係数と疎らに存在するオクルージョンの両者をともに発見することができる(すなわち、光照射野内でのオクルージョン状態を推定することができる)アルゴリズムを設計することが可能である。
続いて、同じ方向を向いているアトム同士、すなわち、同じ視差角度θを有するアトム同士が、行列R内において同一の列ブロックに属することとなるように、行列Rを構成する列ベクトルを並べ替える、つまり、
となるようにする。その結果、
で表される各列ブロック内においては、共に方位角度θを有するが縮尺と位置が互いに異なる複数のアトムが存在することとなる。各レイヤは互いに異なる視差角度θを有しているので、複数のレイヤのそれぞれに関する係数ベクトルをc,c,…,cと表記することが可能であり、この場合、cと表記される各係数ベクトルは、角度θの方向を向いているアトムにそれぞれ対応した複数の非ゼロ値のベクトル要素、および、ゼロ値をとるそれ以外の全てのベクトル要素を有している。続いて、c=c+c2+…+cを計算することにより、これら複数の係数ベクトルを一つに集積することができる。この実施例は、単一の被写体がわずか数個のレイヤだけに跨って存在し得るとの仮定を置いているので、この事は、上述のとおり合計された中でわずか数個の係数ベクトルcだけがゼロ以外の値となることを意味している。すなわち、この事は、係数ベクトルcがグループ化された疎らさを有していることを意味している。上述した具体例においては、レイヤp(第1の被写体に対応する)およびレイヤq(第2の被写体に対応する)にそれぞれ対応するグループだけが非ゼロ値を有することとなる。これらのグループは、撮像シーン内において、視差角度θが複数の被写体の深さ位置にそれぞれ対応している複数のアトムから構成されている。
上述した「グループ化された疎らさ」は、以下のように定義される。係数ベクトル内の非ゼロ値を有する要素の個数が当該ベクトルの次元よりもずっと少ない場合には、当該ベクトルは疎らであると見做される。ここで、一つの係数ベクトル内に含まれる複数の要素をN個のグループにグループ分けし、各グループについてユークリッド・ノルムを評価したとする。この時、ユークリッド・ノルムが非ゼロ値となるグループの個数が当該ベクトル内のグループの総数と比べてずっと少ないならば、当該ベクトルは、「グループ化された疎らさ」を有するとされる。また、「グループ化されたノルム」とは、上述した全てのグループに跨ってユークリッド・ノルムを合計した結果である。
図3は、明視野像内における複数のレイヤとそれらに対応する複数のマスクとを復元するための反復実行アルゴリズムのフロー図である。図3においては、複数の異なる視座から撮影された数多くの明視野像380を含んでいる光照射野が、例えばプレノプティック撮像システムやカメラの配列などの何らかの装置によってキャプチャされる。さらに、例えば上述した方法に従って、辞書390が決定される。これに続いて実行される処理として、図3に示す処理フローは2つの基本的な処理ステップを具備している。処理ステップ310においては、複数のマスクは一定値に維持され、レイヤ単位の光照射野lが推定される。処理ステップ320においては、複数のマスクが推定される。上述した2つの処理ステップは、何らかの停止時点330に到達するまで反復実行され、そのような停止時点330の具体例は、例えば、誤差の大きさが受容可能なレベルを下回った時点や反復実行の回数が実行可能な最大回数に到達した時点などである。上述した反復実行が停止したならば、続いて、上述した式(1)を使用して3次元の撮像シーンが推定される。
処理ステップ310の一つの具体例においては、以前の説明における検討結果から、オクルージョン効果を表すベクトルeには「疎らさ」があり、リッジレット毎の重み係数cもまた「グループ化された疎らさ」のある挙動を持つ。その結果、上述した問題を線形の定式化へと緩和した後には、以下の2つの正規化項を使用して、本実施例の実施のために上述した問題を解くための目的関数を定義することが可能となる。これらの正規化項は、(1)リッジレット毎の重み係数に対して「グループ化された疎らさ」の性質を持たせるための
および(2)オクルージョンにより生じる誤差に対して「グループ化された疎らさ」の性質を持たせるための
である。その結果、本実施例の実施のために解くべき最適化問題は、
上記の式(4)において、λとλは正規化パラメータである。cとeの値に関してこの目的関数を解くことにより(例えば、上記の式(4)において、cとeの値を変化させたときに、上記の式(4)のカッコ内に記述されている目的関数を最小化するような解を求解し、それによって、上記の式(1)〜(3)に基づいて光照射野L(r)を再構成するために使用すべきcとeの値として最も尤度の高い推定値を最適解として求めることにより)、上述した逆変換問題の解が与えられ、この解には、グループ化されたノルム
の最小値とオクルージョンによる誤差
に関するlのノルムが含まれている。上述した最適化計算処理を本実施例においてはLSRAと呼ぶこととし、これは「レイヤ化された疎らな再構成処理(Layered Sparse Reconstruction Algorithm)」の略称である。
前段処理である処理ステップ310から出力結果を得た後に、複数のアトムが複数のレイヤのどれにそれぞれ対応するかを推定するための処理ステップ315を実行することが可能である。最初のレイヤについては、グループ化されたノルム
に着目することにより推定することが可能である。視差に起因して、光線の角度が大きいほど、被写体までの距離がより短いことが一般に知られている。一般性を失うことなしに、複数のアトム係数cは、それらのアトム係数にそれぞれ対応する角度θに応じて順序付けすることが可能であり、この場合、i≧jならば|θ|≧|θ|である。
本実施例に係る撮像シーン内に何個のレイヤが存在しているかを定義するために、ガウス混合モデル(GMM:Gaussian Mixture Model)を使用して「グループ化されたノルム」
に対して適合させ、正規化項としてレイヤの個数を選択する。本実施例においては、モデルの簡単さからGMMを使用したけれども、本実施例の実施のために、その他のクラスタ化アルゴリズムもまた同様に使用することが可能である。当該GMMのパラメータ値を抽出した後に、本実施例においては、平均値
および
を使用して最初のレイヤに関する着目すべき領域を以下のように定義する。
この着目すべき領域は、レイヤ離散化の粒度に依存して、N個のレイヤから成る格子状空間内において、一つ以上のレイヤに跨って広がっている。一般的には、当該着目すべき領域は、GMMによるクラスタ化処理の結果から取得された区間
の中に含まれる複数のレイヤに跨って広がっている。続いて、当該最初のレイヤの光照射野の推定結果は以下のように定義することが可能である。
この時、
である。上述した2つのレイヤpとqを想定する撮像シーンの具体例に関しては、この区間は、レイヤpに加えて、データ内のノイズに起因していくつかの近接するレイヤをさらに含んでいる。
処理ステップ320において、本実施例は、複数のレイヤ内における被写体の輪郭を復元し、マスクを定義するために、再構成されたビューの中で画像のセグメント化を使用する。この具体例においては、レイヤO内の被写体について、S(O)と表記される複数のセグメントを取得するために、領域に基づくセグメント化手法(例えば、アクティブな輪郭線)が適用される。本実施例は、複数のセグメントS(O)の評価結果に基づいてマスクMを定義する。すなわち、当該マスクは、複数のセグメントS(O)内において非ゼロ値を有する複数の点に関して非ゼロ値をとる。
続いて、本実施例においては、上述したマスク情報を使用して式(4)が定義するレイヤ化された疎らな再構成処理(LSRA)を修正することが可能である。光照射野をマスクすることは、対応するリッジレットをマスクすることと等価であるので、以下の数式
が得られ、この時、
であり、かつ、
である。
以上から本実施例が解こうとする最適化問題の第2段階は以下の数式によって表される。
上記の数式において、LSRA−modは修正された(modified)LSRAの略称である。従って、本実施例が解こうとする最適化問題の第2段階は当該最初のレイヤによって生じるオクルージョン効果を考慮に入れたうえで、2番目のレイヤを当該オクルージョン効果に従って是正するものである。これらの処理ステップは、2つ以上の複数レイヤを想定する撮像シーンの例に拡張することが可能である。
本実施例は、反復実行の停止判定条件が成立するまでは、これらの処理ステップを反復的に実行する。この具体例においては、反復可能な最大回数に到達した時点かオクルージョンによる誤差が以下に表すように閾値よりも小さくなった時点のいずれかである。
図4〜図5は、光照射野のデータから3次元シーンを多重レイヤにセグメント化するための本実施例に係る方法の応用例を実証実験した様子である。本実施例においては、「スタンフォード光照射野アーカイブ(Stanford Light Field Archive)」から提供されたデータを使用して実証実験を行った。この光照射野のデータは、16×16の格子上に全体で256箇所の撮影視座を有するコンピュータ制御されたガントリ上に据置された単一カメラによって獲得されたものである。3次元シーンの再構成処理のために、この撮像シーン内において16箇所の撮影視座が使用されており、上記格子上で同じ垂直位置を保ったまま水平座標軸上を位置シフトして行きながら複数の明視野像をキャプチャした。上述した「スタンフォード光照射野アーカイブ」のデータ・ライブラリから取得した2つの例示的な明視野像が図4Aと図4Bに図示されている。図4Aと図4Bを見ると「ハンビー(高機動多目的装輪車)」は兵士よりも視差(画像間のシフト量)が大きいので、当該「ハンビー」は兵士よりも前方に位置している。
上述したとおり、典型的には、被写体が近くにあるほど、その被写体についての視差がより大きくなるので、被写体が近くにあるほど、その被写体のリッジレットは遠く離れた(x,y)基準座標面に対してより大きな角度を持つことになる。続いて、当該リッジレットに関する重み係数のグループ化されたノルム
に着目し、これをガウス混合モデル(GMM:Gaussian Mixture Model)と適合させる。その結果、レイヤの個数を正規化項として選択することにより、上述した光照射野を以下の数式で表されるように2つの構成部分に分解することができる。
上記数式において、2つの係数ベクトルcとcωは、それぞれ|θ|>θおよび|θ|≦θとなる方位角度を有するアトムに対応する非ゼロ値のベクトル要素である。
当該光照射野を上述したように2つの構成部分に分解した後に、複数の異なるレイヤ内に位置する被写体の像を復元することができる。図5Aは前面レイヤを図示し、図5Bは背面レイヤを図示している。これは焦点を再度合わせなおす動作とは異なることに留意されたい。焦点を再度合わせなおす動作を実行した場合には、図5Aにおいて、「ハンビー」がちゃんと見えている一方で、その背後にいる兵士の存在も確認はできるがブラー効果により兵士はボケて見える。レイヤの深さに基づくセグメント化処理を行った場合においては、図5Aはカメラに近い方の深さに位置する構成要素だけを写し出し、その背後に存在するはずの兵士はブラー効果によりボケて見えるのではなく視界から完全に消えている。
図6〜図7はさらに別の実証実験の例を示している。この実証実験は、プレノプティック型カメラによってキャプチャされた明視野像を使用して実施され、6個の画像がキャプチャされた。図6Aおよび図6Bは当該キャプチャされた画像の中の2枚を図示している。図6Aおよび図6Bにおいて、細長い物体が「Ricoh」の文字よりも前面に存在しているが、これは図6Aと図6Bとの間での視差に起因する相対位置のシフトから明らかに見てとれる。図7Aは3次元シーン再構成処理の後の前面レイヤを示し、図7Bは3次元シーン再構成処理の後の背面レイヤを示している。
レイヤの深さに基づくセグメント化処理とは別に、本実施例に係る上述したアプローチは、光照射野に対してレイヤ単位で個別に実行される処理を必要とする数多くの応用用途のために使用することもさらに可能であり、そのような応用用途には、ディジタル式の再焦点合わせ(再フォーカス動作)、(例えば、低解像度ビューの解像度を高める等を目的とした)ビューの補間処理および3次元立体のボリューム描画(レンダリング)処理などがある。
図8は、本実施例に係る上述したアプローチを取り入れたプレノプティック撮像システムの構成を示すブロック図である。このシステムは、撮像シーン110のプレノプティック画像をキャプチャする。当該プレノプティック撮像システムは、光学的な結像機能モジュール805を含んでいる。この結像機能モジュール805は、図8において単一のレンズ部材として表現されているけれども、当業者であれば、この結像機能モジュール805が、複数のレンズ部材や(例えば、ミラー等の)レンズ以外の部材を含むことも可能であることが理解できよう。光学的な結像機能モジュール805は、撮像シーン110について従来的な光学イメージ860を結像する。光学的な結像機能モジュール805は、主要撮像モジュール、主要撮像サブシステムまたは主要撮像システムと呼ばれることもまた可能である。光学イメージ860は、光学的な結像機能モジュール805に関する結像平面の上に結像される。光学的な結像機能モジュール805は、その特性が瞳孔部分817と瞳孔平面815によって決定され、光学的な結像機能モジュール805は、図8において、開口部を有する物理的な絞り機構が上述した単一のレンズと一体化されたものとして表現されている。より複雑な構造を持つ光学的な結像機能モジュール805においては、瞳孔部分817と瞳孔平面815とは、結像機能モジュール805内のいずれの光学部材とも一体化される必要はない。
従来型の撮像システムにおいては、光学イメージ860をキャプチャするために、感光素子の配列構造が結像平面825の上に設けられている。しかしながら、プレノプティック撮像システムの場合はそうではない。撮像システムに関してここで述べる特定の具体例においては、微小な撮像素子821を並べた配列構造820が結像平面825の上に設けられている。図8においては、微小な撮像素子821はマイクロ・レンズ(微小なレンズ)として示されている。これ以外にも、微小な撮像素子821の配列構造として、例えばピン・ホールが並んだ配列構造のような他の素子配列構造を使用することも可能である。感光素子の配列構造830は、微小な撮像素子の配列構造820の背後に(つまり、光学的に見て、さらに下流の位置に)設けられている。さらに具体的に説明するならば、感光素子の配列構造830は、瞳孔平面815の複素共役平面に相当する面835の中に配置されている。つまり、微小な撮像素子821の各々は瞳孔平面815を通って来た像を上述した複素共役平面835の上に結像し、面835に結像された像は感光素子の配列構造830によって撮像される。
微小な撮像素子としてマイクロ・レンズを使用する場合、マイクロ・レンズ821の各々は、瞳孔平面815を通って来た像870を感光素子が並んでいる複素共役平面835の上に結像する。瞳孔平面815を通って来た像は、感光素子の配列構造830に含まれる感光素子の部分集合によって撮像される。マイクロ・レンズ821の各々は、自身の像870を個別に結像する。このようにして、感光素子が並んでいる面835の上に結像されたプレノプティック画像の全体像は、複数の像870が並んだ配列を含むこととなり、当該配列内の複数の像870の各々は、対応する各マイクロ・レンズによってそれぞれ結像された像である。このように配列構造化された結像態様は、感光素子の配列構造830を複数のスーパー・ピクセル(拡張画素)833へと効果的に分割することとなり、この場合、スーパー・ピクセル833の各々は、複数の感光素子831を含んでいる。マイクロ・レンズ821の各々は、自身と対応するスーパー・ピクセルの上に、瞳孔平面815からの像を結像し、続いて、各スーパー・ピクセル上に結像された各像は、対応する各スーパー・ピクセルの中に含まれる感光素子によって撮像される。
感光素子831の各々は、瞳孔部分817の一部を通って伝搬して来る光線を収集する。マイクロ・レンズ821の各々は、撮像シーン110内の一部分から発した光線を収集する。従って、感光素子831の各々は、撮像シーン110の一部分から特定の方向に沿って伝搬して来た光線を収集する。つまり、感光素子831の各々は、特定の視座から見たときに、当該撮像シーンの全体映像の中に含まれる小さな一部分からの光を収集する。同一の視座から見える光に関してそれぞれ作動している複数の感光素子831が収集したデータを一つに集約することによって、当該撮像シーンをその視座から見た場合の完全な画像を構成することが可能である。互いに異なる複数の視座から見える複数の画像の全てを一つに集約することによって、当該撮像シーンに関する完全な光照射野を構成することが可能である。図8において、プロセッサ880は、感光素子の配列830からデータを収集し、当該収集したデータを上述した方法に従って処理する。プロセッサ880は、上記の実施例において述べた方法に従って、撮像シーンのセグメント化処理をさらに実行することが可能である。
図8は、プレノマティック撮像システムによって光照射野のキャプチャ処理を行う場合を図示している。以前の説明において上述したとおり、光照射野をキャプチャするために、例えば、カメラの配列(Camera Array)等のような他の種類の撮像システムを使用することもまた可能である。
本発明に係る実施例に関して上述した詳細な説明は、数多くの具体的な構成を含んでいるけれども、これらの具体的な構成は、本発明の技術的範囲を限定するような意味に解釈すべきではなく、本発明に係る複数の異なる具体例と複数の異なる実施態様を単に例示しているだけであると解釈すべきである。本発明の技術的範囲には、上述した実施例においては検討されていないその他の実施例も含まれ得ることを当業者ならば理解できよう。例えば、上述した辞書は、必ずしもリッジレットに基づいて構成されたものである必要性はなく、互いに異なるアトムが互いに異なる方向を有するような性質を持っている辞書であればどのような辞書であってもよい。そのような辞書は、辞書学習の仕組みを使用して光照射野のデータベースから学習により生成することも可能である。最後に、そのような辞書は、光照射野をキャプチャするための撮像システムが持つ固有の光学的特性に適合するような形で構成されることもまた可能である。上述した複数のマスクを取得するための画像のセグメント化処理は、上記の実施例において述べたものとは異なる他のアルゴリズムに基づいて実施するこもとまた可能であり、「アクティブな輪郭線」などはそのようなアルゴリズムのほんの一例である。当該技術分野における当業者にとって自明ではあるが上記の実施例においては説明されていなかったその他の構成変更や実施態様の修正は、本発明に関して本明細書中で既に述べた方法や装置の構成、処理動作および詳細内容に対して適用することが可能であり、そのような構成変更や実施態様の修正は、本明細書に添付した特許請求の範囲において規定されている本発明の基本原理と技術的範囲から逸脱することなく適用することが可能である。従って、本発明の技術的範囲は、本明細書に添付した特許請求の範囲に記載された発明、および当該発明の均等物であると特許法上認められる全ての発明概念を包含している。
本発明に係る代替的な実施例においては、本発明は、コンピュータのハードウェア、ファームウェア、ソフトウェアおよび/またはこれらを組み合わせたものとして実装される。本発明に係る装置は、プログラミング可能なプロセッサによる実行のために、機械読み出し可能な記憶装置の中に有形的に具現化されたコンピュータ・プログラム製品の形で実装されることが可能であり、本発明に係る方法を構成する処理ステップの各々は、当該プログラミング可能なプロセッサによって実行され、当該プロセッサは、入力データを使用して動作しながら出力を生成することによって、本発明に関して必要な機能を実行する命令コードから成るプログラムを実行する。本発明は、少なくとも一つの以下のようなプログラミング可能プロセッサを含むプログラミング可能システムの上で実行可能な一つ以上のコンピュータ・プログラムの中に実装することが好適であり、そのようなプログラミング可能プロセッサは、データ記憶システム、少なくとも一つの入力デバイスおよび少なくとも一つの出力デバイスと接続され、これらとの間でデータと命令コードとを送受信するプロセッサである。上述したコンピュータ・プログラムの各々は、高水準の手続型言語またはオブジェクト指向型プログラミング言語を使用して、さもなければ必要に応じてアセンブラ言語や機械語を使用して実装されることが可能であり、いずれの場合であっても、そのようなプログラミング言語は、コンパイラ型の言語またはインタープリタ実行型の言語とすることが可能である。単に例示目的のために具体例を挙げるならば、適切なプロセッサとしては、汎用のマイクロ・プロセッサおよび特定用途向けマイクロ・プロセッサの両者が含まれる。一般的には、プロセッサは、読み出し専用メモリ(ROM)および/またはランダム・アクセス・メモリ(RAM)から命令コードとデータを受け取る。一般的には、コンピュータは、データ・ファイルを記憶させるための一つ以上の大容量記憶装置を含んでおり、そのような記憶装置は、(内蔵型のハードディスクや着脱可能なディスク装置などの)磁気ディスク装置、光磁気ディスク装置および光学ディスク装置などを含んでいる。コンピュータ・プログラムの命令コードとデータを有形的に具現化するのに適した記憶装置には、不揮発性メモリのあらゆる実現形態が含まれ、そのような不揮発性メモリの具体例を挙げるならば、(EPROM、EEPROMおよびフラッシュ・メモリ・デバイス等の)半導体記憶装置、(内蔵型のハードディスクや着脱可能なディスク装置などの)磁気ディスク装置、光磁気ディスク装置、およびCD−ROMディスク装置などが挙げられる。上述したハードウェア部品のいずれに関しても、ASIC(特定用途向け集積回路)またはその他の形態のハードウェアによってその機能が補完され、またはその機能がASICまたはその他の形態のハードウェアの中に組み込まれることが可能である。

Claims (20)

  1. 3次元撮像シーンの光照射野から前記3次元撮像シーンのレイヤ化された形態を再構成する方法であって、当該方法は、コンピュータ・システムにより:
    一つ以上のマスクの暫定的な推定結果を仮定した上で、シーン全体の光照射野に基づいて、前記3次元撮像シーンの異なる深さを表現する2つ以上のレイヤに関して、レイヤ単位の光照射野に対応するアトム係数を推定するステップであって、前記レイヤ単位の光照射野は、複数のアトムの辞書の中から選択された複数のアトムを線形結合した結果として表現され、前記辞書は前記レイヤ単位の光照射野を、前記辞書に含まれるアトムの異なる複数の線形結合として表すのに十分な複数のアトムを含み、前記線形結合は前記アトム係数で重み付けされ、前記複数のマスクは、後方のレイヤに対する前方のレイヤによるオクルージョン効果を表現する、ステップ;
    前記推定したアトム係数を使用して前記線形結合した結果として、前記レイヤ単位の光照射野の暫定的な推定結果を仮定した上で、前記複数のマスクを推定するステップ;
    前記レイヤ単位の光照射野についてのアトム係数を前記推定するステップと前記複数のマスクを推定するステップとを反復的に実行することによって、前記レイヤ単位の光照射野の推定結果を最適な推定結果に漸近的に収束させるステップ;および、
    前記レイヤ単位の光照射野および前記複数のマスクから前記3次元撮像シーンの複数のレイヤを推定するステップ;
    を実行すること特徴とする方法。
  2. k個のレイヤとk−1個のマスクとが存在することを特徴とする、
    請求項1記載の方法。
  3. 前記3次元撮像シーンは、
    と表現され、L(r)は前記3次元撮像シーンの光照射野であり、L(r)は、レイヤiに関するレイヤ単位の光照射野であり、M(r)はレイヤiのマスクであることを特徴とする、請求項2記載の方法。
  4. 前記シーン全体の光照射野は、複数の異なる視座から撮影された複数の明視野像を具備し、前記アトムは、前記明視野像の座標系に対する法線方向を基準として相対的に視差角度θの方向を向いているリッジレットであることを特徴とする、
    請求項1記載の方法。
  5. 複数の異なる深さにそれぞれ位置する複数のレイヤについてのレイヤ単位の光照射野は、複数の異なる視差角度θの方向をそれぞれ向いている複数のリッジレットに対応することを特徴とする、請求項4記載の方法。
  6. 前記3次元撮像シーンの光照射野は、光照射野の撮像システムによってキャプチャされ、前記辞書は、前記光照射野の撮像システムが持つ光学的な特性を考慮して構成されていることを特徴とする、請求項1記載の方法。
  7. 前記線形結合により前記レイヤ単位の光照射野を推定する処理動作が、線形緩和に基づいていることを特徴とする、請求項1記載の方法。
  8. 各レイヤiに関するレイヤ単位の光照射野L(r)は、以下の式により
    と表現され、φは,以下の式で表される前記辞書
    に含まれるアトムであり、
    は、前記アトム係数を表すことを特徴とする請求項1記載の方法。
  9. 前記線形結合により前記レイヤ単位の光照射野の推定する際に、レイヤ間のオクルージョン効果を推定して得られる寄与成分による寄与を含めて推定することを特徴とする、
    請求項1記載の方法。
  10. 前記レイヤ単位の光照射野を推定するために、以下の式
    で表される最小化問題を解くことに基づく推定処理ステップをさらに具備しており、lはシーン全体の光照射野であり、Rは前記辞書を表す行列であり、cは、前記アトム係数であって、前記辞書から抽出されたアトムを前記重み付けされた前記線形結合により合成するために使用される係数であり、eはレイヤ間のオクルージョン効果を推定して得られる寄与成分であり、λとλは正規化パラメータであることを特徴とする
    請求項1記載の方法。
  11. 前記複数のマスクの値は、2進数値であることを特徴とする、請求項1記載の方法。
  12. 前記複数のマスクを前記推定するステップは、前記マスクを推定するための画像セグメント化処理を使用することを特徴とする、請求項1記載の方法。
  13. 前記3次元撮像シーンの前記光照射野は、プレノプティック撮像システムによってキャプチャされることを特徴とする、請求項1記載の方法。
  14. 前記3次元撮像シーンの前記光照射野は、カメラの配列によってキャプチャされることを特徴とする、請求項1記載の方法。
  15. 3次元撮像シーンの光照射野から前記3次元撮像シーンを再構成するコンピュータプログラムであって
    一つ以上のマスクの暫定的な推定結果を仮定した上で、シーン全体の光照射野に基づいて、前記3次元撮像シーンの異なる深さを表現する2つ以上のレイヤに関して、レイヤ単位の光照射野に対応するアトム係数を推定するステップであって、前記レイヤ単位の光照射野は、複数のアトムの辞書の中から選択された複数のアトムを線形結合した結果として表現され、前記辞書は前記レイヤ単位の光照射野を、前記辞書に含まれるアトムの異なる複数の線形結合として表すのに十分な複数のアトムを含み、前記線形結合は前記アトム係数で重み付けされ、前記複数のマスクは、後方のレイヤに対する前方のレイヤによるオクルージョン効果を表現する、ステップ;
    前記推定したアトム係数を使用して前記線形結合した結果として、前記レイヤ単位の光照射野の暫定的な推定結果を仮定した上で、前記複数のマスクを推定するステップ;
    前記レイヤ単位の光照射野についてのアトム係数を前記推定するステップと前記複数のマスクを推定するステップとを反復的に実行することによって、前記レイヤ単位の光照射野の推定結果を最適な推定結果に漸近的に収束させるステップ;および、
    前記レイヤ単位の光照射野および前記複数のマスクから前記3次元撮像シーンの複数のレイヤを推定するステップ;
    をコンピュータ・システムに実行させること特徴とするコンピュータプログラム
  16. k個のレイヤとk−1個のマスクとが存在し、前記3次元撮像シーンは、以下の式により
    と表現され、L(r)は前記3次元撮像シーンの光照射野であり、L(r)は、レイヤiに関するレイヤ単位の光照射野であり、M(r)はレイヤiのマスクであることを特徴とする、請求項15記載のコンピュータプログラム
  17. 前記シーン全体の光照射野は、複数の異なる視座から撮影された複数の明視野像を具備し、前記アトムは、前記明視野像の座標系に対する法線方向を基準として相対的に視差角度θの方向を向いているリッジレットであることを特徴とする、
    請求項15記載のコンピュータプログラム
  18. 各レイヤiに関するレイヤ単位の光照射野L(r)は、以下の式により
    と表現され、φは,以下の式で表される辞
    に含まれるアトムであり、
    は、前記アトム係数を表すことを特徴とする、請求項15記載のコンピュータプログラム
  19. 前記線形結合により前記レイヤ単位の光照射野を推定する処理動作は、レイヤ間のオクルージョン効果を推定して得られる寄与成分による寄与を含めて推定する処理動作を含むことを特徴とする、請求項15記載のコンピュータプログラム
  20. 3次元撮像シーンの光照射野から前記3次元撮像シーンを再構成するためのシステムであって:
    前記3次元撮像シーンの光照射野をキャプチャする光照射野の撮像装置;および、
    シーン全体の光照射野にアクセスする手段を具備したコンピュータ・システムであって:
    一つ以上のマスクの暫定的な推定結果を仮定した上で、シーン全体の光照射野に基づいて、前記3次元撮像シーンの異なる深さを表現する2つ以上のレイヤに関して、レイヤ単位の光照射野に対応するアトム係数を推定するステップであって、前記レイヤ単位の光照射野は、複数のアトムの辞書の中から選択された複数のアトムを線形結合した結果として表現され、前記辞書は前記レイヤ単位の光照射野を、前記辞書に含まれるアトムの異なる複数の線形結合として表すのに十分な複数のアトムを含み、前記線形結合は前記アトム係数で重み付けされ、前記複数のマスクは、後方のレイヤに対する前方のレイヤによるオクルージョン効果を表現する、ステップ;
    前記推定したアトム係数を使用して前記線形結合した結果として、前記レイヤ単位の光照射野の暫定的な推定結果を仮定した上で、前記複数のマスクを推定するステップ;
    前記レイヤ単位の光照射野についてのアトム係数を前記推定するステップと前記複数のマスクを推定するステップとを反復的に実行することによって、前記レイヤ単位の光照射野の推定結果を最適な推定結果に漸近的に収束させるステップ;および、
    前記レイヤ単位の光照射野および前記複数のマスクから前記3次元撮像シーンの複数のレイヤを推定するステップ;
    を実行するように構成されたコンピュータ・システム;
    を具備するシステム。
JP2013262218A 2012-12-20 2013-12-19 オクルージョンを意識した明視野像からの3次元シーンの再構成 Active JP6375619B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/723,069 2012-12-20
US13/723,069 US9092890B2 (en) 2012-12-20 2012-12-20 Occlusion-aware reconstruction of three-dimensional scenes from light field images

Publications (2)

Publication Number Publication Date
JP2014140158A JP2014140158A (ja) 2014-07-31
JP6375619B2 true JP6375619B2 (ja) 2018-08-22

Family

ID=50974109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013262218A Active JP6375619B2 (ja) 2012-12-20 2013-12-19 オクルージョンを意識した明視野像からの3次元シーンの再構成

Country Status (2)

Country Link
US (1) US9092890B2 (ja)
JP (1) JP6375619B2 (ja)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
US9858649B2 (en) 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
KR101701790B1 (ko) * 2013-01-18 2017-02-02 인텔 코포레이션 디포커스 블러에 대한 분산 추정 광 필드 재구성
US9380221B2 (en) * 2013-02-27 2016-06-28 Massachusetts Institute Of Technology Methods and apparatus for light field photography
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
US9030580B2 (en) * 2013-09-28 2015-05-12 Ricoh Company, Ltd. Color filter modules for plenoptic XYZ imaging systems
JP2015132953A (ja) * 2014-01-10 2015-07-23 キヤノン株式会社 画像処理装置およびその方法
US9483869B2 (en) * 2014-01-17 2016-11-01 Intel Corporation Layered reconstruction for defocus and motion blur
WO2015189845A1 (en) 2014-06-10 2015-12-17 Ramot At Tel-Aviv University Ltd. Method and system for processing an image
US9444991B2 (en) * 2014-11-13 2016-09-13 Lytro, Inc. Robust layered light-field rendering
CN104463802B (zh) * 2014-12-12 2017-04-19 西安电子科技大学 基于可变规模过完备字典的非凸压缩感知图像重构方法
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
CN104849852B (zh) * 2015-05-07 2017-03-08 清华大学 基于相机阵列的光场显微成像系统及方法
US9979909B2 (en) 2015-07-24 2018-05-22 Lytro, Inc. Automatic lens flare detection and correction for light-field images
CN105574824B (zh) * 2015-12-15 2018-11-30 西安电子科技大学 基于脊波字典的多目标遗传优化压缩感知图像重构方法
EP3185550A1 (en) * 2015-12-23 2017-06-28 Thomson Licensing Tridimensional rendering with adjustable disparity direction
US10136116B2 (en) 2016-03-07 2018-11-20 Ricoh Company, Ltd. Object segmentation from light field data
US10387743B2 (en) * 2016-03-16 2019-08-20 Ramot At Tel-Aviv University Ltd. Reconstruction of high-quality images from a binary sensor array
CN109076148B (zh) 2016-04-12 2021-02-05 奎蒂安特有限公司 日常场景重建引擎
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
EP3273686A1 (en) * 2016-07-21 2018-01-24 Thomson Licensing A method for generating layered depth data of a scene
EP3288253A1 (en) * 2016-08-25 2018-02-28 Thomson Licensing Method and apparatus for generating data representative of a bokeh associated to light-field data
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
US10545215B2 (en) 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
US10657425B2 (en) * 2018-03-09 2020-05-19 Ricoh Company, Ltd. Deep learning architectures for the classification of objects captured with a light-field camera
EP4459446A3 (en) 2018-05-02 2025-01-22 Quidient, LLC A codec for processing scenes of almost unlimited detail
CN110327018B (zh) * 2019-06-24 2021-01-29 中国科学院自动化研究所 稀疏度自适应组正交匹配追踪的激发荧光断层重建方法
CN114936990B (zh) * 2022-04-26 2023-03-07 北京信息科技大学 一种基于光场傅里叶视差层的视差重建方法
CN115577744A (zh) * 2022-09-05 2023-01-06 辽宁石油化工大学 一种油气管道泄漏火灾风险的智能预测方法
CN120263914B (zh) * 2025-06-03 2025-08-15 江西财经大学 稀疏光场子孔径图像加密与重建的隐私保护方法与系统
CN121509634A (zh) * 2026-01-13 2026-02-10 浙江大学 基于孔径调制的低成本实时单目立体成像方法及系统

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3593466B2 (ja) * 1999-01-21 2004-11-24 日本電信電話株式会社 仮想視点画像生成方法およびその装置
US6856314B2 (en) * 2002-04-18 2005-02-15 Stmicroelectronics, Inc. Method and system for 3D reconstruction of multiple views with altering search path and occlusion modeling
US7142726B2 (en) * 2003-03-19 2006-11-28 Mitsubishi Electric Research Labs, Inc. Three-dimensional scene reconstruction from labeled two-dimensional images
US7633511B2 (en) * 2004-04-01 2009-12-15 Microsoft Corporation Pop-up light field
US7646924B2 (en) 2004-08-09 2010-01-12 David Leigh Donoho Method and apparatus for compressed sensing
WO2006106508A2 (en) 2005-04-04 2006-10-12 Technion Research & Development Foundation Ltd. System and method for designing of dictionaries for sparse representation
EP1880524B1 (en) 2005-04-21 2013-10-30 William Marsh Rice University Method and apparatus for compressive imaging device
US8483492B2 (en) * 2005-10-25 2013-07-09 William Marsh Rice University Method and apparatus for signal detection, classification and estimation from compressive measurements
US8044994B2 (en) 2006-04-04 2011-10-25 Mitsubishi Electric Research Laboratories, Inc. Method and system for decoding and displaying 3D light fields
US7609906B2 (en) * 2006-04-04 2009-10-27 Mitsubishi Electric Research Laboratories, Inc. Method and system for acquiring and displaying 3D light fields
GB0616685D0 (en) * 2006-08-23 2006-10-04 Warwick Warp Ltd Retrospective shading approximation from 2D and 3D imagery
US20100265385A1 (en) 2009-04-18 2010-10-21 Knight Timothy J Light Field Camera Image, File and Configuration Data, and Methods of Using, Storing and Communicating Same
ATE551841T1 (de) 2009-04-22 2012-04-15 Raytrix Gmbh Digitales bildgebungsverfahren zum synthetisieren eines bildes unter verwendung der mit einer plenoptischen kamera aufgezeichneten daten
EP2375746A1 (en) 2010-03-31 2011-10-12 Deutsche Telekom AG Method for encoding texture data of free viewpoint television signals, corresponding method for decoding and texture encoder and decoder
WO2011156250A1 (en) 2010-06-07 2011-12-15 Thomson Licensing Learned transform and compressive sensing for video coding
US9177381B2 (en) * 2010-12-22 2015-11-03 Nani Holdings IP, LLC Depth estimate determination, systems and methods
US9137441B2 (en) 2012-02-16 2015-09-15 Ricoh Co., Ltd. Spatial reconstruction of plenoptic images
US8761534B2 (en) 2012-02-16 2014-06-24 Ricoh Co., Ltd. Optimization of plenoptic imaging systems
US20130300912A1 (en) 2012-05-14 2013-11-14 Ricoh Innovations, Inc. Dictionary Learning for Incoherent Sampling

Also Published As

Publication number Publication date
US9092890B2 (en) 2015-07-28
JP2014140158A (ja) 2014-07-31
US20140176540A1 (en) 2014-06-26

Similar Documents

Publication Publication Date Title
JP6375619B2 (ja) オクルージョンを意識した明視野像からの3次元シーンの再構成
Flynn et al. Deepview: View synthesis with learned gradient descent
US9952422B2 (en) Enhancing the resolution of three dimensional video images formed using a light field microscope
Chaudhuri et al. Depth from defocus: a real aperture imaging approach
JP6490197B2 (ja) 被写体の3次元画像を生成する装置と方法
CA2650557C (en) System and method for three-dimensional object reconstruction from two-dimensional images
Gadelha et al. Shape reconstruction using differentiable projections and deep priors
US11727591B2 (en) Method and apparatus with image depth estimation
Huang et al. Light-field reconstruction and depth estimation from focal stack images using convolutional neural networks
CN119904580A (zh) 一种基于神经网络的高斯泼溅单目重建方法
EP4016447A1 (en) Method and apparatus with image processing
Wang et al. Multi-scale, multi-dimensional binocular endoscopic image depth estimation network
Li et al. Monocular human depth estimation with 3D motion flow and surface normals
Fu et al. D-SCo: Dual-stream conditional diffusion for monocular hand-held object reconstruction
Gupta et al. A robust and efficient image de-fencing approach using conditional generative adversarial networks
CN120219640B (zh) 一种基于超分辨率的乳头保护区三维重建方法及系统
Brahimi et al. Supervol: Super-resolution shape and reflectance estimation in inverse volume rendering
Zhu et al. An occlusion compensation learning framework for improving the rendering quality of light field
Kubota et al. All-focused light field rendering.
Le Bon et al. Joint Fourier Disparity Layers unrolling with learned view synthesis for light field reconstruction from few-shots focal stacks
Kwon et al. High-quality three-dimensional visualization system for light field microscopy using a robust-depth estimation algorithm and holographic optical element-microlens array
Sahay et al. Shape extraction of low‐textured objects in video microscopy
Mao et al. A robust framework for multi-view stereopsis
Shin et al. 3D visualization of partially occluded objects using axially distributed sensing
Yoo et al. Bayesian approach for automatic joint parameter estimation in 3D image reconstruction from multi-focus microscope

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180709

R151 Written notification of patent or utility model registration

Ref document number: 6375619

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151