JP2018537877A - ライトフィールドコンテンツをエンコードする方法 - Google Patents

ライトフィールドコンテンツをエンコードする方法 Download PDF

Info

Publication number
JP2018537877A
JP2018537877A JP2018513441A JP2018513441A JP2018537877A JP 2018537877 A JP2018537877 A JP 2018537877A JP 2018513441 A JP2018513441 A JP 2018513441A JP 2018513441 A JP2018513441 A JP 2018513441A JP 2018537877 A JP2018537877 A JP 2018537877A
Authority
JP
Japan
Prior art keywords
light field
ray
plane
line
encoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2018513441A
Other languages
English (en)
Other versions
JP2018537877A5 (ja
Inventor
セイフィ,モジデ
ドラジック,ヴァルター
シューベルト,アルノ
ビューラー,オリヴィエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from EP15306439.9A external-priority patent/EP3145193A1/en
Priority claimed from EP15306441.5A external-priority patent/EP3144886A1/en
Priority claimed from EP15306440.7A external-priority patent/EP3145194A1/en
Priority claimed from EP15306435.7A external-priority patent/EP3145190A1/en
Priority claimed from EP15306438.1A external-priority patent/EP3145192A1/en
Priority claimed from EP15306437.3A external-priority patent/EP3145191A1/en
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2018537877A publication Critical patent/JP2018537877A/ja
Publication of JP2018537877A5 publication Critical patent/JP2018537877A5/ja
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

一実施形態では、ライトフィールドコンテンツをエンコードする方法が提案される。方法は、− 前記ライトフィールドコンテンツと関連付けられた光線の組(401)について、前記ライトフィールドコンテンツの2プレーン(402、403)パラメータ化から光線毎に4つの座標を取得すること(2000)と、− 前記組からのそれぞれの光線について、第1の2D光線図(Π(x1,x2),Π(x1,x2))内のポイントを定義する、前記2プレーンパラメータ化で使用される2つのプレーンに対して垂直であるプレーン(404、405、P)上への前記組からの前記光線の投影に対応する、前記4つの座標からの2つの座標を取得すること(2001)と、− 前記第1の2D光線図内の対象のラインを供給する前記第1の2D光線図(Π(x1,x2),Π(x1,x2))に対して離散ラドン変換を適用すること(2002)と、− 前記対象のラインを、エンコードされた対象のラインにエンコードすること(2003)と、− 前記エンコードされた対象のラインを保存すること(2004)とを含むことを特徴とする。

Description

技術分野
本開示は、演算撮像、ライトフィールド取得装置、及びプレノプティックカメラの分野に関する。更に詳しくは、本発明は、ライトフィールドデータの送信、レンダリング、処理、混合のために使用され得るライトフィールドのための表現フォーマットを対象とする。
背景
本節は、以下に記述及び/又は特許請求される本発明の様々な態様に関係し得る技術分野の様々な態様を読者に紹介することを意図したものである。この説明は、本発明の様々な態様のより良い理解を促進するために、読者に対する背景情報の提供において有用と考えられる。従って、これらの記述は、従来技術の是認としてではなく、この観点で読解されるべきものであると理解されたい。
4Dライトフィールドのサンプリングとして見なし得る4Dライトフィールドデータの取得(即ち、ECCV 2008の会議議事録で公開されたAnat Levinらによる「Understanding camera trade-offs through a Bayesian analysis of light field projections」という論文の図1に説明される光線の記録)は、活発に研究されている主題である。
実際に、カメラから取得される従来の2D画像と比較して、4Dライトフィールドデータの場合、ユーザーは、画像のレンダリング及び/又はユーザーとの対話性を改善する相対的に多くの事後処理特徴に対してアクセスすることができる。例えば、4Dライトフィールドデータによれば、後の画像の再合焦(即ち、自由に選択された合焦距離による再合焦であり、これは、焦点面の位置を後に規定/選択し得ることを意味する)のみならず、画像のシーンにおける視点のわずかな変更も容易に実行することができる。4Dライトフィールドデータを取得するためにいくつかの技法を使用することができる。例えば、文献国際公開第2013/180192号又は文献英国特許第2488905号に示されるプレノプティックカメラは、4Dライトフィールドデータを取得することができる。プレノプティックカメラのアーキテクチャの詳細は本明細書の図1及び図2に提供される。4Dライトフィールドデータを取得する別の方法は、本明細書の図3に示されるように、カメラアレイを使用することである。カメラアレイのアーキテクチャの詳細は図3に提供される。最後に、4Dライトフィールドを取得する別の方法は、異なる焦点面で同じシーンの2D画像のシーケンスをキャプチャするように構成された従来のカメラを使用することである。例えば、2014年10月にOPTICS EXPRESS, Vol. 22, No. 21で公開されたJ.-H. Parkらによる「Light ray field capture using focal plane sweeping and its optical reconstruction using 3D displays」という文献に記述される技法は、4Dライトフィールドデータの取得を実現するために使用することができる。
以下では、プレノプティックカメラ及びカメラアレイのみについて記述されるが、本開示は、文献米国特許出願公開第2010/0265386号若しくはSIGGRAPH 2007の議事録で公開されたA. Levinらによる「Image and depth from a conventional camera with a coded aperture」という名称の論文に示されるコード化されたアパーチャ要素を含むか、又は1995年4月10日にApplied Opticsで公開されたEdward R. Dowski, Jr.及びW. Thomas Catheによる「Extended depth of field through wave-front coding」という名称の論文で言及される波面コード化技法を使用する装置など、4Dライトフィールドデータを取得する他の装置にも適用され得ることに留意されたい。
従来技術では、4Dライトフィールドデータを表す(又は定義する)ためのいくつかの方法が存在する。実際に、2006年7月に公開されたRen Ngによる「Digital Light Field Photography」という名称の博士号論文の第3.3章では、4Dライトフィールドデータを表すための3つの異なる方法が記述されている。第1に、4Dライトフィールドデータは、例えば、図1に示されるものとしてのプレノプティックカメラによって記録された際にマイクロレンズ画像の集合体によって表すことができる(本明細書の図2の説明を参照されたい)。この表現における4Dライトフィールドデータは、未加工の画像(又は未加工の4Dライトフィールドデータ)と呼称される。第2に、4Dライトフィールドデータは、プレノプティックカメラによって又はカメラアレイによって記録された際にサブアパーチャ画像の組によって表すことができる。サブアパーチャ画像は、視点からのシーンのキャプチャ画像に対応し、視点は、2つのサブアパーチャ画像間でわずかに異なる。これらのサブアパーチャ画像は、撮像されたシーンの視差及び深さに関する情報を付与する。第3に、4Dライトフィールドデータは、エピポーラ画像の組によって表すことができる(例えば、ISVC 2011の会議議事録で公開されたS. Wannerらによる「Generating EPI Representation of a 4D Light Fields with a Single Lens Focused Plenoptic Camera」という名称の論文を参照されたい)。
但し、プレノプティック装置は、極めて雑多であり(例えば、(マイクロレンズの特定の光学構成(例えば、異なる焦点距離を有するマイクロレンズなど)を定義する)タイプ1及び2のプレノプティック装置を弁別することができる)、及びカメラアレイはその趣きにおいて異なるという事実に起因して、これらのすべてのライトフィールド取得装置は、それぞれのプロプライエタリなファイルフォーマットを有し、その結果、多次元情報の取得及び送信をサポートする規格が存在しないため、ライトフィールド技術は、通常の2D又は3D撮像以外に存在し得ないようである。例えば、4Dライトフィールドデータが未加工の4Dライトフィールドデータとして表される場合、未加工の4Dライトフィールドデータの処理のために、マイクロレンズのサイズなどのいくつかの追加情報が必要とされるが、現在、必要とされる追加情報のすべてを列挙した規格は存在しない。
但し、上述の4Dライトフィールドデータは、2011年2月にIEEE Transactions on Image Processing, Vol. 20, No 2に公開されたChi-Kai Liangらによる「Light Field Analysis for Modeling Image Formation」という名称の論文のLight Field Representationという名称の段落IIIの節A、又はMar Levoy及びPat Hanrahanによる「Light Field Rendering」という名称の論文、又は文献米国特許第8,237,708号、同第6,097,394号、若しくは同第6,023,523号に詳述されるように、パラメータ化プロセスから導出される値によっても表し得ることに留意されたい。従って、4Dライトフィールドデータは、座標系における(光線と関連付けられた)ポイントの組として表すことができる(文献国際公開第2013/180192号の[0028]〜[0030]の段落を参照されたい)。更に正確には、4Dライトフィールドデータを表すための、平行であるか又はそうではない2つのプレーンの使用を介した4Dライトフィールドのパラメータ化の使用(即ち、それぞれの光線が、これらの光線の2つのプレーンとの交差に対応する座標値の組によって表される)は、プロプライエタリなフォーマットの使用を回避するための、且つ4Dライトフィールド装置(即ち、例えば、プレノプティック装置及び/又はカメラアレイであるが、2013年7月に会議SIGGRAPH 2013で提示されたD. Lanman及びD. Luebkeによる「Near-Eye Light Field Displays」という名称の論文に記述されるものなどの4Dライトフィールド表示装置も対象である)間の相互運用性を拡大させるための1つの方法であり得るであろう。
実際に、複雑なインターリービング構造を有する未加工情報を共有する代わりに、すべてのその慣習性と共に、キャプチャされた光線の表現を共有することが相対的に良好であると考えられる。その結果、データは、それが取得された方法とは独立して処理、共有、送信、及びレンダリングすることができる。また、パラメータ化されたライトフィールドは、「Light Field Rendering」という名称を有する上述の論文では、ライトスラブ表現とも呼称されることに留意されたい。
但し、この4Dライトフィールドの表現の1つの欠点は、本明細書の23頁で言及されるように、保存を要するコンテンツが巨大である点にある。
実際に、このような表現の使用は、それぞれのパラメータ化された光線について、2つのプレーン内の座標を保存することを意味する(即ち、このような光線の4アップレット(uplet)及び放射輝度の値を保存する必要がある)。(サンプリングされたライトフィールドを定義する)2D画像の組を光線の表現(それぞれの光線は、4アップレット及び放射輝度の値と関連付けられる)に変換するプロセスは、例えば、文献米国特許第6,023,523号に示されている。
従って、上述の保存の課題が克服されるという意味において、コンパクトなライトフィールド表現を提供するための技法を提供する必要性が存在する。
開示の概要
「一実施形態」、「実施形態」、「例示用の実施形態」に対する本明細書における参照は、記述される実施形態が、特定の特徴、構造、又は特性を含み得るが、必ずしもすべての実施形態がそれらの特定の特徴、構造、又は特性を含まない場合があることを示す。更に、このような語句は、必ずしも同じ実施形態を参照しない。更に、特定の特徴、構造、又は特性が1つの実施形態との関連で記述される場合、明示的に記述されるかどうかとは無関係に、他の実施形態との関連でそれらの特徴、構造、又は特性を実施することは、当業者の知識に含まれるものと見なされる。
本開示は、ライトフィールドコンテンツをエンコードする方法を対象とする。方法は、
− 前記ライトフィールドコンテンツと関連付けられた光線の組について、前記ライトフィールドコンテンツの2プレーンパラメータ化から光線毎に4つの座標を取得することと、
− 前記組からのそれぞれの光線について、第1の2D光線図内のポイントを定義する、前記2プレーンパラメータ化で使用される2つのプレーンに対して垂直であるプレーン上への前記組からの前記光線の投影に対応する、前記4つの座標からの2つの座標を取得することと、
− 前記第1の2D光線図内の対象のラインを供給する前記第1の2D光線図に対して離散ラドン変換を適用することと、
− 前記対象のラインを、エンコードされた対象のラインにエンコードすることと、
− 前記エンコードされた対象のラインを保存することと
を含むことを特徴とする。
好適な一実施形態では、方法は、前記エンコードがブレゼンハムアルゴリズムを適用することを更に含むことを特徴とする。
好適な一実施形態では、方法は、第1のプレーン及び第2のプレーンと呼称される、前記2プレーンパラメータ化で使用される前記2つのプレーンが、矩形要素を含む離散化されたプレーンであり、前記第1のプレーン内の矩形要素の長辺の最大値が、

に等しく、ここで、zが、ピクセルピッチpを有するカメラ装置に含まれるセンサアレイの深度値であり、fが、前記カメラ装置の焦点距離であり、及びzが、前記第1のプレーンと関連付けられた第1の深度値であり、前記第2のプレーン内の矩形要素の長辺の最大値が、

に等しく、ここで、zが、第2の第1のプレーンと関連付けられた第2の深度値であることを特徴とする。
好適な一実施形態では、方法は、前記第1の2D光線図内の第1のエンコードされた対象のラインに属する少なくとも1つの第1のポイントについて、
− 第2の2D光線図内の第2のエンコードされた対象のラインに属する少なくとも第2のポイントと関連付けられた光線の放射輝度を保存することであって、前記第2のエンコードされた対象のラインが、第1のエンコードされた対象のラインと同じスロープを有する、保存すること、及び光線の存在を示す第1の追加情報を保存すること、並びに/又は
− 光線が、前記第2のエンコードされた対象のラインに属する少なくとも第3のポイントと関連付けられていないことを示す第2の追加情報を保存すること
を含むことを特徴とする。
好適な一実施形態では、方法は、前記第1及び/又は第2の追加情報がビットであり、前記光線の放射輝度が3バイト値によってエンコードされることを特徴とする。
好適な一実施形態では、方法は、投影の少なくとも1つの中心の座標及び前記投影の少なくとも1つの中心と関連付けられた半径を推定することを更に含み、前記推定が、
− 前記第1の2D光線図内の対象のラインの少なくとも1つのスロープパラメータm及び太さパラメータ

を取得することであって、前記対象のラインが、投影の中心x,y,z及び半径Aと関連付けられる、取得することと、
− 前記少なくとも1つのスロープパラメータm及び前記太さパラメータ

から前記投影の中心の座標x,y,z及び前記半径Aを推定することと
を含むことを特徴とする。
好適な実施形態では、方法は、第1のプレーン及び第2のプレーンと呼称される、前記2プレーンパラメータ化で使用される前記2つのプレーンが、それぞれ第1の深度値z及び第2の深度値zと関連付けられ、前記推定が、

を取得することを含むことを特徴とする。
好適な一実施形態では、方法は、前記エンコードされた対象のラインの前記保存が、エンコードされた対象のラインと関連付けられたスロープを保存することと、前記第1の2D光線図内のエンコードされた対象のラインに属するそれぞれのポイントについて、第2の2D光線図に属するポイントの組を保存することと、前記第1の2D光線図内の処理済みのエンコードされた対象のラインと関連付けられたスロープが、前記第1の2D光線図内の他のエンコードされた対象のラインと関連付けられた別のスロープよりも大きい場合、前記第1の2D光線図内のポイントが、前記処理済みのエンコードされた対象のラインと前記他のエンコードされた対象のラインとの間の交差に属する際に、前記第2の2D光線図に属する前記ポイントの組の保存を回避することとを更に含むことを特徴とする。
好適な一実施形態では、方法は、前記回避が、閉塞を示す情報を保存することを更に含むことを特徴とする。
好適な一実施形態では、方法は、前記情報がヌル値であるとことを特徴とする。
一変形形態では、ライトフィールドコンテンツを表すテーブルから画像の組を供給する方法が提案され、それぞれの画像は、m×n個のピクセルを含み、m及びnは、1超の整数である。方法は、前記テーブルがライトフィールドコンテンツの2D光線図表現に基づくことと、方法が、
− 前記ライトフィールドコンテンツを表す前記テーブル内のデータに対するポインタを含む2次元ルックアップテーブルを取得することと、前記組内のそれぞれの画像について、
− インデックス(i,j)によってアドレス指定されたピクセルについて、同じインデックス(i,j)に位置決めされた前記2次元ルックアップテーブル内のポインタの取得を介して、前記ライトフィールドコンテンツを表す前記テーブルから光線の放射輝度値を取得することと
を含むこととを特徴とする。
好適な一実施形態では、前記光線の放射輝度は3バイト値によってエンコードされる。
好適な一実施形態では、方法は、前記放射輝度値の取得が、前記画像に含まれるピクセルのすべてについて実行されることを特徴とする。
好適な一実施形態では、方法は、ライトフィールドコンテンツの前記2D光線図表現に基づいた前記テーブルが、ラインの組を定義するパラメータを含むことを特徴とする。
好適な一実施形態では、方法は、前記2次元ルックアップテーブル内のそれぞれのポインタが2つの要素のインデックスであることを特徴とする。
本開示の別の実施形態では、2次元ルックアップテーブルを生成する方法が提案される。方法は、
− ライトフィールドコンテンツを表すテーブルを取得することであって、前記テーブルは、ライトフィールドコンテンツの2D光線図表現に基づく、取得することと、
− 前記2次元ルックアップテーブル内で要素をアドレス指定するインデックス値(i,j)について、前記ライトフィールドコンテンツを表す前記テーブル内の放射輝度値に対するポインタ値を判定することと
を含むことを特徴とする。
好適な一実施形態では、2次元ルックアップテーブルを生成する方法は、前記判定が、前記インデックス(i,j)によってアドレス指定されたピクセルのピクセルバック追跡プロセスを適用することと、2プレーンパラメータ化を介して前記インデックス(i,j)によってアドレス指定された前記ピクセルと関連付けられた光線の交差座標を判定することと、前記ライトフィールドコンテンツを表す前記テーブル内において、前記交差座標と関連付けられた放射輝度値に対応する位置を判定することとを含むことを特徴とする。
好適な一実施形態では、生成する方法は、前記2次元ルックアップテーブル内のそれぞれのポインタが2つの要素のインデックスであることを特徴とする。
別の実施形態では、放射輝度値を、ライトフィールドコンテンツを表すテーブル内に保存する方法が提案される。方法は、前記テーブルがライトフィールドコンテンツの2D光線図表面に基づくことと、方法が、
− ライトフィールドコンテンツを表すテーブル内のデータ位置に対するポインタを含む2次元ルックアップテーブルを取得することと、
− インデックス(i,j)によってアドレス指定されたピクセルについて、m×n個のピクセルを含む画像から光線の放射輝度値を取得することであって、m及びnは、1超の整数である、取得することと、
− 同じインデックス(i,j)に位置決めされた前記2次元ルックアップテーブル内のポインタの取得を介して、取得された放射輝度値を前記テーブル内に保存することと
を含むこととを特徴とする。
好適な一実施形態では、保存する方法は、前記保存が、前記画像に含まれる放射輝度値のすべてについて実行されることを特徴とする。
好適な一実施形態では、保存する方法は、画像内のすべてのピクセルの取得された放射輝度値の前記保存が並行して実行されることを特徴とする。
これらの方法の共通的な発明的特徴は、2次元ルックアップテーブルである。
本開示の別の実施形態では、4Dライトフィールドデータをレンダリングする方法が提案される。この方法は、電子装置によって実行され、且つ
− 少なくとも2つのデカルト座標を取得することであって、それぞれのデカルト座標は、三次元空間内でカメラ位置と関連付けられる、取得することと、
− 前記少なくとも2つのデカルト座標から、選択されたデカルト座標と関連付けられた少なくとも1つの4Dライトフィールドデータを取得することと、
− 取得された4Dライトフィールドデータをレンダリングすることと
を含むことを特徴とする。
好適な一実施形態では、方法は、前記少なくとも1つの4Dライトフィールドデータの取得が、前記少なくとも1つの4Dライトフィールドデータのデジタルライン表現を受け取ることを含むことを特徴とする。
好適な一実施形態では、方法は、前記少なくとも1つの4Dライトフィールドデータの取得が、前記選択されたデカルト座標に基づいてテーブルからデータを選択することを含むことを特徴とする。
好適な一実施形態では、前記テーブルは、離れたサーバー上に保存される。
例示用の一実施形態によれば、上述の方法の異なるステップは、1つ又は複数のコンピュータソフトウェアプログラムによって実装され、このソフトウェアプログラムは、本開示に従ってリレーモジュールのプロセッサによって実行されるように設計されると共に、この方法の異なるステップの実行を制御するように設計されたソフトウェア命令を含む。
この結果、本開示の一態様は、コンピュータ又はデータプロセッサによって実行されるプログラムにも関し、このプログラムは、上述した方法のステップの実行を命令するための命令を含む。
このプログラムは、任意のプログラミング言語を使用することが可能であり、且つソースコード、オブジェクトコード、又は部分的にコンパイルされた形態若しくは任意の他の望ましい形態など、ソースコードとオブジェクトコードとの間の中間であるコードの形態を有し得る。
また、本開示は、上述のように、データプロセッサによって判読可能であると共にプログラムの命令を含む情報媒体にも関する。
情報媒体は、プログラムを保存する能力を有する任意のエンティティ又は装置であってもよい。例えば、媒体は、例えば、CD−ROM(「コンパクトディスク−読み出し専用メモリ」の略号である)若しくは微細電子回路ROMなどのROM(「読み出し専用メモリ」の略号である)などの記憶手段、又はこの場合にも、例えば、フロッピーディスク若しくはハードディスクドライブなどの磁気記録手段を含むことができる。
更に、情報媒体は、電気又は光ケーブルを通じて、無線で、又は他の手段により、搬送され得る電気又は光信号などの送信可能な担体であってもよい。プログラムは、特に、インターネットタイプのネットワーク内にダウンロードすることができる。
代わりに、情報媒体は、プログラムが内蔵される集積回路であってもよく、回路は、対象の方法の実行時の稼働又は使用に対して適合される。
一実施形態によれば、本開示の一実施形態は、ソフトウェア及び/又はハードウェアコンポーネントを有するモジュールによって実装される。この観点では、「モジュール」という用語は、本明細書においてソフトウェアコンポーネント及びハードウェアコンポーネントの両方に、又はハードウェア及びソフトウェアコンポーネントの組に対応し得る。
ソフトウェアコンポーネントは、1つ若しくは複数のコンピュータプログラム、プログラムの1つ若しくは複数のサブプログラム、又は更に一般的には、関係するモジュールについて後述される内容に従って1つの機能若しくは機能の組を実装する能力を有するプログラム若しくはソフトウェアプログラムの任意の要素に対応する。このような1つのソフトウェアコンポーネントは、物理的エンティティ(端末やサーバーなど)のデータプロセッサによって実行され、且つこの物理的エンティティのハードウェアリソース(メモリ、記録媒体、通信バス、入力/出力電子基板、ユーザーインターフェイスなど)にアクセスする能力を有する。
同様に、ハードウェアコンポーネントも、関係するモジュールについて後述される内容に従って1つの機能又は機能の組を実装する能力を有するハードウェアユニットの任意の要素に対応する。これは、例えば、ファームウェアを実行するための集積回路、スマートカード、メモリカード、電子基板など、プログラム可能なハードウェアコンポーネント又はソフトウェアの実行用の集積回路を有するコンポーネントであってもよい。一変形形態では、ハードウェアコンポーネントは、中央処理ユニット、及び/又はマイクロプロセッサ、及び/又は用途固有の集積回路(ASIC)、及び/又は用途固有の命令セットプロセッサ(ASIP)、及び/又はグラフィクス処理ユニット(GPU)、及び/又は物理演算処理ユニット(PPU)、及び/又はデジタル信号プロセッサ(DSP)、及び/又は画像プロセッサ、及び/又はコプロセッサ、及び/又は浮動小数点ユニット、及び/又はネットワークプロセッサ、及び/又はオーディオプロセッサ、及び/又はマルチコアプロセッサなどの集積回路であるプロセッサを有する。更に、ハードウェアコンポーネントは、ベースバンドプロセッサ(例えば、メモリユニット及びファームウェアを含む)及び/又は無線信号を受信又は送信する無線電子回路(アンテナを含み得る)を含むこともできる。一実施形態では、ハードウェアコンポーネントは、ISO/IEC18092/ECMA−340、ISO/IEC21481/ECMA−352、GSMA、StoLPaN、ETSI/SCP(スマートカードプラットフォーム)、GlobalPlatform(即ち、保護要素)などの1つ又は複数の規格に準拠する。一変形形態では、ハードウェアコンポーネントは、高周波識別(RFID)タグである。一実施形態では、ハードウェアコンポーネントは、Bluetooth通信、及び/又はWi−Fi通信及び/又はZigbee通信、及び/又USB通信、及び/又はFirewire通信、及び/又はNFC(近距離)通信を可能にする回路を含む。
また、本明細書における要素/値を取得するステップは、電子装置のメモリユニット内でこのような要素/値を読み取るステップ、又は通信手段を介して別の電子装置からこのような要素/値を受け取るステップと見なし得ることに留意されたい。
本開示の別の実施形態では、ライトフィールドコンテンツをエンコードする電子装置が提案される。電子装置は、メモリと、メモリに結合された少なくとも1つのプロセッサとを含み、少なくとも1つのプロセッサは、
− 前記ライトフィールドコンテンツと関連付けられた光線の組について、前記ライトフィールドコンテンツの2プレーンパラメータ化から光線毎に4つの座標を取得することと、
− 前記組からのそれぞれの光線について、第1の2D光線図内のポイントを定義する、前記2プレーンパラメータ化で使用される2つのプレーンに対して垂直であるプレーン上への前記組からの前記光線の投影に対応する、前記4つの座標からの2つの座標を取得することと、
− 前記第1の2D光線図内の対象のラインを供給する前記第1の2D光線図に対して離散ラドン変換を適用することと、
− 前記対象のラインを、エンコードされた対象のラインにエンコードすることと、
− 前記エンコードされた対象のラインを保存することと
を行うように構成されることを特徴とする。
好適な一実施形態では、電子装置は、前記少なくとも1つのプロセッサが、ブレゼンハムアルゴリズムによって前記対象のラインをエンコードするように更に構成されることを特徴とする。
好適な一実施形態では、電子装置は、第1のプレーン及び第2のプレーンと呼称される、前記2プレーンパラメータ化で使用される前記2つのプレーンが、矩形要素を含む離散化されたプレーンであり、前記第1のプレーン内の矩形要素の長辺の最大値が、

に等しく、ここで、zが、ピクセルピッチpを有するカメラ装置に含まれるセンサアレイの深度値であり、fが、前記カメラ装置の焦点距離であり、及びzが、前記第1のプレーンと関連付けられた第1の深度値であり、前記第2のプレーン内の矩形要素の長辺の最大値が、

に等しく、ここで、zは、第2の第1のプレーンと関連付けられた第2の深度値であることを特徴とする。
好適な一実施形態では、電子装置は、前記少なくとも1つのプロセッサが、前記第1の2D光線図内の第1のエンコードされた対象のラインに属する少なくとも第1のポイントについて、
− 第2の2D光線図内の第2のエンコードされた対象のラインに属する少なくとも第2のポイントと関連付けられた光線の放射輝度を保存することであって、前記第2のエンコードされた対象のラインが、第1のエンコードされた対象のラインと同じスロープを有する、保存すること、及び光線の存在を示す第1の追加情報を保存すること、並びに/又は
− 光線が、前記第2のエンコードされた対象のラインに属する少なくとも第3のポイントと関連付けられていないことを示す第2の追加情報を保存すること
を行うように更に構成されることを特徴とする。
本開示の別の実施形態では、ライトフィールドコンテンツを表すテーブルから画像の組を供給する電子装置が提案され、それぞれの画像は、m×n個のピクセルを含み、m及びnは、1超の整数である。電子装置は、前記テーブルがライトフィールドコンテンツの2D光線図表現に基づくことと、電子装置が、
− 前記ライトフィールドコンテンツを表す前記テーブル内のデータに対するポインタを含む2次元ルックアップテーブルを取得するように構成されたモジュールと、
− インデックス(i,j)によってアドレス指定されたピクセルについて、同じインデックス(i,j)に位置決めされた前記2次元ルックアップテーブル内のポインタの取得を介して、前記ライトフィールドコンテンツを表す前記テーブルから光線の放射輝度値を取得するように構成されたモジュールと
を含むこととを特徴とする。
好適な一実施形態では、電子装置は、前記放射輝度値を取得するように構成された前記モジュールが、前記画像に含まれるピクセルのすべてを処理するために使用されることを特徴とする。
好適な一実施形態では、電子装置は、ライトフィールドコンテンツの前記2D光線図表現に基づいた前記テーブルが、ラインの組を定義するパラメータを含むことを特徴とする。
好適な一実施形態では、電子装置は、前記2次元ルックアップテーブル内のそれぞれのポイントが2つの要素のインデックスであることを特徴とする。
本開示の別の実施形態では、2次元ルックアップテーブルを生成する電子装置が提案される。この電子装置は、
− ライトフィールドコンテンツを表すテーブルを取得するように構成されたモジュールであって、前記テーブルは、ライトフィールドコンテンツの2D光線図表現に基づく、モジュールと、
− 前記2次元ルックアップテーブル内の要素をアドレス指定するインデックス値(i,j)について、前記ライトフィールドコンテンツを表す前記テーブル内の放射輝度値に対するポインタ値を判定するように構成されたモジュールと
を含むことを特徴とする。
本開示の好適な実施形態では、電子装置は、判定するように構成された前記モジュールが、前記インデックス(i,j)によってアドレス指定されたピクセルのピクセルバック追跡プロセスを適用し、2プレーンパラメータ化を介して前記インデックス(i,j)によってアドレス指定された前記ピクセルと関連付けられた光線の交差座標を判定し、且つ前記ライトフィールドコンテンツを表す前記テーブル内において、前記交差座標と関連付けられた放射輝度値に対応する位置を判定するように更に構成されることを特徴とする。
好適な一実施形態では、電子装置は、前記2次元ルックアップテーブル内のそれぞれのポイントが2つの要素のインデックスであることを特徴とする。
本開示の別の実施形態では、ライトフィールドコンテンツを表すテーブル内に放射輝度値を保存する電子装置が提案される。電子装置は、前記テーブルがライトフィールドコンテンツの2D光線図表現に基づくことと、電子装置が、
− ライトフィールドコンテンツを表すテーブル内のデータ位置に対するポインタを含む2次元ルックアップテーブルを取得するように構成されたモジュールと、
− インデックス(i,j)によってアドレス指定されたピクセルについて、m×n個のピクセルを含む画像から光線の放射輝度値を取得するように構成されたモジュールであって、m及びnは、1超の整数である、モジュールと、
− 同じインデックス(i,j)に位置決めされた前記2次元ルックアップテーブル内のポインタの取得を介して、取得された放射輝度値を前記テーブル内に保存するように構成されたモジュールと
を含むこととを特徴とする。
本開示の別の実施形態では、4Dライトフィールドデータをレンダリングする電子装置が提案される。この電子装置は、
− 少なくとも2つのデカルト座標を取得するように構成された第1のモジュールであって、それぞれのデカルト座標は、3次元空間内でカメラ位置と関連付けられる、第1のモジュールと、
− 前記少なくとも2つのデカルト座標から選択されたデカルト座標と関連付けられた少なくとも1つの4Dライトフィールドデータを取得するように構成された第2のモジュールと、
− 取得された4Dライトフィールドデータをレンダリングするように構成された第3のモジュールと
を含むことを特徴とする。
好適な一実施形態では、前記第2のモジュールは、前記少なくとも1つの4Dライトフィールドデータのデジタルライン表現を受け取るように更に構成される。
好適な一実施形態では、前記第2のモジュールは、前記選択されたデカルト座標に基づいてテーブルからデータを選択するように更に構成される。
図面の簡単な説明
本発明の上述の及び他の態様は、以下の添付図面を参照するその例示用の実施形態に関する以下の詳細な説明から明らかとなるであろう。
本開示の一実施形態によるライトフィールドカメラであるプレノプティックカメラの概略図である。 図1に開示されるセンサアレイの別の図を提示する。 本開示の一実施形態によるライトフィールドカメラであるマルチカメラアレイの概略図である。 本開示の一実施形態による少なくとも2つのプレーンの使用による光線のパラメータ化を提示する。 本開示の一実施形態による2Dスライスの2つの異なる表現を示す。 本開示の一実施形態による2Dスライスの2つの異なる表現を示す。 本開示の一実施形態による2Dスライスの2つの異なる表現を示す。 本開示の一実施形態による2Dスライスの2つの異なる表現を示す。 本開示の一実施形態による2Dスライスの2つの異なる表現を示す。 本開示の一実施形態による2Dスライスの2つの異なる表現を示す。 本開示の一実施形態による2Dスライスの2つの異なる表現を示す。 本開示の一実施形態による2Dスライスの2つの異なる表現を示す。 本開示の一実施形態によるランダムな光線ファンの2D光線図を提示する。 本開示の一実施形態による図6の2D光線図からのライトフィールドフィルタリングの結果を提示する。 本開示の一実施形態による図6の2D光線図からのライトフィールドフィルタリングの結果を提示する。 本開示の一実施形態による一般的な視点のレンダリングのために使用される座標系を提示する。 本開示の一実施形態による光線の選択を描く。 本開示の一実施形態による図9の選択された光線のレンダリング光線トレースを提示する。 本開示の一実施形態による選択された光線を有する2D光線図を提示する。 本開示の一実施形態による図11の選択された光線のレンダリング光線トレースを示す。 本開示の一実施形態による選択された光線を有する2D光線図を提示する。 本開示の一実施形態による図13の選択された光線のレンダリング光線トレースを示す。 本開示の一実施形態による3つのカメラの2つのグループの2D光線図である。第1のグループは、プレーンz=2にピンホールの組を有し、且つプレーンz=14に第2の組を有する。 図15のライトフィールド表現のラドン変換のソノグラムである。 本開示の一実施形態による3D空間内における一般的な視点のレンダリングのために使用される座標系を提示する。 本開示の一実施形態による、|A|<0.5のアパーチャを有する、座標x=2、z=2における、1つのカメラによってキャプチャされた光線の2D光線図である。パラメータ化するために使用されるラインは、256個のセルによってサンプリングされる。 本開示の一実施形態による2D光線図内のラインの一例を提示する。 本開示の一実施形態による6つのライン又はデジタルラインを含む2D光線図である。 本開示の一実施形態によるライトフィールド光線の表現の一例である。 本開示の一実施形態によるライトフィールド光線の表現の別の例である。 本開示の一実施形態によるライトフィールド光線の表現の別の例である。 本開示の一実施形態による二重キューブ内に封入される物体を示す。 本開示の一実施形態による二重キューブ内に封入される物体を示す。 図18からのデータに対する離散ラドン変換の適用の結果を提示する。 図23内のエリアに対するズームである。 左手側では、xにおける2D光線図と、この2D光線図内のデータに対する離散ラドン変換の適用の結果とを提示し、且つ右手側では、yにおける2D光線図と、この2D光線図内のデータに対する離散ラドン変換の適用の結果とを提示する。 本開示の一実施形態によるコンパクトなライトフィールド表現を提供する方法のいくつかのステップを提示する。 本開示の一実施形態による、4Dライトフィールドデータ又は従来の2D画像から、2つのプレーンの使用を介した光線のパラメータ化に基づいた表現への変換を描く合成方式を提示する。 本開示の一実施形態による、光線がピクセル(又は仮想的なピクセル)センサから「抽出」される方式を提示する。 本開示の一実施形態による、光線がピクセル(又は仮想的なピクセル)センサから「抽出」される方式を提示する。 本発明の一実施形態による方法のサンプリングステップを導出するために使用されるパラメータを提示する。 本開示の一実施形態による投影プロセスに関与するプレーンの斜視図を提示する。 本開示の一実施形態によるライトフィールドのパラメータ化を実行するために使用されるプレーンの離散化を提示する。 本開示の一実施形態による、画像がカメラの使用によって取得される(2つの物体を含む)シーンを提示する。更に正確には、画像は、2つのカメラの3つのグループから取得される。 本開示の一実施形態による2つのカメラの3つのグループの2D光線図を提示する。 本開示の一実施形態によるライトフィールドコンテンツ内の閉塞を処理する方法を描く。 本開示の一実施形態による、電子装置によって供給される対象の画像について、例えば、図22(a)のテーブルなどのライトフィールドコンテンツのコンパクトな表現からその画像のピクセルの値を取得する方式を提示する。 画像及び2次元ルックアップテーブルから、例えば、図22(a)のテーブルとしてのライトフィールドコンテンツのコンパクトな表現を生成する方式を提示する。 本開示の一実施形態による、ユーザーが、4Dライトフィールドデータと関連付けられたカメラの位置を選択することができる3D表現を含むメニューを提示する。 本明細書に開示される方法の1つ又は複数のステップを実行するために使用され得る電子装置の一例を提示する。
詳細な説明
図1は、プレノプティックカメラに含まれる主要なコンポーネントを概略的に提示する。更に正確には、プレノプティックカメラは、101という参照符号が付与されたメインレンズと、104という参照符号が付与されたセンサアレイ(即ち、ピクセルのアレイ)とを含む。メインレンズ101とセンサアレイ104との間には、103という参照符号が付与されたマイクロレンズの組を含む、102という参照符号が付与されたマイクロレンズアレイが位置決めされる。任意選択により、1つのレンズからの光がセンサ側の他のレンズの光とオーバーラップすることを防止するために、いくつかのスペーサが、それぞれのレンズの周りのマイクロレンズアレイとセンサとの間に配置され得ることに留意されたい。従って、プレノプティックカメラは、図1に示されるように、従来のカメラに、センサのちょうど前面に配置されたマイクロレンズアレイを加えたものと見なすことができる。マイクロレンズを通過した光線は、これらの光線の放射輝度を記録するセンサアレイの部分をカバーする。センサのこの部分による記録により、マイクロレンズ画像が定義される。
図2は、センサアレイ104の別の図を提示する。実際に、このような図では、センサアレイ104は、201という参照符号が付与されたピクセルの組を含むものと考えられる。マイクロレンズを通過した光線は、いくつかのピクセル201をカバーし、且つこれらのピクセルは、入射した/受光された光線のエネルギー値を記録する。
従って、プレノプティックカメラのセンサアレイ104は、(未加工の4Dライトフィールド画像とも呼称される)2D画像内に配置された小さい2D画像の集合体(即ち、202という参照符号が付与されたマイクロレンズ画像)を含む画像を記録する。実際に、それぞれの小さい画像(即ち、マイクロレンズ画像)は、レンズによって生成される(レンズは、レンズのアレイの座標(i,j)によって識別することができる)。即ち、ライトフィールドのピクセルは、4つの座標(x,y,i,j)と関連付けられる。センサによって記録される4DライトフィールドであるL(x,y,i,j)は、センサによって記録される画像を示す。それぞれのマイクロレンズは、円によって表されるマイクロ画像を生成する(小さい画像の形状は、マイクロレンズの形状に依存し、この形状は、通常、円形である)。(センサアレイ内における)ピクセル座標には、(x,y)というラベルが付与される。pは、2つの連続的なマイクロ画像間の距離であり、pは、必ずしも整数値ではない。マイクロレンズは、pがピクセルサイズδを上回るように選択される。マイクロレンズ画像は、その座標(i,j)によって参照される。それぞれのマイクロレンズ画像は、(u,v)座標系を有するメインレンズの瞳孔をサンプリングする。いくつかのピクセルは、特にマイクロレンズの形状が円形である場合、いずれのマイクロレンズからも何らの光子も受け取らない場合があるであろう。この場合、光子がマイクロレンズから外に通過し、その結果、マイクロ画像内にいくつかのダークエリアが生じることを防止するために、マイクロレンズ間の空間は遮蔽される(マイクロレンズが正方形の形状を有する場合、遮蔽は不要である)。マイクロレンズ画像(i,j)の中心は、センサ上で(xi,j,yi,j)の座標に位置する。θは、ピクセルの正方形格子とマイクロレンズの正方形格子との間の角度であり、図2ではθ=0である。マイクロレンズが規則的な正方形格子に従って配列されると仮定することにより、マイクロレンズ画像のピクセル座標(x0,0,y0,0)を(0,0)であると見なすことにより、以下の式で(xi,j,yi,j)を演算することができる。

また、図2は、シーンからの物体がいくつかの連続的なマイクロレンズ画像(ダークドット)上で可視状態にあることも示す。物体の2つの連続的な視野間の距離は、wであり、この距離は、反復距離と呼称される。従って、物体は、

によりr個の連続的なマイクロレンズ画像上で可視状態にあり、ここで、rは、1つの次元における連続的なマイクロレンズ画像の数である。物体は、r個のマイクロレンズ画像内で可視状態にある。マイクロレンズ画像の形状に応じて、物体のr個の視野のいくつかは、非可視状態となり得るであろう。
本明細書で上述されるように、4Dライトフィールドデータは、(4Dライトフィールドデータが、例えば、タイプ1.0のプレノプティックカメラによって取得される際に)サブアパーチャ画像によって表すことができる。それぞれのサブアパーチャ画像は、それぞれのマイクロレンズ画像から選択された同じ位置のピクセルから構成される。
ピクセルの場所に応じて、マルチビューのサブアパーチャ画像を取得することが可能であり、これらの画像は、それぞれ入射光線の異なる情報を有することができる。従来の写真は、すべての入射光を合計したすべてのサブアパーチャ画像の統合体に等しい。
従って、サブアパーチャ画像によって表される4Dライトフィールド画像は、m×n個のサブアパーチャ画像の組(又は集合体)として定義され、この場合、それぞれのサブアパーチャ画像は、同じシーンのわずかに異なる観点に対応し、パラメータm及びnは、1以上の整数である。また、このような4Dライトフィールド画像は、従来技術では視野のマトリックスとも呼称される。このような表現を取得するには、それぞれの画像内のピクセルがすべてのマイクロレンズ下で同じ位置から到来する状態で画像のアレイを生成するために、未加工のセンサ画像からのピクセルが再配置される。それぞれのサブアパーチャ画像は、カメラレンズの小さいサブアパーチャ領域のみを通過した光の従来の画像をキャプチャしたものであると考えることができる。これらの画像は、極めて類似しているが、これらは、それぞれ同じ現実世界の物体がそれぞれのサブアパーチャ画像の異なる場所に出現するように、カメラのアパーチャプレーン内で一意の光学中心を有する。即ち、サブアパーチャ画像は、キャプチャされたシーン上で視差を提供し、この場合、前景の物体は、背景の物体よりも隣接するサブアパーチャ画像間で相対的に大きい変位を有する。
通常、ライトフィールド画像がタイプ1.0のプレノプティックカメラによって取得される場合、マイクロレンズの下方に位置決めされたピクセルの数がサブアパーチャ画像の数を決定し、且つマイクロレンズの数がそれぞれのサブアパーチャ画像内のピクセルの数を決定する。
プレノプティックカメラに関係する更なる詳細について、2012年5月にIEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 34, No 5に公開されたTom E. Bishop及びPaolo Favaroによる「The Light Field Camera: Extended Depth of Field, Aliasing, and Superresolution」という論文の「Image formation of a Light field camera」という名称の第4節に見出すことができる。
また、本技法は、このような従来のカメラのピクセルの少なくとも一部分が、文献米国特許出願公開第2013/258098号に記述されるものと同じ方式(又は類似の方式)によって設計される場合、(更なるマイクロレンズアレイがメインレンズとピクセルのアレイとの間に位置決めされないという意味で)「従来のカメラ」にも適用され得ることに留意されたい。実際に、文献米国特許出願公開第2013/258098号は、いくつかの受光セクション(例えば、文献米国特許出願公開第2013/258098号で116及び117という参照符号が付与されるもの)の使用に起因して、ライトフィールドデータを記録することができるピクセルについて開示する。従って、当業者は、このような従来のカメラを、それぞれのマイクロレンズが、センサ104に含まれる2つのピクセル上で光線を集中させる、図1に描かれているある種のプレノプティックカメラとして、文献米国特許出願公開第2013/258098号の技法を統合するピクセルのアレイと比較し得るであろう。文献国際公開第2013/258098号の技法は、更なる受光セクションがピクセルのアーキテクチャ内で統合された場合、ピクセルが(2つの低い且つ高い受光セクションによって取得される)3つ以上のデータ情報を記録し得るという意味で一般化され得ることに留意されたい。本開示は、上述のようにライトフィールドデータを記録し得るピクセルを統合したこのような「従来のカメラ」のメインレンズの収差を低減することができる。
また、本開示は、文献米国特許出願公開第2010/0265386号若しくはSIGGRAPH 2007の議事録に公開されたA. Levinらによる「Image and depth from a conventional camera with a coded aperture」という名称の論文に描かれるコード化されたアパーチャ要素を含むか、又は1995年4月10日にApplied Opticsに公開されたEdward R. Dowski, Jr.及びW. Thomas Catheによる「Extended depth of field through wave-front coding」という名称の論文で言及される波面コード化技法を使用する装置など、4Dライトフィールドデータを取得する他の装置にも適用され得ることに留意されたい。
図3は、300という参照符号が付与されたマルチカメラアレイを概略的な方式で提示する。マルチカメラアレイ300は、302という参照符号が付与されたいくつかのレンズを含む、301という参照符号が付与されたレンズのアレイと、304という参照符号が付与された1つ又は複数のセンサアレイとを有する。マルチカメラアレイ300は、メインレンズを有していない。レンズのアレイは、多くの場合に小さい装置であり、これは、通常、マイクロレンズアレイと呼称される。単一のセンサを有するマルチカメラアレイは、メインレンズが無限焦点を有するプレノプティックカメラの特別な場合と見なし得ることは注目に値する。実際に、無限焦点距離を有するレンズは、光線に対して何らの影響も及ぼさない。
例えば、マルチカメラアレイは、文献国際公開第2014/149403A1号に描かれるものとしてのペリカンアレイカメラであってもよく、又はACM Transactions on Graphics, Vol 24, No 3, July 2005, pp. 765-776 (Proceedings of ACM SIGGRAPH 2005)に公開されたB. Wilburnらによる「High Performance Imaging Using Large Camera Arrays」という名称の論文でStandford Universityによって開発されたものとしてのマルチカメラアレイであってもよい。
図4は、3D空間内での402及び403という参照符号が付与された2つのプレーンの使用により、401という参照符号が付与された光線をパラメータ化するための方式を提示する。それぞれのプレーン402、403は、2つの法線ベクトルによって定義される(プレーン402の場合、

というベクトルがこれを定義し、且つ2D座標系(即ち、直交軸(x)及び(y)によって定義された座標系を使用することが可能であり、且つプレーン403の場合、

というベクトルがこれを定義し、且つ2D座標系(即ち、直交軸(x)及び(y)によって定義された座標系)を使用することができる)。光線がプレーンと交差した場合、(3つの成分を含む)交差点の座標を3D空間内で判定することができる。但し、光線の方向を取得するには、3D空間内の光線の方向を識別するために別のプレーンを使用する必要がある。パラメータ化に使用される2つのプレーンが平行であり、且つ(3Dデカルト座標空間内で)既知のz値を有することを考慮することにより、4つの座標(直交軸(x)及び(y)によって定義された2D座標系内の2つの値、並びに直交軸(x)及び(y)によって定義された2D座標系内の2つの値)と、このような光線の強度/放射輝度に対応する値Lとによってのみ、光線を識別することができる(「Light Field Rendering」という名称の上述の論文におけるこのようなパラメータ化に関する詳細を参照されたい)。従って、シーン内の光線の集合体として見なすことができるライトフィールドは、プレーンのペアによりパラメータ化することが可能であり、且つライトフィールドのそれぞれの光線は、4つの座標を有するポイントとして表される(例えば、

と、放射輝度値

とを有する光線401。表記法の乱用により、光線の座標は、

と表記される(これは、軸とも呼称されるx1、y1、x2、y2という項として誤解を招く可能性があるであろう)。
また、光線は、404という参照符号が付与されたプレーン又は405という参照符号が付与されたプレーン上に(正投影又は直交投影を介して)投影することも可能であることに留意されたい。プレーン404は、2つのプレーン402及び403に対して垂直であるプレーンであり、この場合、3Dデカルト座標空間内のyが一定の値を有する。プレーン405は、2つのプレーン402及び403に対して垂直であるプレーンであり、この場合、3Dデカルト座標空間内のxが一定の値を有する。図5(a)、図5(c)、図5(e)、及び図5(g)には、いくつかの光線のプレーン404上への投影の結果が描かれる。従って、図5(b)、図5(d)、図5(f)、及び図5(h)には、図5(a)、図5(c)、図5(e)、及び図5(g)にそれぞれ描かれる光線の2D光線図内の表現が付与される。実際に、(図5(a)、図5(c)、図5(e)、及び図5(g)に表される)それぞれの投影された光線は、2D光線図内のポイントにより表される(これは、文献国際公開第2013/180192号の図4Bでも説明される)。従って、2D光線図内のポイントは、投影された光線に対応する。プレーン405上における投影を検討することにより、類似の図を取得し得ることに留意されたい。
実際に、ライトフィールドは、4つの変数の関数であるため、一般的に示すことが非常に困難である。但し、2Dスライスを取得することが可能であり、且つ特定の光線がマップを2Dグラフ内に設定する方式を2つの異なる方式で理解することができる。図5(a)〜図5(h)は、x及びx軸に限定されたこのような2Dスライスの2つの異なる表現を示す。図5(a)は、コリメートされた光線の組を示し、図5(c)は、発散する光線ファンを提示し、図5(e)は、収束する光線ファンを提示し、且つ図5(g)は、プレーン403上に合焦された収束する光線ファンを提示する。図5(b)、図5(d)、図5(f)、及び図5(h)は、ライトフィールドデータ(即ち、その方向を有する光線)を2D光線座標系内にプロットする別の方法を提示し、これは、恐らく取扱い又は生成が相対的に容易であろうが、視覚化が相対的に困難であろう。
図5(b)から始まり、ここで、2D光線図に様々な入射の角度を有するコリメートされた光線の組をプロットする。光線の組がz軸に対して平行である場合、それぞれの光線は、(x=x+定数という事実に起因して)45°のラインに沿ってプロットされる。光線の組が上方を指し示す場合、ラインも2D図で上方にシフトし、且つ光線の組が下方を指し示す場合、ラインも下方にシフトする(負のx)。結論は、平行光線が45°のライン上にマッピングされ、且つ平行光線の組がz軸と角度をなす場合、相応してxライン切片がシフトするというものである。
図5(d)は、発散するビームを提示する。実際に、発散の様々な程度がプロットされる。赤色ライン上のマーカーは、無限大から発散する光線の組を表す。基本的に、これは、組がコリメートされることを意味する。図5(a)は、ラインが45°を有することと、xとxとの間の関係が線形であることとを既に示す。発散のポイントが無限大から軸xに向かって移動するのに伴って、2D光線図は、依然として線形であるが、ラインの急峻性が発散の量に伴って増大する。
限界点では、光線の組が発散するポイントがx軸上に位置する場合、光線は、2D光線図上で垂直方向軸xに沿ってプロットされるであろう。
図5(e)は、収束する光線の組を提示する。この場合にも、赤色マーカーラインは45°を有し、且つ無限大から収束するビームを表し、これは、この場合にも平行な光線の組である。収束のポイントがx軸に向かって移動した場合、光線は、減少するスロープのライン上にマッピングされるであろうことに留意されたい。
図5(g)は、収束ポイントがx上に位置する際の限界点である合焦された光線の組であり、この場合、図上のすべての光線が水平軸上に位置する。
光線を表すために、2つの2D光線図(Π(x,x)と表記される、プレーン404上への投影から導出されるもの(図5(a)、図5(c)、図5(e)、及び図5(g)を参照されたい)、並びにΠ(y,y)と表記される、プレーン405上への投影から得られるもの)が使用される場合、1つの2D光線図内のポイント(即ち、Π(x,x)内のポイント)と、他の2D光線図内に(即ち、Π(y,y)内に)含まれるポイントとの間のリンクを可能にする別の情報を保存する必要があり、且つ逆も真であることに留意されたい。図26には、サンプリングされたライトフィールド内のすべての光線について、このような明示的な追加情報の保存のバイパスを可能にする技法が記述される。但し、このような技法について理解するには、図6〜図24に鑑み、いくつかの意見及びコメントを付与する必要があるであろう。
図6は、ランダム光線ファンの2D光線図を提示する。
ランダムなライトフィールドを生成するために均一なランダム数生成器を使用することができる。次いで、ライトフィールドの基本的な表現としての2D光線図が、従って、単純な方式により、ライトフィールドの選択された部分をフォーマットから再生成する。
x値は、[−10;10]にわたって延在し、伝播の方向は、zであり、パラメータ化用の第2のプレーンは、z=1に配置され、且つ光線にランダムな方向が割り当てられる。均一に分散したランダムな光線方向を生成するには、例えば、[−15;15]内において、均一数生成器によりx成分をランダムに生成するのが相対的に良好である。図6は、対応する2D光線図を示す。予想されたように、||x||<10及び||x||<15内ではすべての場所に光線が存在し、ここで、||.||はユークリッドノルムである。
ここで、図5(a)〜図5(g)で予め識別される観察の証拠を取得することが望まれる。それは、特定のレンダリング用のいくつかの式を得る。とりわけ回答を要する疑問は、視点をレンダリングする方法、いずれかの別の場所で再合焦する方法、2D光線図内のいずれの光線がどのようなことを目的として使用されるかである。図6のもののような2D光線図内には、数百万個のポイントが存在し得るであろう。何らかの特定の画像をレンダリングするために、それらのすべてを試験又は追跡する必要があるであろうか。
コンピュータグラフィクスでは、レンダリングは、画像を生成するためにピンホールカメラを使用する。画像は、そのプレーンの前面の何らかの焦点距離において、ライトフィールドを小さい孔によってフィルタリングすることにより、プレーン上に形成される(例えば、「Understanding camera trade-offs through a Bayesian analysis of light field projections」という名称の上述の論文を参照されたい)。従って、画像のレンダリングは、「孔」の問題である。光線の観点から、これは、光線の組の収束又は発散についてサーチすることと均等である。
図17は、ライトフィールドと光線図との間の関係を分析するために使用される表記法を提示する。この図から、z≠zであり、且つz≠zである場合、

である。
式1と呼称されるこの式は、ピンホール又は視点(x,z)を2D光線図内の位置である記録されたライトフィールドパラメータ(x,z,x,z)にリンクし、なぜならz及びzが判明するからである。式1は、以前の節から予想されるように、ax+by=cの形態のラインである。また、予想されるように、そのスロープ(xの係数は、プレーンの1つに対するzにおけるレンダリングピンホールの深さの関数であり、且つy切片は、ピンホールのオフ軸位置xの関数である。ここで、その式のいくつかの限定的な場合を検討する。
a)軸上のコリメートされた光線ファン(z→±∞、x=0)
→±∞であり、且つx=0である場合、z軸に対して平行であるコリメートされた光線ファンの存在下であり、且つ式1から、

であり、これは、実際にx=xの線形関係である。従って、図6の2D光線図から、x=xの関係を順守する光線のみを選択及びレンダリングする場合、z軸に対して平行に伝播するライトフィールドからの光線のみを追跡する。
b)軸外しのコリメートされた光線ファン(z→±∞、x≠0)
軸外しのコリメートされた光線ファンの場合、zとxとの間にx=az+bの疑似変換関係が存在し、その結果、これを式1に代入した場合、

であり、図5(a)にこれが示されており、この場合、軸外しビームは、コリメートされたビームがz軸となすスロープに伴って変化するy切片を有する45°のラインである。この場合にも、2D光線図から、x=x+cの関係を順守する光線のみを選択及びレンダリングする場合、z軸との関係で何らかの角度を有する平行光線の組として伝播するライトフィールド全体からの光線を追跡する。図7(a)及び図7(b)は、この場合を正確に示し、図6の2D図から光線を選択することにより、軸外しの平行光線が追跡されることがわかる。実際に、図7(a)及び図7(b)は、図6の2D光線図からの光線のライトフィールドのフィルタリング及び再構築を提示する。更に正確には、図7(a)は、||L2D(x,x)−(x+5)||<0.1の選択基準に応じた図6の2D光線図内の光線の選択を描いており、この選択基準は、図7(b)に示される伝播の方向を有する平行な光線の組の選択を可能にする。実際に、図7(b)は、図6の2D光線図内の選択された光線からの再構築されたライトフィールドを描く。
c)合焦された光線ファン
「合焦された」により、z=zにおける第2のサンプリングライン後に所定のポイントに収束するファンを意味する。この場合、z>z及びz>zを有し、その結果、式1は、

として記述することができ、また、z>z及びz>zという条件は、

を意味する。
図5(e)及び図5(f)におけるように、軸上の光線ファンがx=0に収束する場合、関係は、45°未満のスロープ角度を有するラインを表す(α<1)。
これが実際に使用される方法を実証する。ライトフィールドを2プレーンサンプリングし、このライトフィールドから光線図を構築すると仮定する。依然として、4Dライトフィールドの2Dスライス内に位置する。この光線図は、図6からのものである。また、3つの視野のレンダリングを所望すると仮定する。これを目的として、光線が収束するz=z後、3つのピンホール、即ち3つのポイントを定義する。ここで、2D光線図上でラインx=αx+βxに沿ってそれらの光線を選択することが可能であり、ここで、|α|<1であることがわかる。
それぞれ位置C(z=+2,x=0)、C−1(z=+2,x=−2)、及びC+1(z=+2,x=+3)に配置された3つのカメラを定義する。z=0及びz=1と設定する。それらの値が式1で設定されたら、2D光線図上で以下の3つの関係を順守する光線を選択しなければならない。
図9は、選択基準が

である状態における図6の光線の選択を提示する。図10は、(図9で選択された)選択済みの光線のレンダリングを描く。
d)発散する光線ファン
「発散」は、z=zにおける第1のライン前に設定されたポイント(z<z,x)から発散するように見える光線ファンを意味する。z<z<zでは、z−z>z−z>0を取得し、且つその結果、スロープαは、

である。
発散するビームは、45°超のスロープを有するラインとして2D光線図内にマッピングされる。
e)第1のパラメータ化ライン上の発散光線ファン
発散のポイントは、z=zに配置することができる。この場合、式1を書き直すことが可能であり、且つx=xを得る。第1のプレーンから発散するように見える光線を光線追跡するには、2D光線上で垂直方向のラインを選択しなければならない。
f)第2のパラメータ化ライン上の収束する光線ファン
式1から、z=zと設定した場合、x=xを得る。第2のプレーンに対して収束する光線ファンは、2D光線図上で水平方向のラインとしてマッピングされる。図11及び図12は、(z,x)=(1,5)によって取得されたものである。
g)リアルレンズの場合
ピンホールは、抽象的な物体であり、リアルレンズモデルを使用することによるライトフィールドのレンダリングを所望する場合、レンズの入口瞳孔の位置及びサイズを知る必要があり、且つ次いで、入口瞳孔を通じて進行する光線を光線図内で選択する必要がある。入口瞳孔が(z,x)に位置し、且つそれが、zに対して平行であるレンズ軸と共にアパーチャ直径Aを有する場合、その座標が式1を充足するが、x

内で変化する光線図のすべての光線ポイントを光線図内で選択する必要がある。
図13及び図14では、入口瞳孔は、(z,x)=(4,7)に位置し、そのサイズA=6であり、且つこのサイズに起因して、2D光線図内には、選択される必要があると共にラインセット全体に属する光線をトレースする必要がある平行なラインの完全な組が存在する。
ここで、2D光線図に対するラドン変換の適用の観察に焦点を当てる。上述のように、光線がそれに向かって集中するピンホールが存在する場合、それらの光線の2プレーンパラメータ化は2D光線図内のラインとして表される。例示を目的として、3つのカメラの2つのグループによってキャプチャされるライトフィールドをセットアップする。カメラの第1のグループは、(x,z)={(10,2);(2,2);(−5,2)}の第1の深さに位置し、且つ第2のグループは、(x,z)={(6,14);(−3,14);(−9,14)}の別の深さに位置する。すべてのカメラは0.1単位の入口瞳孔を有する(単位は、メートルやセンチメートルなどのいずれかであってもよい)。パラメータ化プレーンは、z=0、z=1に設定され、且つプレーンのサイズは、|x|≦10、|x|≦10単位である。両方のプレーンは、2D光線図が1000×1000ピクセル画像によって表されるように、1000個のセルによってサンプリングされる(図15を参照されたい)。
次いで、以前に教示されているように、(3つのカメラの2つのグループの2D光線図であり、第1のグループが、プレーンz=2におけるピンホールの組と、プレーンz=14における第2の組とを有する)図15を観察するのみで、3つのラインの2つの組が存在し、それぞれのグループは異なる深さに設定されることがわかり、なぜなら、2D光線図上では異なる深さが異なるスロープを結果的にもたらすからである。従って、この観察から、この表現を効率的に圧縮するための余地が存在するように、この図では、送信のために又はライトフィールドのレンダリングのために特定のラインのみが重要であることがわかる。
2D光線図からのいずれの値が重要であるかを定義する自然な方法は、図からすべてのラインを検出することである。これは、ラドン変換の使用を介して実現することができる。オーストリアの数学者であるJohann Radonにちなんで命名された2次元のラドン変換は、直線上における関数の積分から構成された積分変換として定義される。
この変換は、2D光線図をライトフィールドの特徴を効率的に判定するパラメータ空間内にマッピングする。図16はシノグラムであり、これは、図15の2D光線図に対して適用されたラドン変換の視覚化である。これが、3つのうちの2つのグループにおける6つの局所的な最大値を示すことがわかる。ラインθ≒42に沿った第1のもの及びθ≒27°に沿った第2のものである。
図17は、3D空間内における一般的な視点のレンダリングのために使用される座標系を提示する。
また、図4に描かれるパラメータ化に起因して、パラメータ化されたライトフィールドのレンダリングを所望するポイント(このようなポイントは、z=zに配置されたプレーン内に位置決めされ、図17を参照されたい)と、パラメータ化プロセスで使用される2つのプレーンとの交差ポイント(それぞれ図17のz=z及びz=zでz軸に対して垂直である2つのプレーンを参照されたい)との間に
(z−z)(x+y)+(z−z)(x+y)=(z−z)(x+y
が成立することを実証することもできる。
すべてのzがわかっているため、式2と呼称されるこの式の唯一のパラメータは、4つのパラメータ(x,y,x,y)である。式2は、ポイント(x,y,z)を通じて影響を及ぼす(若しくは収束するか、又は均等な式が「画像を形成」する)すべての光線が、リンクされたその4つの座標を有することを基本的に意味する。
また、式2は、

内のハイパープレーンを定義することにも留意されたい(Rendering Techniques’97, Proceedings of the Eurographics Workshop in St. Etienne, France, June 16-18, 1997に公開されたX. Guらによる「Polyhedral geometry and the two-plane parameterization」という名称の論文を参照されたい)。
この場合にも、これは、2プレーンパラメータ化されたライトフィールドからの画像のレンダリングを所望する場合、ハイパープレーンの近傍における光線のみをレンダリングすることを意味する。それらのすべてを追跡する必要はない。当然のことながら、すべてが良好に機能し、なぜなら、常に伝播の方向又はレンダリングの方向にパラメータ化プレーンを選択するからである。
2Dにおける表現フォーマットに関するいくつかのコメント
ライトフィールドが2つのプレーンによってパラメータ化される場合、位相空間内におけるその表現(即ち、4D光線図)は4D空間の一部分を占有する。プレーンは有限寸法を有するため、その位相空間内のプレノプティック機能の4Dサポートはコンパクトである。この結果、パラメータ化されたライトフィールドを保存するために必要とされる空間を推定することができる。2Dスライスの場合と完全な4Dの場合との両方を検討する。また、プレーンは、1000×1000個のセルによってサンプリングされると仮定する。これは、2D位相空間が1000×1000個のセルのマトリックスによって表され、且つ4D位相空間が1000個のセルのマトリックスによって表されることを意味する。セルと関連付けられた光線のスペクトルが、通常、8ビットによって量子化された赤色(R)、緑色(G)、及び青色(G)である3つの帯域によってサンプリングされる場合、色は、24ビット、即ち3バイトの値として保存される。この特定の場合のそれぞれの4D表現が2.8Tバイトのストレージを必要とすることがわかる。
また、図15から、マトリックスが非常にまばらに入力され、何らの値も有していない多数のセルが存在し、且つこの場合がこのライトフィールドについて一般的であることがわかり、なぜなら、これが離散取得手段によってキャプチャされるからである。4D表現のマトリックスは、比例してその入力が更に少なくなり、その結果、巨大なマトリックスを操作することが意味をなさなくなる。まばらなマトリックス表現で実行されるものと同様に、恐らくこれを回避するための方法を見出すことができる。
また、2Dスライス化表現の場合、光線がラインの近傍に沿ってマッピングされることも観察した。4Dの場合、これらはハイパープレーンの近傍にマッピングされる。
以下の説明を2Dの場合に制限する。離散ラドン変換によってラインのパラメータを見出すための手段を有するため、代表値が存在するマトリックスの領域を見出すことができる。
説明を例証するために、以下で開示される主要な概念を理解するための一例を挙げる。図18は、見出しに記述されるシステムの2D光線図を示す。更に正確には、図18は、x3=2、z3=2の位置で1つのカメラによってキャプチャされた光線の2D光線図を描いており、この場合、アパーチャは、|A|<0.5であり、且つこの場合、パラメータ化するために使用されるラインは、256個のセルによってサンプリングされる。図18に示される画像をマトリックスとして解釈した場合、これが非常にまばらに入力されることがわかる。生じる疑問は、このマトリックスからどのようにして代表データのみを抽出することができるか、これを(当然のことながら構造化された方式で)ファイル内に保存するための最良の方法はどのようなものであるかである。光線が4D位相空間マトリックスの代わりにファイル内に個々に保存される場合にも、これは、それぞれの光線について、それぞれの位置x又はyについての少なくとも2バイトと、加えて色用の3バイトとを保存することを必要とする。これは、2Dスライス化ライトフィールドの場合には光線毎に7バイトであり、且つそのフル4D表現の場合には光線毎に11バイトである。また、その場合にも、光線は、ファイル内にランダムに保存され、これは、表現を操作する必要がある多数の用途で非常に不適切であり得るであろう。
デジタルラインのビーム
光線がラインに沿ってマッピングされることがわかるため、ラインのパラメータ(関係するスロープs及び切片d)と、次いでそのラインに属する光線の集合体と、次いで次のラインパラメータ及び個々の光線などとを順番に保存することが相対的に効率である。
これは、s用の2バイトと、d用の2バイトと、次いで光線毎に3バイトのみとを必要とし、これは、色データとの比較でラインパラメータのオーバーヘッドを無視した場合、それぞれ2D及び4D光線表現で1:2及び1:4の圧縮比を提供する。更に、光線は、ファイル内でラインに沿って順序付けられるであろう。マトリックスセルを通じてラインを設定するには、最小限の誤差によってそれらを近似する、いわゆるデジタルラインを定義する必要がある。離散ラドン変換を専門とする文献に定義される一般的な定義及びデジタルラインに準拠する(例えば、Pattern Recogn., 28(12):1985-1992, Dec. 1995に公開されたW. A. Goetz及びH. J. Druckmuellerによる「A fast digital radon transform-an efficient means for evaluating the hough transform」という名称の論文、及びProc. Natl. Acad. Sci. USA, 103(51):19249-19254, 2006)におけるW. H. Pressによる「Discrete Radon transform has an exact, fast inverse and generalizes to operations other than sums along lines」という名称の論文を参照されたい)。
この段階では、デジタルラインは、ブレゼンハムアルゴリズムによって生成される。更なる進歩した再帰的なタイプのデジタルライン生成については後に示す。以前の参照文献から、デジタルラインは、(0,d)及び(N−1,s)のグリッドの2つのポイントによって定義され、この場合、パラメータsは、次式:

により、ラインのスロープと結合される。ここで、s∈{0,1,…,N−1}であり、dは、切片であり、且つd∈{0,1,…,N−1}である。
例えば、d、s及びデジタルラインのx軸の付番の図である、図19を参照されたい。以前に理解したように、デジタルラインを1つのオクタントに制限することが可能であり、これは、

内の第1のもの、又は

内の第2のオクタントである。
これまで、ラインの2つのポイントのみを有している。これは、分析ラインの場合には十分であるが、ここで、分析ラインを近似するグリッドポイントも提供しなければならない。デジタルラインを取得するための最も簡便な方法は、分析ラインをその最も近いグリッドポイントに丸めることである。ブレゼンハムのアルゴリズムは、最小限の演算数によってこれを実行するための方法を提供し、上述の文献で開発された方式は、高速離散ラドン変換計算に対して相対的に良好に適合された代替定義を付与する。ブレゼンハムの実装は、http://www.cs.helsinki.fi/group/goa/mallinnus/lines/bresenh.htmlという参照文献から適合されている。上述したように、この分析は、1オクタントに制限される。この特定の場合、d≦sとなるように0≦a≦1を有する。
ここで、同じスロープaを有するが、異なる切片dを有し、且つラインのファミリーが連続的であるデジタルラインのファミリーを検討する。このデジタルラインのファミリーを「ビーム」と呼称する。図20は、同じs−d値を有するが、異なるd切片を有する、この定義による6つのデジタルラインのビームを示す。ラインのビームが入射する領域内の特定のピクセルは、1つの一意のラインにのみ属する。
従って、まとめると、サンプリングされたラインのペア(2Dにおける)によってパラメータ化されると共に1つのカメラに属する光線データは、データを表すために使用される位相空間内でデジタルラインのファミリー(ビーム)に属する。ビームのヘッダは、単にビームのスロープa及び太さdmax−dminを含むことができる。光線値は、そのヘッダがd及びsであり得るデジタルラインに沿ったRGB色として保存される。ファイルは、サンプリングされた空間の光線図のボイドセルを保存しない。ファイルは、光線の座標x、xも保存せず、これは、d、s、及びデジタルラインに沿ったセルの位置から推定される。図21は、これらの意見を考慮したフォーマットの説明であり、これについては後述する。
デジタルラインのビームの特徴を判定するための離散ラドン変換
以前のフォーマットが交換及びレンダリングの基礎として実装可能及び使用可能となるには、フォーマットの内部における記述を要する基本的なパラメータを計測又は推定し得ることが少なくとも望ましい。ライトフィールド又はカメラの形状からの推定を要するパラメータは、スロープaと、デジタル切片の下部及び上部境界(dmin、dmax)と、次いでデジタルラインパラメータ(d,s)とである。離散ラドン変換は、光線図内のライトフィールドのサポート場所を計測するためのツールとして説明される。
図23は、デジタルラインパラメータ空間(d,s)内の離散ラドン変換を示し、これは、シノグラムの(ρ,θ)空間と混同されてはならない。
更に正確には、図23は、図18からの分布の離散ラドン変換を示し、且つ図24は、図23に含まれる対象の領域内へのズームである。デジタルラインのビームは、最大値パラメータについてのサーチによってスポットされる。DRTの対称性の幾何学的な中心と最大値の実際の位置との間には、画像コンテンツに起因して何らかのオフセットが存在する可能性があり、その結果、最大値の代わりに、対称の中心を正確に特定するためのアルゴリズムを後に見出さなければならない。統合ラインに沿ってRGB値を合算する代わりに、統合ラインに沿って光線の数/セルを合算することにより、コンテンツのバイアスを伴わない最大値の特定を実行することが可能であり、これはむしろハフ変換である(ラドンのバイナリバージョン)。その結果、図24に示されるビーム変換のウエストを見出すことが容易であり、且つこれは、フォーマット内に使用される値(dmin,dmax)を直接的に付与する。実際に、ポイント(dmin=74,s=201)は、図18からのデジタルラインのビームの下部エンベロープであり、且つ(dmax=81,s=208)は、デジタルラインのビームの上部エンベロープである。
これらの値を取得したら、図21によって規定されるフォーマット内へのデータの入力を開始することができる。
直交2Dラドン変換によるハイパープレーン場所の評価
a)原理
恐らく、このライトフィールドを表す方式で最も懸念されるのは、光線データのハイパープレーンを見出すための4D空間内における作業の必要性であろう。以下の分析では、2つの直交2D−DRTのみにより、ハイパープレーン全体の場所及び容積を評価し得ることを示す。
式2から2つの直交2Dスライス化空間の式を記述する。
(z−z)(x+y)+(z−z)(x+y)=(z−z)(x+y
また、x座標の2Dスライスを取得する場合、光線データが(x,y,z)におけるサイズAのアパーチャを通じてマッピングされるラインのビームの式は、

である。
同様に、y座標の2Dスライスを取得する場合、

である。
以前の節に従って、m及び

の値を離散ドメイン内で評価することができる。
上述のフォーマットによって定義されたライトフィールドの特性を局所化するには、4D離散ラドン変換を実行する必要はない。2つの直交2D−DRTを実行する場合、ハイパープレーンのスロープmと、すべてのデータが4D光線図内に集中するデジタルハイパープレーンのビーム幅とを計測することができる。
この場所の相対的に単純な手順は、

がすべてのハイパープレーン切片を包含し、フォーマットで記述されたいくつかの値が値を含まなくなるように円形の入口瞳孔Aを仮定する。
b)例
節3からの例を4Dの場合に拡張する。(x,y,z)=(2,5,2)に配置されたカメラを有すると仮定する(即ち、カメラ位置は(x、y、z)である)。xにおけるサンプリングされた光線図内の2Dスライスは、図18に表されるものと同じであり、且つ2D−DRTは図23からのものである。図25も、同様にyの2D−スライスにおける直交2D−DRTを示す。更に正確には、図25は、2つの2D光線図Π(x,x)及びΠ(y,y)のみならず、これらの2D光線図に適用された離散ラドン変換の結果も描く。
2D−xSlice DRTから、ハイパープレーンm=0.5059のスロープの評価を取得し、且つ2D−ySlice DRTからm=0.4980の別の独立的な評価を取得する。節a)における式から、真の値はm=0.5である。わずかな差は、デジタルラインのビームを変換するという事実に由来する。従って、2Dラドン変換の最大値は幅広であり、且つ最大値の評価における不確実性が存在する。両方の2D−DRTにおけるウエストの計測から、xにおけるビームエンベロープの場合、

であり、且つyにおけるビームエンベロープの場合、

であることを見出す。これらの値は、正確に予想されたものである。
ここで、残されているのは、図21で導入されたフォーマットを4Dのコンテキストに拡張するための方法を見出すことである。
c)マルチカメラの場合
マルチカメラに属するライトフィールドを有する場合、DRTの線形性を利用してそれぞれのカメラが占有するパラメトリック容積を再帰的に推定することにより進めることができる。
2つの直交DRTを実行すると共にその最大値に属するデジタルハイパープレーンの最大値及びエンベロープを求めることを開始することができる。すべてのパラメータを得たら、4D光線図又はそれらが保存されるファイルからすべての光線を消去することが可能であり、且つ4D光線図を空にする時点まで、再度、直交DRTのペアにより、第2の最大値の特定などを開始することができる。
2Dの場合について提案されるもの、即ち図21のテーブルに類似した4Dの場合のフォーマットの取得に関心が持たれるであろう。これを実行するために、Π(x,x)プレーン上に見出される2DラインをΠ(y,y)プレーン上に見出されるライン、即ちΠ(x,x)及びΠ(y,y)の2つの直交スライスとの対応するハイパープレーンの交差の結果であるラインに対して関連付けることに関心が持たれるであろう。節a)に記述される式から、対応するラインが同じスロープmを有することがわかる。これは、特定の深さにおけるカメラにおいて、Π(x,x)上のそれぞれのラインをΠ(y,y)内のラインに対して関連付ける第1のパラメータである。ここで、同じ深さに複数のカメラを有する場合(即ち、図15の場合)、mという同じ推定されたスロープを有するΠ(x,x)内の3つのライン及びΠ(y,y)内の3つのラインを有する。次いで、これらの2つのプレーン内のライン間のラインオフセットにおける対応性を判定する必要がある。これを実行するために、節a)で言及される式中のラインの式を活用する。具体的には、

と表記することにより、以下のように、オフセットを得る。
k、x、及びyについて、これらの式の組を解くことができる。(x,y,z)は、カメラの座標であり、又は換言すれば、カメラの半径Aの出口瞳孔の中心でもある投影の中心であることに留意されたい。

となるように、zに位置決めされたプレーン上のアパーチャが円形であると想定し、且つ以前の式の組を解くことにより、

が得られる。
ここで、ブレゼンハムのデジタルラインを使用することにより、Π(x,x)上で以前と同様にデジタルラインをスキャンする。Π(x,x)上のそれぞれの個々の(x,x)値について、ライトフィールド内でキャプチャされた、Π(y,y)内の対応する(y,y)値を保存する必要がある。このような値を見出すために式2を活用する。以下のすべては、既知であるか又は上述の式から推定される。
ここで、それぞれの

について、Π(x,x)内のそれぞれのライン上で移動することにより、以下のような(y,y)における関係を得る。

従って、

である。
(Π(x,x)内で識別されたラインのラインパラメータの代わりに)Π(y,y)内のラインパラメータをフォーマットに保存することを所望する場合、Π(y,y)のポイントからΠ(x,x)内の対応する値を回収するために同じ式を適用し得ることに留意されたい。
ここで、カメラのアパーチャは、半径Aを有する円である。従って、変数y はy±Aで変化する。この結果、Π(x,x)内のそれぞれのポイントについて、Π(y,y)内のラインの集合体を保存する必要がある。従って、

は、スキャンされると共に

について保存される必要があるラインのオフセットに対応する。これが機能する方式を描き出すために、図20を参照することができる。着色された正方形のそれぞれのものは、

ポイントであり、且つこれらのポイントのそれぞれについて、描かれるものに対して垂直であるが、4D空間内に位置する、式

によって定義されたデジタル束に沿って図のプレーンから外に延在するブレゼンハムデジタルラインの組が存在する。
ここで、コンパクトなライトフィールド表現フォーマットは、以下のように定義される(図22(a)を参照されたい)。まず、4つの軸の境界及びその対応するサンプリングという4D空間の一般的なメタデータを提供する。次いで、カメラ(束)の数を提供する。それぞれのカメラについて、テーブル内にブロックを生成し、且つカメラjについて以下のパラメータを保存する。
− アパーチャAのサイズに対応するcam
− focusPoint=(x,y,z
− dと表記された(x、x)内の最小cam切片
− camの急峻性に対応するm
− camの(x,x)におけるデジタルラインの数に対応する

− camの(y,y)におけるデジタルラインの数に対応する
次いで、このカメラ上でそれぞれの

について、ブレゼンハムデジタルラインを使用することにより、式

との関係で(y,y)のスキャニングを開始し、且つRGB値を保存する。具体的には、y がy −Aからy +Aまで変更され、且つ対応するdoffが、

に従って算出される。保存されたメタデータを使用することにより、同じ計算がデコーディングステップで実行される。具体的には、

を判定することにより、kが見出される。従って、フォーマットはコンパクトな状態に留まる。システム内でそれぞれの光線について4つのインデックスを保存する必要はない。加えて、アパーチャサイズが判明し、且つすべてのカメラについて同じと仮定することに留意されたい。但し、フォーマットを一般的な状態に維持するために、これをそれぞれのカメラについて保存することを提案する。
上述のハイパープレーンのサンプリングは、4D光線空間のサンプリングであり、且つ単一のx,y,x,y場所を見逃さないことを確実にしている点に注意されたい。
これは、すべてのデータを非常にコンパクトな形態に保存するための4D光線空間のシステマチックなスキャニングの一例に過ぎない。当然のことながら、他の方式が存在し得るであろう。パラメトリック形態は、ハイパープレーンを調査するために適合されるように思われ、なぜなら、それは、インターリーブされた空間調査を許容するからである。
マルチカメラの場合
ハイパープレーンのいくつかの束(複数のカメラに起因したラドン変換におけるいくつかの極大値)を含むデータについて作業するために、貪欲なアルゴリズムを使用することができる。事前処理ステップとして、パラメータ(m,k)がΠ(x,x)に対するラドン変換におけるすべてのピークについて見出され、且つ1つの組として配置される。同じ内容が(y,y)におけるピークについても実行され、且つパラメータが別の組として配置される。ここで、貪欲なアルゴリズムのそれぞれの反復において最大ピーク強度が(x,x)の2Dラドン変換に見出され、且つ予め見出されるパラメータ(m,k)をマッチングさせることにより、(y,y)内の対応するピークが見出される。直前の節で言及されるようにデータを保存した後、これらのピークは、ラドン変換からクリーニングされ、且つ有意なものがライトフィールド内に存在しなくなる時点まで次の反復が開始される。
図22(a)内のコンテキストは、1つのライトスラブに限定されることに留意されたい。但し、これは、6つのライトスラブが使用される際のコンテキストに一般化することができる。図22(c)及び図22(d)は、二重ボックス内に封入され得る物体(ペンギン)を描いており、この物体の側部は、二重ボックス/キューブの外側に配置されたいくつかのランダムに分散されたカメラによってキャプチャされる放出ライトフィールドをパラメータ化するためのライトスラブを構築するために使用される。従って、図22(a)のファイルフォーマットは、6つのライトスラブのタグを保持するように拡張することができる。+zは、既に予め仮定されるが、ライトフィールド全体の完全なパラメータ化を得るために−z、+x、−x、−y、+yを追加することができる。
次いで、6つの向きのそれぞれに対して、パラメータ化プレーンを参照するための座標系が割り当てられる。方向w∈{−z,+z,+x,−x,−y,+y}のパラメータ化を所望すると仮定する。この方向に対して、成分(u,x,w)を有する座標系

が割り当てられる。プレーンがw及びwに設定され、且つそれらの寸法はumin、umax、及びvmin、vmaxである。4D光線空間は、u、u、v、vにおける成分を有する。
図22(b)は、図22(a)のフォーマットの一般化を提示する。図22(b)は、2つのライトスラブのみを提示するが、一般に、用途と、更にシーンとに応じて1〜6の任意の数のセクションが存在し得る。値1は、1つの方向のみにおけるライトフィールド伝播用のフォーマットとなり、且つ6の値は、すべての方向におけるライトフィールド伝播用のものとなるであろう。ライトフィールドをパラメータ化するために使用されるプレーンは、必ずしもチューブ/ボックスの面ではなく、且つプレーンのそれぞれのものは、凸状キューブを構築するようにそのサイズの制限を有する必要がないことに留意されたい。
図26(a)は、コンパクトなライトフィールド表現を提供する方法のいくつかのステップを提示する。
本開示の一実施形態では、ライトフィールドコンテンツは、電子装置に対して提供される。このようなライトフィールドコンテンツは、例えば、先に詳述した4Dライトフィールドデータ又は光線の2プレーンパラメータ化であってもよい。
2000という参照符号が付与されたステップでは、ライトフィールドコンテンツが2つのプレーンの使用を介した光線のパラメータ化によって表されない場合、ライトフィールドコンテンツの光線のパラメータ化が2つのプレーンの使用を介して実行される。図26(b)は、4Dライトフィールドデータ又は従来の2D画像からの2つのプレーンの使用を介した光線のパラメータ化に基づいた表現への変換を描く合成方式を提示し、これは前記ステップ2000に対応する。
次いで、2001という参照符号が付与されたステップでは、1つのプレーン上における光線の投影が(プレーン405又はプレーン404上で実行され、且つ1つの2D光線図(即ち、プレーン404上の投影が使用される場合の2D光線図Π(x,x)、又はプレーン405上における投影が使用される場合の2D光線図Π(y,y)の生成が実行される。前記1つの2D光線図の生成は、2つのパラメータ化プレーンのサンプリングから直接的に取得し得ることは明らかである。
2002という参照符号が付与されたステップでは、2D光線図内の対象のいくつかのラインを識別するために、離散ラドン変換が、ステップ2001で出力された2D光線図に対して適用される(即ち、離散ラドン変換は、ステップ2001の出力に応じて、Π(x,x)又はΠ(y,y)に対して適用される)。
2003という参照符号が付与されたステップでは、ステップ2002における識別されたラインをエンコードするためにブレゼンハムアルゴリズムが使用される。これは、例えば、識別されたラインパラメータd及びsを供給する。一変形形態では、これは、パラメータdと、識別されたラインのスロープとのみを供給する。(上述のように)いくつかの識別されたラインがビームに属する場合、ビームのスロープ及び太さを保存することができる。
2004という参照符号が付与されたステップでは、ライトフィールドコンテンツがコンパクトな方式で保存される。実際に、ステップ2002における識別されたラインを別の2D光線図内のラインと関連付けることが可能であるため、前記別の2D光線図内の座標を保存する必要はない。実際に、ステップ2001における出力された2D光線図が2D光線図Π(x,x)に対応する場合、Π(x,x)内の識別されたラインは、2D光線図Π(y,y)内の同じスロープを有するラインと関連付けられなければならないことがわかり、且つ更に正確には、以下の式:

が成立するため、識別されたライン上のそれぞれのポイント(即ち、識別されたラインに属するため、明示的に保存される必要がない座標

を有するポイント)について、ポイントの集合体

のポイントを「通過」する対応する光線の値(即ち、RGB値)が保存される。但し、いくつかの場合、対応する光線が存在せず、且つヌル値が保存される。例えば、識別されたラインを提示する図19の値を取得することにより、電子装置がライトフィールドコンテンツを保存しなければならない場合、yの値がプレーンの境界の外になる時点まで、座標x=0,x=5,y=0,及びy=m.0+doff(0,5、x,y*)を「通過」する光線(又は更に正確には、そのような光線の投影)の値(即ち、RGB値)のみならず、x=9,x=5,y=1,及びy=m.1+doff(0,5,x,y*)を「通過」する光線の値(即ち、RGB値)なども保存される(例えば、x=0,x=5,y=15,及びy=m.15+doff(0,5,x,y )を「通過」する光線の値(即ち、RGB値)は、それがプレーンの境界の外であるために保存されない。次いで、y2の値がプレーンの境界の外になる時点まで、座標x=1,x=6,y=0,及びy=m.0+doff(1,6,x,y )を「通過」する光線の値(即ち、RGB値)のみならず、x=1,x=6,y=1、及びy=m.1+doff(1,6,x,y )を「通過」する光線の値(即ち、RGB値)なども保存される。同じプロセスは、識別されたライン上のそれぞれのポイントについて(即ち、ポイントx=15,x=13の処理の時点まで)反復される。ライトフィールドは、ステップ2002で識別されたラインに属するすべてのポイントが処理された際、このコンパクトなフォーマットでエンコードされる。
図26(b)は、4Dライトフィールドデータ又は従来の2D画像から2つのプレーンの使用を介した光線のパラメータ化に基づいた表現への変換を描く合成方式を提示する。
一実施形態では、ピクセルバック追跡動作を介して、従来のカメラから(即ち、ピクセルの組を有する従来の2D画像から)、ラフ/平均ライトフィールド表現に対応する光線の組を取得し得ることに留意されたい。
本開示の一実施形態では、(例えば、プレノプティックカメラ又はカメラアレイを介して取得された)入力される4Dライトフィールドデータは、光線の集合体を抽出し得るピクセルの組を有する。このような光線の集合体を抽出するために、変換する方法は、ピクセルを光線に変換し得るピクセルバック追跡方法/動作を含む。実際に、4Dライトフィールドデータの表現の1つをサブアパーチャ画像の組(即ち、同時に又は近接した時点で取得された異なる視点からの画像の組であり、それぞれの画像は、ピクセルセンサと仮想的に関連付けることができる)に変換することができるため、従って、サブアパーチャ画像の組に含まれるそれぞれの画像に対してピクセルバック追跡を適用することにより、4Dライトフィールドデータの光線表現を取得することができる。
光線の組がピクセル(又は仮想的なピクセル)から抽出されたら、パラメータ化動作が電子装置によって実行される。このようなパラメータ化動作は、4つの座標(即ち、2つのプレーンとの光線の交差の座標)として光線を表すために2つのプレーンの使用を有する(これらのプレーンが有限プレーンであるのは明らかである)。
以下では、「従来」の2D画像からのピクセルバック追跡動作に関係した詳細が付与される(次いで、このピクセルバック追跡動作は、上述のように4Dライトフィールドデータ用の光線表現を取得するために、サブアパーチャ画像の組に含まれるいくつかの(又はすべての)画像に対して適用される)。わかりやすさを目的として、カメラの投影の中心が(0,0,0)に位置し、画像プレーンが(0,0,f)でセンタリングされると想定する。カメラは回転されず、その主軸はZ方向を指し示す。また、m=m=m個のピクセルとなるようにピクセルが正方形であるとも想定する。最後に、底部左側のピクセルが(u=0,v=0)に位置するように、画像プレーンが(t,t)だけ平行移動される。ピクセルは、その列インデックのペア(i,j)によってアドレス指定される。Iがピクセル(i,j,1)における画像位置ベクトルである場合、ピクセルと、中央投影を通じてそのピクセルに対してマッピングされるポイントP(X,Y,Z)との間の関係は、

である。
また、ここで、m、f、t、tが較正ステップから判明することにより、ピクセルのバック追跡は、単純に、
−1I=P
をもたらす。
Pは、ピクセル(i,j)から放出された光線が通過する3D空間内のポイントである。従って、1つの位置Pを有し、方向の取得は証拠の問題であり、なぜなら、その光線が(0,0,0)も通過するからであり、方向はベクトルP(X,Y,Z)である。
この例は、ピクセルをバック追跡する方法を示し、又は換言すれば、ピクセルからライトフィールドまで進む方法を示す。
4Dライトフィールドデータを処理する場合、マルチカメラモデルを使用することができる(即ち、サブアパーチャ画像のそれぞれに対してカメラが関連付けられる)。
パラメータ化は、いくつかのタグによって一意にそれぞれの光線を識別するプロセスである。光線は、所定の位置を通過し且つ方向を有するため、最も簡便なパラメータ化は、空間及び方向座標を混合した6つの実数(x,y,z,u,v,w)の組となるであろう。わかりやすさを目的として、ここで、既に上述した2プレーンパラメータ化を採用する。非常に頻繁に問われる疑問は、それらのプレーンを取得システムとの関係でいずれの箇所に配置するかである。多くの場合、特に、プレノプティックカメラの文献では、何らかの計算上の利便のために、1つがセンサに配置され、且つ別のものが小型レンズのアレイ又はメインレンズ上に配置される。これらの位置は回避されるべきであり、なぜなら、マイクロレンズが厚さを有するからであり、では、プレーンの1つを正確にいずれの箇所に配置するべきであるか。メインレンズは、未知である非常に複雑なレンズ処方を有する。従って、一実施形態では、解決策は、プレーンを取得システムの外側に配置することである。
1つのプレーンをz=zに有し、且つ別のものをz=zに有し、ここで、z>zと仮定する。ピクセル(i,j)からバック追跡された光線用のパラメータを、

として見出すことができる。
連立方程式が記述されたら、2つの第1のラインをzによって除算しなければならず、なぜなら、これが均一な座標のための規則であるからである。
また、第2のプレーンとの交差に由来するパラメータの第2の組も、

のように記述される。
(z,z)という対が判明するため、以前の導出から、光線は、4アップレット

により一意に記述し得ることがわかる。加えて、光線にはRGB値が割り当てられる。従って、このパラメータ化で光線を表すには、合計で19バイトである、4小数点数と3バイトとを必要とする(但し、これまで光線空間をサンプリングしていない)。画像に基づいたフォーマットでは、基礎的データは、2小数点数と、3バイトとのみによって表される。従って、このパラメータ化が多数のデータをコンテンツに追加し、且つ一般に、ライトフィールドは、4次元データの組であるため、それが、そのままでは管理可能でないストレージの量を必要とすることがわかる。
図26(c)及び図26(d)は、光線がピクセル(又は仮想的ピクセル)センサから「抽出」される方式を提示する。実際に、261又は264という参照符号が付与されたピクセル(又は仮想ピクセル)から(262又は263という参照符号が付与された)主光線を取得することができる(これは、ピクセル場所におけるコーン(コーンには、265という参照符号が付与される)のピークを通じてコーンのベースの中心まで通過する光線である(ベースは、カメラのメインレンズのサイズの関数として定義される)。
パラメータ化のために使用される2つのプレーンのサンプリングが過剰に幅広である場合、図26(a)に記述される方法を使用する際に消失データ又はピクセルクロストークが依然として発生し得ることに留意されたい。本開示の一実施形態では、パラメータ化プレーンをサンプリングするための技法に関係した詳細について後述される。このような技法は、サンプリングが消失データ又はピクセルクロストークを回避するような方式により、図21及び図22に記述されるライトフィールドフォーマットにおけるデータの入力を可能にする。
図27(a)は、本開示の一実施形態による方法のサンプリングステップを導出するために使用されるパラメータを提示する。図27(a)の図は、プレーンP上の投影に対応する。このようなプレーンは、Π(x,x)又はΠ(x,x)などと同じあることに留意されたい。
図27(b)は、いくつかの更なる要素を伴って図17の3D表現に対応する。
更に正確には、最初に、1つのカメラを有すると想定すると共に、一般性の何らの損失も伴うことなく分析を2Dスライスに制限するものとする。焦点距離fのカメラの投影の中心は、座標(x,y,z)に位置し、且つz−z=fとなるような深さzでピクセルアレイを有する。ピクセルピッチはpである。実際に、272という参照符号が付与されたセルアレイ(ピクセルセンサとも呼称される)がピクセル要素を含み、それぞれの要素は、pに等しい表面を有する。
277という参照符号が付与されたキャンドルを有するバースデイケーキは、光線が放出される物体空間(即ち、リアルシーン)内の物体を表し、且つこれらの光線は、3D空間内の座標(x,y,z)に位置決めされた、わかりやすさを目的としてカメラとも呼称されるカメラの投影の中心を通過する。このようなカメラは、Aと表記されたアパーチャを有する(アパーチャは、半径rの円である)。
均等な三角形及び図27(a)から次式:

を確立することが可能であり、これは、図27(a)で270という参照符号が付与された光線について、以下のようにΠ上の位置に結び付く。

隣接するピクセル、図27(a)からの271という参照符号が付与された光線について、以下のように同じのものを記述することができる。
−z=fと設定し、且つピクセルセンサ272からのそれぞれのピクセルが1つの光線を受け取り、且つこの光線が両方のプレーンによって一意にパラメータ化されることを所望する場合、x(及び/又はx)上における最大のサンプリングインターバルは、

(個別に、

)であり、以下のように境界が定められるべきである。
同じ内容は、分析を2Dスライスに制限しない場合、yサンプリングステップについても当てはまる。
従って、以下の式:

も成立する。
このような実施形態では、2つのプレーン(x,y)及び(x,y)は、バースデイケーキ277を有するシーンを取得するすべてのカメラの外部において、且つこれらに対して共通するようにグローバルに選択される。プレーン(x,y)は、それぞれのカメラのアパーチャ上に位置決めされる。
図27(c)は、ライトフィールドのパラメータ化を実行するために使用されるプレーンの離散化を提示する。図27(a)及び図27(b)に詳述される構成でピクセルセンサ上に1つの光線のみを有するには、275及び276という参照符号が付与された離散化されたプレーンが上述の制限を充足する必要がある。
例えば、ピクセルピッチは4μmに等しくしてもよく(フルフレームカメラ)、パラメータf=50mmであり、z−zの値=5mであり、且つz−zの値=6mである。センサが6000×4000個のピクセルを含む場合、離散化されたプレーンは、(プレーンx,x内における)6000個のセルと、(プレーンy,y内における)4000個のセルとを含む。
ここで、

におけるその投影の中心と、焦点距離fと、ピクセルピッチpとを有する複数のカメラを有すると仮定すれば、その結果、それぞれの光線がライトフィールド光線ファイルフォーマットに一意にマッピングされることを保証する両方のプレーン上の最大サンプリングステップは、

である。
また、同じ式の組は、分析を2Dスライスに制限しない場合、y次元についても当てはまる。パラメータ化プレーン上におけるサンプリングインターバルは、これよりも小さくてよい。唯一の影響は、ストレージ効率の欠如となるが、これは、それらの値を上回ることは決してない。
また、本技法は、半径Aと関連付けられた座標x,y,zにおける投影の中心の強度を推定するために使用され得ることにも留意されたい。
このような強度の推定は、x,xプレーン及びy,yのプレーンの1つのプレーンのラドン変換時に対応する領域の合算を実行する電子装置によって実行することができる。具体的には、プレーンΠ(x,x)上における強度の1つの近似を提供するために、

間でキャプチャされた強度が合算される。Π(y,y)における結果を取得するために同じ内容が実行され、且つ最後に、投影の中心における強度の最終的な近似を取得するために2つの値が合計される。この技法は、投影の中心におる光強度の近似を付与するに過ぎず、且つ投影の中心間の相対的な強度が対象である際にのみ、使用されることに留意されたい。
本開示の一実施形態では、2つのプレーン(x,y)及び(x,y)は、すべてのカメラの外部において、且つこれらに対して共通するようにグローバルに選択され、且つプレーン(x,y)は、それぞれのカメラのアパーチャ上に位置決めされ、且つz、z、及びzは、正となるように定義される。この場合、(前述の式

における)mの相対的に大きい値は、zの相対的に大きい値を意味する(

であることに留意されたい)。2つの異なる値m及びmを有する2つの束を有することにより、m>mである場合、第1の束が第2のラインによって特定の座標に閉塞されるものと推定することができる。従って、第1の束上の対応する座標の光線強度は不明である。
図26(a)に記述される方法は、効率的な方法によってコード化されたライトフィールドコンテンツの取得を可能にする(即ち、このようなライトフィールドコンテンツのストレージサイズは、コンパクトである)。但し、リアルシーンでは、図28に描かれるようにいくつかの閉塞が発生し得ることに留意されたい。図21及び図22に記述される提案されたフォーマットは、シーン内に閉塞を有するという問題に対処せず、これは、シーンの閉塞部分の情報も保存されることを意味する。
特定の又は更なる特徴の使用が、この課題を克服し得ると共に、更に効率的なエンコードされたライトフィールドコンテンツの取得を可能にする。図28は、画像がカメラの使用によって取得される(2つの物体を含む)シーンを提示する。更に正確には、画像は、2つのカメラの3つのグループから取得される。
カメラのグループは、同じ深さプレーン内に位置するカメラの組として定義されることに留意されたい。
第1のグループは、それぞれデカルト座標値

を有する第1のカメラ及び第2のカメラを含み、ここで、

である。また、第1のカメラは、アパーチャ値Aと関連付けられており、且つ第2のカメラは、アパーチャ値Aと関連付けられる。
第2のグループは、それぞれデカルト座標値

を有する第3のカメラ及び第4のカメラを含み、ここで、

である。また、第3のカメラは、アパーチャ値Aと関連付けられており、且つ第4のカメラは、アパーチャ値Aと関連付けられる。
第3のグループは、それぞれデカルト座標値

を有する第5のカメラ及び第6のカメラを含み、ここで、

である。また、第5のカメラは、アパーチャ値Aと関連付けられており、且つ第6のカメラは、アパーチャ値Aと関連付けられる。
図28は、いくつかの閉塞がカメラ間に発生する構成を提示する。例えば、第4のカメラは、いくつかの光線が第1のカメラ又は第2のカメラによって阻止されるという事実に起因して、シーン用のその視野内の物体からのすべての光線をキャプチャすることはできない。
図29は、2つのカメラの3つのグループの2D光線図を表す。
第1のカメラと関連付けられた2D光線図内のラインの太さは他のものよりも太いため、第1のカメラのアパーチャの値(即ち、Aの値)は、他のカメラからの他のアパーチャの値を上回る。
図28に上述した閉塞は、2D光線図内の交差によって表すことができる。例えば、図29におけるAという参照符号が付与された組は、第2のカメラ及び第3のカメラと関連付けられたラインに属するポイントの組に対応する。本技法は、2つの(又はこれを上回る数の)ラインの交差ポイントに対応する2D光線図内のポイント(ポイントは、光線と関連付けられる)を保存するための解決策について詳述する。
図30は、ライトフィールドコンテンツ内の閉塞を処理する方法を描く。更に正確には、この方法は、先に定義されたように、2つの2D光線図Π(x,x)及びΠ(y,y)内に表されるライトフィールドの光線を入力として取得する。
事前処理ステップとして見なされる、380という参照符号が付与されたステップでは、入力された2D光線図Π(x,x)に対する離散ラドン変換の適用により、識別されたそれぞれのラインのパラメータ(m,k)が第1の組Ω上に保存される。次いで、入力された2D光線図Π(y,y)に対する離散ラドン変換の適用により、識別されたそれぞれのラインのパラメータ(m,k)が第2の組Ω上に保存される。
381という参照符号が付与されたステップでは、第1の組Ωがパラメータmに従ってソートされる。
382という参照符号が付与されたステップでは、最小のm値を有する束が完全にキャプチャされ、且つ従って、図22(a)に描かれる方法によって完全に保存される。
次いで、383という参照符号が付与されたステップでは、以下のステップが第1の組Ωに対して反復される。
− 次の最小のスロープmを検討し、且つmよりも小さいスロープを有する束のすべての光線とのこの束内の光線の交差を見出し、このような束の組は、ωinf⊂Ωとして表記され、
− この束のそれぞれのラインiについて、スロープm=mを有し、且つΠ(x,x)内のライン式は、以下:
=m+d
のように記述され、ここで、dは、対応する束の

によって境界が定められる。ここで、ωinfの束に属するスロープm<mを有するすべてのラインjを検討する。以下:

を通じて、iとjとの間のすべての交差ポイント

を見出す。ラインi上のこれらの交差ポイントは、ラインjによって閉塞される。従って、ラインiの値を図22(a)に保存する場合、これらの

について、ヌル又は未知を保存するべきであり、
− 最後に、クリーニングステップでは、Π(x,x)及びΠ(y,y)の2Dラドン変換から対応する強度ピークをクリーニングし、且つ有意なものがライトフィールド内に存在しなくなる時点まで次の反復が開始される。
従って、このような方法を図28に描かれる例に対して適用することにより、スロープmを有するラインに属するすべてのポイントが保存されるものと考えられる。
次いで、スロープmを有するラインが処理される。組A、B、C、及びDに属するポイントは保存されない。
次いで、スロープmを有するラインが処理される。組E、F、G、H、I、及びJに属するポイントは保存されない。
更に正確には、図19の例を追跡することにより、相対的に小さいスロープを有する別のラインが図19のラインと交差した場合に(例えば、座標(x,x)=(5,8),(x,x)=(6,8),(x,x)=(7,9),(x,x)=(8,9)におけるポイントがこれら2つのライン間の交差に属する場合、上述のように図19におけるラインのポイントを処理する場合、ポイント(x,x)=(5,8),(x,x)=(6,8),(x,x)=(7,9),(x,x)=(8,9)用のポイント

の集合体の値を保存する代わりに、値が利用可能ではないことを示す情報がこれらのポイントについて保存される(例えば、ヌル値又は何らかのシンボルが保存される)。
別の実施形態では、以前と同様に、処理済みの2D光線図がΠ(y,y)であり、且つΠ(x,x)ではない場合、Π(y,y)内のラインを処理する際に同じ方法を適用することが可能であり、即ち交差エリアに属するポイント(y,y)用のポイント

の集合体の値は保存されない(又は閉塞を示す情報が保存される)。
本開示の一実施形態では、Π(x,x)内の識別されたライン上に含まれる座標

を有するポイントの場合、

の形態を有する特定のポイントを「通過」する光線が存在しない場合、ゼロに等しい(即ち、3バイトがゼロにセットアップされる)RGB値を保存する代わり、提案された技法は、ゼロに等しい3つのバイトの保存を回避するために追加情報(例えば、1ビット)を使用する。実際に、このような追加情報は、ライトフィールドコンテンツを表すためのRGB値のすべてに対して関係付けられる。実際に、Π(x、x)内の識別されたライン上に含まれる座標

を有するポイントの場合、

の形態を有する特定のポイントを通過する光線が存在しない場合、追加情報は1にセットアップされ、且つこの追加情報後にRGV値が保存される。Π(x,x)内の識別されたライン上に含まれる座標

を有するポイントの場合、

の形態を有する特定のポイントを「通過」する光線が存在しない場合、追加情報はゼロにセットアップされ、且つこの追加情報後にRGV値は保存されない。
以下は、4Dサンプリングされた光線図からのコード化されたデータラインの一例である。
1 201 180 128 1 002 090 255 0 1 206 025 009 1 201 201 201 0 0 0 1 255 255 255
これは、以下のように解釈される。第1のデータセルは、RGB値201 180 128を含み、第2のデータセルは、RGB値002 090 255を含み、第3のデータセルは、何らの光線も含んでおらず、第4のデータセルは、RGB値206 025 009を含み、第5のデータセルは、RGB値201 201 201を含み、第6、第7、及び第8のデータセルは、何らの光線も含んでおらず、第9のデータセルは、RGB値255 255 255を含む。
更に、このような追加情報の使用は、黒色ピクセルと、光線情報が存在しないこととの間を弁別することを許容し、これは非常に困難である。更に、多数のボイドセルが存在し得るため、このような技法は、相対的にコンパクトなエンコード済みのライトフィールドコンテンツの取得を可能にする。
図31は、本開示の一実施形態による、画像を電子装置によって供給するために、例えば、図22(a)のテーブルなどのライトフィールドコンテンツのコンパクトな表現からこのような画像のピクセルの値を取得する方式を提示する。
(図22(a)又は図22(b)に記述されるテーブルなどの282という参照符号が付与されたライトフィールドコンテンツの少なくとも2つの2D光線図表現に基づいたテーブルから、供給対象である、m及びnが1超である、m×n個のピクセルを含む、280という参照符号が付与された画像のピクセルの値を入力するために、本開示の一実施形態によれば、
− (例えば、図22(a)又は図22(b)のテーブルなどのテーブル282内のデータに対するポインタを含む、281という参照符号が付与された2次元ルックアップテーブルを取得し、且つ
− インデックス(i,j)によってアドレス指定されたピクセルについて、同じインデックス(i,j)に位置決めされた前記2次元ルックアップテーブル内のポインタの取得を介して図22(a)又は図22(b)のテーブルから光線の放射輝度値を取得することが提案される。
次いで、位置(l,k)に配置されたこのような放射輝度値は、インデックス(i,j)におけるピクセル内で供給されるように画像280内に挿入される。
ピクセル値を画像内に入力するためのこのようなプロセスは、すべてのピクセルについて反復される。これは、図22(a)又は図22(b)のテーブルから取得/抽出するべき値を判定するための演算の回避を可能にする。
図31で使用される2次元ルックアップテーブルを生成/作成するために、電子装置は、取得装置/カメラのセンサプレーンからのそれぞれのピクセルについて、対応する光線の座標を判定するために、図26(b)に記述されるピクセルバック追跡を実行し得ることに留意されたい。このような座標を有するこのような光線は、図22(a)に描かれるように、テーブル内に保存されるその放射輝度値を有する。但し、使用されるコンパクトな保存表現に起因して、4座標は保存されない。従って、供給対象である画像の1つと同じインデックスを有する2次元ルックアップテーブルは、光線について図22(a)に描かれるものとして、テーブル内の放射輝度値を容易に見出すためのポインタ(インデックスなどであり、それぞれのインデックスは、例えば、2つの要素を有する)を含む。このような2次元ルックアップテーブルのポインタの生成は、プロセスを加速させるために並行して実行することができる。
このような2次元ルックアップテーブルの使用は、図22(a)又は図22(b)におけるように表されたデータからの画像の生成のプロセスを加速し得ることに留意されたい。
図32は、本開示の別の実施形態による、画像及び2次元ルックアップテーブルから、例えば、図22(a)のテーブルとしてのライトフィールドコンテンツのコンパクトな表現を生成する方式を提示する。
更に正確には、(図22(a)又は図22(b)に記述されるテーブルなどの)ライトフィールドコンテンツ282の少なくとも2つの2D光線図に基づいたテーブル内に放射輝度値を入力するために、本開示の一実施形態によれば、
− (例えば、図22(a)又は図22(b)のテーブルなどの)テーブル282内のデータ位置に対するポインタを含む、281という参照符号が付与された2次元ルックアップテーブルを取得し、
− インデックス(i,j)によってアドレス指定されたピクセルについて、m及びnが1超の整数である、m×n個のピクセルを含む画像280から光線の放射輝度値を取得し、
− 同じインデックス(i,j)に位置決めされた前記2次元ルックアップテーブル内のポインタの取得を介して、取得された放射輝度値をテーブル282(即ち、図22(a)又は図22(b)のテーブル)内に保存することが提案される。従って、取得された放射輝度値は、テーブル282内の位置(l,k)に保存される。
放射輝度値をテーブル282内に入力するこのようなプロセスは、画像280のすべてのピクセルについて反復される。
本開示の一実施形態では、放射輝度値は、並行プロセスでテーブル282内に保存される。
本開示の別の実施形態では、ライトフィールド光線フォーマットを通じたユーザーのナビゲートを支援するための方法が提案される。これは、以前の節で定義されるフォーマットの説明に対して非常に緊密にリンクされる。恐らく、マルチビューキャプチャでナビゲートするためのいくつかの方法が存在するであろうが(これはライトフィールドではない)、ここで提示するものは、特定のフォーマットを利用するための方法である。
図22(a)は、特定のコンパクトな光線フォーマットについて記述する。このフォーマットでは、異なるカメラが組織化された方式で保存される。それらの位置は、x3i、y3i、z3iのトリプレットによってタグ付けされ、且つそれらの軸の向きとの関係において、まず、最も近接したものから最も離れたものまでの深さz3iにより、且つ次いで、底部から最上部までのx3iにより、且つ最後に、底部から最上部までのy3iによりcamを順序付けするために決定することができる。
ライトフィールドが、ネットワーク上で送信されるか又はアンテナまで無線送信される際、それは、帯域幅を節約するために部分的にのみ送信され、その結果、1つの視点のみが送信される。また、この視点と共にすべてのcam焦点を送信することもできる。
次いで、観察者は、メニューボタンから、オリジナルフォーマットで利用可能である他のライトフィールド視点を視覚化する3D画面オーバーレイを自らのディスプレイ上に表示することができる。これは、他の視点が実際の観察者の位置との関係でいずれの箇所に配置されるかを3Dで示す3D軸システムの形態を有することができる。
方向パッドにより、ユーザーは、望ましい位置にナビゲートし、位置を検証し、且つフィードバックがネットワーク上でサーバーに送信される。次いで、サーバーは、エンドユーザーに対してストリーミング又はブロードキャストされなければならない選択されたデータラインを位置決めする。
また、スクリーンオーバーレイは、視点を通じてアスペクト及びナビゲーションにおいて変化することもできる。
ユーザーが立体コンテンツの視聴を所望する場合、ファイルフォーマットは、スクリーンオーバーレイが立体コンテンツの指示も表示するように、補正されたカメラペアに対してタグ付けするために変更することが可能であり、この場合、デジタルラインデータの2つのスロットを送信しなければならない。
表現フォーマットとの関係でこのような技法を可能にするものは、特定のライトフィールド分析である。相対的に近接したハイパープレーンは、遠く離れたものよりも小さいmを有することがわかるため、距離に応じた異なるデータラインのソートを開始することができる。mは、上述のように、離散ラドン変換によって算出される。また、上述のように、x3i、y3i、及びz3iを演算すると共に焦点成分の符号及びモジュラスに従ってフォーマットにおいて異なるデータラインをソートすることもできる。
データラインが容積内のその3D焦点位置に従ってソートされるという事実は、ブロードキャストのために必要とされるものに対する迅速なアクセスを可能にする。ブロードキャストされるものは視点であり、又は立体の場合には視点のペアであり、且つ数学的には、それはハイパープレーンの1つの特定の束(又はそのペア)であり、これは、4Dブレゼンハムスキャンライン又はパラメトリックデータスキャンニングに従って保存された光線の集合体である。
図33は、ユーザーが、4Dライトフィールドデータと関連付けられたカメラの位置を選択することができる3D表現を含むメニューを提示する。
更に正確には、370という参照符号が付与された表示装置は、いくつかのカメラの3D空間内の位置をユーザーに対して提示する(371〜375という参照符号が付与された位置は、いくつかのカメラの位置に対応する)。
次いで、ユーザーは、376という参照符号が付与された遠隔制御ユニットを介してこれらの位置の1つを選択することができる。選択が実行されたら、選択されたカメラと関連付けられた4Dライトフィールドデータが前記表示装置によって取得される。次いで、表示装置がこのような4Dライトフィールドデータを表示する。
本開示の別の実施形態では、ユーザーは、遠隔制御ユニット376を使用する代わりに、表示装置に接触することにより、これらの位置の1つを選択することができる(即ち、これは、ある種のタッチスクリーンである)。
更に、本開示の一実施形態では、ユーザーが、4Dライトフィールドデータと関連付けられたカメラの位置を選択し得る表示された3D表現は、境界が定められた空間ゾーンに対応する。但し、本開示のいくつかの実施形態では、カメラの位置を含む空間ゾーンは、表示されたものを上回ることができる。従って、カメラの位置が利用可能である方向を示すための(矢印などの)更なる視覚的インジケータを表示可能であってもよい。別の実施形態では、軸ラインx、y、zのみならず、原点も表示される。一実施形態では、原点の位置は、ユーザーの入力に従ってセンタリングされる。
本開示の一実施形態では、3つの軸ラインの回転を実行することができる。本開示の一実施形態では、ユーザーは、ユーザーによって選ばれた選択済みのゾーンにズームイン又はズームアウトすることができる。
図34は、本明細書に開示される方法の1つ又は複数のステップを実行するために使用され得る電子装置の一例を提示する。
340という参照符号が付与されたこのような電子装置は、341という参照符号が付与された演算ユニット(例えば、「中央処理ユニット」の略号であるCPU)と、342という参照符号が付与された1つ又は複数のメモリユニット(例えば、コンピュータプログラムの命令の実行時に中間結果が一時的に保存され得るRAM(「ランダムアクセスメモリ」の略号である)ブロック、又はとりわけコンピュータプログラムが保存されるROMブロック、又はEEPROM(「電気的消去可能プログラマブル読み出し専用メモリ」)ブロック、又はフラッシュブロック)とを含む。コンピュータプログラムは、演算ユニットによって実行され得る命令から構成される。また、このような電子装置340は、装置340が他の電子装置と通信することを許容するために入力−出力インターフェイスを構成する、343という参照符号が付与された専用のユニットを含むこともできる。具体的には、この専用のユニット343は、(接触を伴うことなしに通信を実行するための)アンテナ又は(通信「接点」を担持するための)シリアルポートと接続することができる。図34内の矢印は、リンクされたユニットが、例えば、協働して、バスを通じてデータを交換し得ることを意味することに留意されたい。
一代替実施形態では、上述の方法のステップのいくつか又はすべては、ハードウェアでは、プログラム可能なFPGA(「フィールドプログラマブルゲートアレイ」)コンポーネント又はASIC(「特定用途向け集積回路」)コンポーネントとして実装することができる。
一代替実施形態では、上述の方法のステップのいくつか又はすべては、図34に開示されるものとしてのメモリユニット及び処理ユニットを含む電子装置上で実行することができる。
本開示の一実施形態では、図34に描かれる電子装置は、画像(従来の2D画像又はライトフィールドのサンプリング)をキャプチャするように構成されたカメラ装置に含むことができる。これらの画像は、1つ又は複数のメモリユニット上に保存される。従って、これらの画像は、ビットストリームデータ(即ち、ビットのシーケンス)と見なすことができる。また、ビットストリームは、バイトストリーム上で変換されることが可能であり、且つこの逆も真であることは明らかである。

Claims (15)

  1. ライトフィールドコンテンツをエンコードする方法において、
    − 前記ライトフィールドコンテンツと関連付けられた光線の組(401)について、前記ライトフィールドコンテンツの2プレーン(402、403)パラメータ化から光線毎に4つの座標を取得すること(2000)と、
    − 前記組からのそれぞれの光線について、第1の2D光線図(Π(x,x),Π(y,y))内のポイントを定義する、前記2プレーンパラメータ化で使用される2つのプレーンに対して垂直であるプレーン(404、405、P)上への前記組からの前記光線の投影に対応する、前記4つの座標からの2つの座標を取得すること(2001)と、
    − 前記第1の2D光線図内の対象のラインを供給する前記第1の2D光線図(Π(x,x),Π(y,y))に対して離散ラドン変換を適用すること(2002)と、
    − 前記対象のラインを、エンコードされた対象のラインにエンコードすること(2003)と、
    − 前記エンコードされた対象のラインを保存すること(2004)と
    を含むことを特徴とする方法。
  2. 前記対象のラインの前記エンコード(2003)は、ブレゼンハムアルゴリズムを適用することを更に含む、請求項1に記載のライトフィールドコンテンツをエンコードする方法。
  3. 第1のプレーン及び第2のプレーンと呼称される、前記2プレーンパラメータ化で使用される前記2つのプレーンは、矩形要素(Δx、Δy;Δx、Δy)を含む離散化されたプレーン(275、276)であり、前記第1のプレーン内の矩形要素の長辺の最大値は、

    に等しく、ここで、zは、ピクセルピッチpを有するカメラ装置に含まれるセンサアレイの深度値であり、fは、前記カメラ装置の焦点距離であり、及びzは、前記第1のプレーンと関連付けられた第1の深度値であり、前記第2のプレーン内の矩形要素の長辺の最大値は、

    に等しく、ここで、zは、前記第2の第1のプレーンと関連付けられた第2の深度値である、請求項1又は2に記載のライトフィールドコンテンツをエンコードする方法。
  4. 前記保存(2004)は、前記第1の2D光線図内の第1のエンコードされた対象のラインに属する少なくとも1つの第1のポイント

    について、
    − 第2の2D光線図(Π(x,x),Π(y,y))内の第2のエンコードされた対象のラインに属する少なくとも第2のポイント((y,y);(x,x))と関連付けられた光線の放射輝度を保存することであって、前記第2のエンコードされた対象のラインは、前記第1のエンコードされた対象のラインと同じスロープを有する、保存すること、及び光線の存在を示す第1の追加情報を保存すること、並びに/又は
    − 光線が、前記第2のエンコードされた対象のラインに属する少なくとも第3のポイント((y,y);(x,x))と関連付けられていないことを示す第2の追加情報を保存すること
    を含む、請求項1〜3のいずれか一項に記載のライトフィールドコンテンツをエンコードする方法。
  5. 前記第1及び/又は第2の追加情報はビットであり、前記光線の放射輝度は3バイト値によってエンコードされる、請求項4に記載のライトフィールドコンテンツをエンコードする方法。
  6. 投影の少なくとも1つの中心の座標及び前記投影の少なくとも1つの中心と関連付けられた半径を推定することを更に含み、前記推定は、
    − 前記第1の2D光線図内の対象のラインの少なくとも1つのスロープパラメータm及び太さパラメータ

    を取得することであって、前記対象のラインは、投影の中心x,y,z及び半径Aと関連付けられる、取得することと、
    − 前記少なくとも1つのスロープパラメータm及び前記太さパラメータ

    から前記投影の中心の座標x,y,z及び前記半径Aを推定することと
    を含む、請求項1〜5のいずれか一項に記載のライトフィールドコンテンツをエンコードする方法。
  7. 第1のプレーン及び第2のプレーンと呼称される、前記2プレーンパラメータ化で使用される前記2つのプレーンは、それぞれ第1の深度値z及び第2の深度値zと関連付けられ、前記推定は、

    を取得することを含む、請求項6に記載のライトフィールドコンテンツをエンコードする方法。
  8. 前記エンコードされた対象のラインの前記保存(2004)は、エンコードされた対象のラインと関連付けられたスロープを保存することと、前記第1の2D光線図内のエンコードされた対象のラインに属するそれぞれのポイントについて、第2の2D光線図に属するポイントの組を保存することと、前記第1の2D光線図内の処理済みのエンコードされた対象のラインと関連付けられたスロープが、前記第1の2D光線図内の他のエンコードされた対象のラインと関連付けられた別のスロープよりも大きい場合、前記第1の2D光線図内のポイントが、前記処理済みのエンコードされた対象のラインと前記他のエンコードされた対象のラインとの間の交差に属する際に、前記第2の2D光線図に属する前記ポイントの組の前記保存を回避することとを更に含む、請求項1〜7のいずれか一項に記載のライトフィールドコンテンツをエンコードする方法。
  9. 前記回避は、閉塞を示す情報を保存することを更に含む、請求項8に記載のライトフィールドコンテンツをエンコードする方法。
  10. 前記情報はヌル値である、請求項9に記載のライトフィールドコンテンツをエンコードする方法。
  11. コンピュータによって実行されると、ライトフィールドコンテンツをエンコードする方法を実装するためのコンピュータ実行可能命令の組を含むコンピュータプログラムを保存するコンピュータ可読且つ非一時的記憶媒体であって、前記命令は、実行されると、請求項1〜10のいずれか一項に記載の方法を実行するように前記コンピュータを構成する命令を含む、コンピュータ可読且つ非一時的記憶媒体。
  12. ライトフィールドコンテンツをエンコードする電子装置において、メモリと、前記メモリに結合された少なくとも1つのプロセッサとを含み、前記少なくとも1つのプロセッサは、
    − 前記ライトフィールドコンテンツと関連付けられた光線(401)の組について、前記ライトフィールドコンテンツの2プレーン(402、403)パラメータ化から光線毎に4つの座標を取得すること(2000)と、
    − 前記組からのそれぞれの光線について、第1の2D光線図(Π(x,x),Π(y,y))内のポイントを定義する、前記2プレーンパラメータ化で使用される2つのプレーンに対して垂直であるプレーン(404、405、P)上への前記組からの前記光線の投影に対応する、前記4つの座標からの2つの座標を取得すること(2001)と、
    − 前記第1の2D光線図内の対象のラインを供給する前記第1の2D光線図(Π(x,x),Π(y,y))に対して離散ラドン変換を適用すること(2002)と、
    − 前記対象のラインをエンコードすること(2003)と、
    − 前記エンコードされた対象のラインを保存すること(2004)と
    を行うように構成されることを特徴とする電子装置。
  13. 前記少なくとも1つのプロセッサは、ブレゼンハムアルゴリズムによって前記対象のラインをエンコードするように更に構成される、請求項12に記載のライトフィールドコンテンツをエンコードする電子装置。
  14. 第1のプレーン及び第2のプレーンと呼称される、前記2プレーンパラメータ化で使用される前記2つのプレーンは、矩形要素(Δx、Δy;Δx、Δy)を含む離散化されたプレーン(275、276)であり、前記第1のプレーン内の矩形要素の長辺の最大値は、

    に等しく、ここで、zは、ピクセルピッチpを有するカメラ装置に含まれるセンサアレイの深度値であり、fは、前記カメラ装置の焦点距離であり、及びzは、前記第1のプレーンと関連付けられた第1の深度値であり、前記第2のプレーン内の矩形要素の長辺の最大値は、

    に等しく、ここで、zは、第2の第1のプレーンと関連付けられた第2の深度値である、請求項12又は13に記載のライトフィールドコンテンツをエンコードする電子装置。
  15. 前記少なくとも1つのプロセッサは、前記第1の2D光線図内の第1のエンコードされた対象のラインに属する少なくとも1つの第1のポイント

    について、
    − 第2の2D光線図(Π(x,x),Π(y,y))内の第2のエンコードされた対象のラインに属する少なくとも第2のポイント((y,y);(x,x))と関連付けられた光線の放射輝度を保存することであって、前記第2のエンコードされた対象のラインは、前記第1のエンコードされた対象のラインと同じスロープを有する、保存すること、及び光線の存在を示す第1の追加情報を保存すること、並びに/又は
    − 光線が、前記第2のエンコードされた対象のラインに属する少なくとも第3のポイント((y,y);(x,x))と関連付けられていないことを示す第2の追加情報を保存すること
    を行うように更に構成される、請求項12〜14のいずれか一項に記載のライトフィールドコンテンツをエンコードする電子装置。
JP2018513441A 2015-09-17 2016-09-15 ライトフィールドコンテンツをエンコードする方法 Ceased JP2018537877A (ja)

Applications Claiming Priority (13)

Application Number Priority Date Filing Date Title
EP15306439.9 2015-09-17
EP15306439.9A EP3145193A1 (en) 2015-09-17 2015-09-17 Method for encoding light field content
EP15306435.7 2015-09-17
EP15306441.5A EP3144886A1 (en) 2015-09-17 2015-09-17 Method for encoding a light field content
EP15306440.7A EP3145194A1 (en) 2015-09-17 2015-09-17 Method for encoding 4d light field data comprising discretizing a first and a second plane used in a light field parametrization
EP15306440.7 2015-09-17
EP15306438.1 2015-09-17
EP15306435.7A EP3145190A1 (en) 2015-09-17 2015-09-17 Method for delivering a set of images from a light field content
EP15306438.1A EP3145192A1 (en) 2015-09-17 2015-09-17 Method for displaying 4d light field data
EP15306437.3A EP3145191A1 (en) 2015-09-17 2015-09-17 Method for encoding a light field content
EP15306437.3 2015-09-17
EP15306441.5 2015-09-17
PCT/EP2016/071873 WO2017046272A1 (en) 2015-09-17 2016-09-15 Method for encoding a light field content

Publications (2)

Publication Number Publication Date
JP2018537877A true JP2018537877A (ja) 2018-12-20
JP2018537877A5 JP2018537877A5 (ja) 2019-09-12

Family

ID=56979546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018513441A Ceased JP2018537877A (ja) 2015-09-17 2016-09-15 ライトフィールドコンテンツをエンコードする方法

Country Status (9)

Country Link
US (1) US10880576B2 (ja)
EP (1) EP3351001B1 (ja)
JP (1) JP2018537877A (ja)
KR (1) KR20180053724A (ja)
CN (1) CN108353188B (ja)
CA (1) CA2998690A1 (ja)
MX (1) MX2018003263A (ja)
RU (1) RU2018113737A (ja)
WO (1) WO2017046272A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3145168A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing An apparatus and a method for generating data representing a pixel beam
MX2018003263A (es) * 2015-09-17 2018-05-16 Thomson Licensing Metodo para codificar un contenido de campo luminoso.
EP3579561A1 (en) * 2018-06-05 2019-12-11 InterDigital VC Holdings, Inc. Prediction for light-field coding and decoding
KR20200067020A (ko) * 2018-12-03 2020-06-11 삼성전자주식회사 캘리브레이션 방법 및 장치
KR102121458B1 (ko) * 2018-12-28 2020-06-10 한국생산기술연구원 자동 충전을 위한 로봇 청소기의 경로 추정 방법 및 이를 이용한 로봇 청소기
CN111380457B (zh) * 2018-12-29 2024-02-06 上海晨兴希姆通电子科技有限公司 料盘的定位方法及系统
CN114009024B (zh) 2019-06-21 2024-04-02 北京字节跳动网络技术有限公司 视频编解码中自适应环内颜色空间变换的选择性启用
CN115152219A (zh) * 2019-11-07 2022-10-04 抖音视界有限公司 视频编解码的自适应环内颜色空间变换的量化特性
CN113965758B (zh) * 2021-10-21 2024-02-27 上海师范大学 基于分块低秩近似的光场图像编码方法、设备及存储介质
CN114167663B (zh) * 2021-12-02 2023-04-11 浙江大学 一种包含渐晕去除算法的编码光圈光学成像系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007240295A (ja) * 2006-03-08 2007-09-20 Advanced Telecommunication Research Institute International 位置推定装置、位置推定方法及び位置推定プログラム
JP2012524467A (ja) * 2009-04-18 2012-10-11 リフォーカス イマジング,インコーポレイテッド ライト・フィールド・カメラ画像、ファイルおよび構成データ、および、これらを使用、保存および伝達する方法
US20150146032A1 (en) * 2013-11-22 2015-05-28 Vidinoti Sa Light field processing method
JP2015119395A (ja) * 2013-12-19 2015-06-25 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2016537901A (ja) * 2013-11-22 2016-12-01 ヴィディノティ エスアーVidinoti Sa ライトフィールド処理方法

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6009188A (en) 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging
US6097394A (en) 1997-04-28 2000-08-01 Board Of Trustees, Leland Stanford, Jr. University Method and system for light field rendering
JP4825983B2 (ja) * 2005-07-26 2011-11-30 国立大学法人名古屋大学 画像情報圧縮方法及び自由視点テレビシステム
US8237708B2 (en) 2006-08-18 2012-08-07 William Edward Mantzel Data structure representing a plenoptic function via compressible layered orthographic projections from multiple orientations
US7792423B2 (en) 2007-02-06 2010-09-07 Mitsubishi Electric Research Laboratories, Inc. 4D light field cameras
ES2372515B2 (es) * 2008-01-15 2012-10-16 Universidad De La Laguna Cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales.
US8135238B2 (en) * 2008-06-05 2012-03-13 Kia Sha Managment Liability Company Free view generation in ray-space
JP5614900B2 (ja) 2009-05-01 2014-10-29 トムソン ライセンシングThomson Licensing 3d映像符号化フォーマット
TW201203052A (en) * 2010-05-03 2012-01-16 Flatfrog Lab Ab Touch determination by tomographic reconstruction
EP2617194A1 (en) 2010-09-14 2013-07-24 Thomson Licensing Compression methods and apparatus for occlusion data
JP5623313B2 (ja) 2011-03-10 2014-11-12 キヤノン株式会社 撮像装置および撮像光学系
US9568606B2 (en) 2012-03-29 2017-02-14 Canon Kabushiki Kaisha Imaging apparatus for distance detection using high and low sensitivity sensors with inverted positional relations
ITTO20120413A1 (it) 2012-05-08 2013-11-09 Sisvel Technology Srl Metodo per la generazione e ricostruzione di un flusso video tridimensionale, basato sull'utilizzo della mappa delle occlusioni, e corrispondente dispositivo di generazione e ricostruzione.
US9593982B2 (en) * 2012-05-21 2017-03-14 Digimarc Corporation Sensor-synchronized spectrally-structured-light imaging
JP6168794B2 (ja) 2012-05-31 2017-07-26 キヤノン株式会社 情報処理方法および装置、プログラム。
GB2503656B (en) 2012-06-28 2014-10-15 Canon Kk Method and apparatus for compressing or decompressing light field images
US9852512B2 (en) * 2013-03-13 2017-12-26 Electronic Scripting Products, Inc. Reduced homography based on structural redundancy of conditioned motion
US9658443B2 (en) * 2013-03-15 2017-05-23 The Board Of Trustees Of The Leland Stanford Junior University Optics apparatus with detection of light rays received at different angles for output indicative of aliased views
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
JP6419717B2 (ja) * 2013-11-22 2018-11-07 国立大学法人北海道大学 細胞の識別方法
FR3019338B1 (fr) * 2014-03-26 2017-07-14 Sylvain David Systeme et un procede de traitement de donnees
US9843787B2 (en) * 2014-04-24 2017-12-12 Qualcomm Incorporated Generation and use of a 3D radon image
CN104537656B (zh) * 2014-12-22 2017-05-31 中国科学院国家授时中心 光纤扩束准直镜筒出射偏心高斯光束的检测方法
US10455138B2 (en) * 2015-04-20 2019-10-22 Ian Schillebeeckx Camera calibration with lenticular arrays
EP3144888A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing An apparatus and a method for generating data representing a pixel beam
MX2018003263A (es) * 2015-09-17 2018-05-16 Thomson Licensing Metodo para codificar un contenido de campo luminoso.
EP3144879A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing A method and an apparatus for generating data representative of a light field
BR112018005399A2 (pt) * 2015-09-17 2018-10-09 Thomson Licensing representação de dados de campo de luz
EP3188123A1 (en) * 2015-12-30 2017-07-05 Thomson Licensing A method and an apparatus for generating data representative of a pixel beam
EP3188124A1 (en) * 2015-12-30 2017-07-05 Thomson Licensing A method and an apparatus for generating data representative of a pixel beam

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007240295A (ja) * 2006-03-08 2007-09-20 Advanced Telecommunication Research Institute International 位置推定装置、位置推定方法及び位置推定プログラム
JP2012524467A (ja) * 2009-04-18 2012-10-11 リフォーカス イマジング,インコーポレイテッド ライト・フィールド・カメラ画像、ファイルおよび構成データ、および、これらを使用、保存および伝達する方法
US20150146032A1 (en) * 2013-11-22 2015-05-28 Vidinoti Sa Light field processing method
JP2016537901A (ja) * 2013-11-22 2016-12-01 ヴィディノティ エスアーVidinoti Sa ライトフィールド処理方法
JP2015119395A (ja) * 2013-12-19 2015-06-25 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHA ZHANG: "SPECTRAL ANALYSIS FOR SAMPLING IMAGE-BASED RENDERING DATA", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, vol. VOL:13, NR:11, JPN5018006284, November 2003 (2003-11-01), US, pages 1038 - 1050, ISSN: 0004395924 *
KEIJI YAMASHITA: "COMPRESSIVE ACQUISITION OF RAY-SPACE USING RADON TRANSFORM", PROCEEDINGS OF SPIE, JPN5018006283, 5 February 2009 (2009-02-05), US, pages 723715 - 1, ISSN: 0004395923 *

Also Published As

Publication number Publication date
CN108353188B (zh) 2022-09-06
RU2018113737A3 (ja) 2020-03-03
EP3351001A1 (en) 2018-07-25
US20180262776A1 (en) 2018-09-13
RU2018113737A (ru) 2019-10-17
US10880576B2 (en) 2020-12-29
WO2017046272A1 (en) 2017-03-23
EP3351001B1 (en) 2021-08-11
CA2998690A1 (en) 2017-03-23
CN108353188A (zh) 2018-07-31
KR20180053724A (ko) 2018-05-23
MX2018003263A (es) 2018-05-16

Similar Documents

Publication Publication Date Title
JP2018537877A (ja) ライトフィールドコンテンツをエンコードする方法
CN111563923B (zh) 获得稠密深度图的方法及相关装置
US10021340B2 (en) Method and an apparatus for generating data representative of a light field
EP3398161B1 (en) A method and an apparatus for generating data representative of a pixel beam
US20210329217A1 (en) Method and an apparatus for generating data representative of a pixel beam
CN115035235A (zh) 三维重建方法及装置
EP3350770B1 (en) An apparatus and a method for generating data representing a pixel beam
US20190101765A1 (en) A method and an apparatus for generating data representative of a pixel beam
EP3145191A1 (en) Method for encoding a light field content
EP3145192A1 (en) Method for displaying 4d light field data
EP3145193A1 (en) Method for encoding light field content
EP3144886A1 (en) Method for encoding a light field content
EP3145190A1 (en) Method for delivering a set of images from a light field content
EP3145194A1 (en) Method for encoding 4d light field data comprising discretizing a first and a second plane used in a light field parametrization
Damghanian et al. The sampling pattern cube–a representation and evaluation tool for optical capturing systems
Zheng et al. Tomato-Nerf: Advancing Tomato Model Reconstruction with Improved Neural Radiance Fields
CN115908975A (zh) 色彩预测模型训练方法、装置以及设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190730

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190730

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201116

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201127

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20210922