JP2018514969A - ライトフィールド・メタデータ - Google Patents

ライトフィールド・メタデータ Download PDF

Info

Publication number
JP2018514969A
JP2018514969A JP2017546605A JP2017546605A JP2018514969A JP 2018514969 A JP2018514969 A JP 2018514969A JP 2017546605 A JP2017546605 A JP 2017546605A JP 2017546605 A JP2017546605 A JP 2017546605A JP 2018514969 A JP2018514969 A JP 2018514969A
Authority
JP
Japan
Prior art keywords
light field
field data
data
lfml
metadata
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017546605A
Other languages
English (en)
Other versions
JP2018514969A5 (ja
Inventor
ボアソン,ギローム
セフイ,モズデ
ヴアンダーム,ブノア
サバテール,ネウス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2018514969A publication Critical patent/JP2018514969A/ja
Publication of JP2018514969A5 publication Critical patent/JP2018514969A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/232Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/229Image signal generators using stereoscopic image cameras using a single 2D image sensor using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/133Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • H04N25/136Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements using complementary colours

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Library & Information Science (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

キャプチャされたライトフィールド・データに関するメタデータを提供する方法は、ライトフィールド・データをキャプチャするために使用されるライトフィールド・カメラと、ライトフィールド・データから得られたビューのマトリックスと、ライトフィールド・データから得られたフォーカル・スタックと、のうちの少なくとも1つの特性を記述するメタデータを集約するデータ・フォーマットを提供することを含む。【選択図】図4

Description

本発明は、ライトフィールド・データに関するメタデータおよびライトフィールド・データの処理に関する。
従来のカメラは、可視光に感光する2次元センサ装置上で3次元シーンからの光をキャプチャする。このような撮像装置上で使用される感光技術は、多くの場合、例えば、電荷結合素子(CCD)または相補型金属酸化膜半導体(CMOS)技術などのような、光子を電子に変換可能な半導体技術に基づいている。例えば、ディジタル画像フォトセンサは、通常、各々が入来する光をキャプチャするように構成されている感光セルのアレイを含む。空間情報を提供する2D画像は、画像センサ装置の各感光セルによってキャプチャされる光の総量の測定値から取得される。2D画像によって、光の強度についての情報およびフォトセンサの空間ポイントでの光の色についての情報を提供できるが、その一方で、入来する光の方向についての情報は何ら提供されない。
ライトフィールド・カメラ(放射キャプチャ・カメラとしても知られる)は、2D空間情報に加えて、入来する光線についての方向情報を提供できる。方向情報は、多くの場合、画像センサに関連付けられたマイクロレンズ・アレイ(MLA)とも呼ばれる、マイクロレンズのアレイを使用して取得することができる。例えば、ライトフィールド・アレイ・カメラは、マイクロレンズ・アレイおよびフォトセンサを備える。プレノプティック・カメラは、MLA上に光を集光する主レンズおよびMLAに関連付けられたフォトセンサを備える。ライトフィールド・カメラの他の構成においては、各々が自己のレンズおよびセンサを備える複数のカメラを使用してライトフィールド・データを取得することができる。
ライトフィールドは、シーン内の複数の異なる点での複数の異なる方向から光を特徴付ける4D関数として定義されることが多い。光線の方向分布についての情報は、通常、ライトフィールド・データまたは4Dデータと呼ばれる。この情報は、4つのパラメータ、すなわち、2次元位置情報および2次元角度情報を提供するため、方向分布は4次元(4D)関数に対応する。ライトフィールドは、シーンの複数の2D画像を2次元に集めたものと解釈することができる。
取得されたライトフィールド・データは、例えば、シーンのリフォーカスされた画像を生成するため、複数の異なる視点からの画像を生成するため、キャプチャされたシーンについての深度情報を提供するため、または、3D画像を生成するためなど、多くのアプリケーションのために処理することができる。
ライトフィールド・カメラから取得されたデータは、様々なアプリケーションで適切に利用できるように、適切に管理されるとよい。
本発明は、上記の点を考慮してなされたものである。
本発明の第1の態様によれば、キャプチャされたライトフィールド・データに関するメタデータを提供する方法が提供される。この方法は、ライトフィールド・データをキャプチャするために使用されるライトフィールド・カメラと、ライトフィールド・データから得られたビューのマトリックスと、ライトフィールド・データから得られたフォーカル・スタックと、のうちの少なくとも1つの特性を記述するメタデータを集約するデータ・フォーマットを提供することを含む。
一実施形態においては、この方法は、ライトフィールド・データをキャプチャするために使用されるライトフィールド・カメラと、ライトフィールド・データから得られたビューのマトリックスと、ライトフィールド・データから得られたフォーカル・スタックと、の少なくとも1つの特性を記述するライトフィールド・データ・メタデータを取得することと、メタデータによって提供される情報に基づいてライトフィールド・データをレンダリングすることと、を含む。
一実施形態においては、メタデータは、ライト画像ファイルに集約される。
一実施形態においては、メタデータは、XLMに準拠したマークアップ言語で規定される。
一実施形態においては、ライトフィールド・データをキャプチャするために使用されるライトフィールド・カメラの特性を記述するメタデータは、
ライトフィールド・カメラのフォトセンサと、
ライトフィールド・カメラの主レンズと、
ライトフィールド・カメラのマイクロレンズ・アレイと、
のライトフィールド・カメラの技術的な特徴のうちの1つ以上を規定するデータを含む。
一実施形態においては、ライトフィールド・カメラのフォトセンサを記述するメタデータは、
フォトセンサの空間解像度と、
フォトセンサのカラー・フィルタのカラー・サンプリングと、
フォトセンサのカラー・フィルタの透過率と、
フォトセンサの画素のダイナミック・レンジと、
画素によって出力される信号と入来する光との非線形的な関係を規定する色変換行列と、
フォトセンサの2つの隣接する画素間のピッチと、
非正方形の画素の形状比を規定するスケールファクタと、
のうちの1つ以上のパラメータを表すデータを含む。
一実施形態においては、ライトフィールド・カメラの主レンズを記述するメタデータは、
主レンズの焦点距離と、
瞳と焦点距離との比と、
主レンズの口径食モデルと、
のうちの1つ以上のパラメータを表すデータを含む。
一実施形態においては、ライトフィールド・カメラのマイクロレンズ・アレイを記述するメタデータは、
マイクロレンズ・アレイのパターンと、
マイクロレンズ・アレイ上に配列されたカラー・フィルタのパターンと、
マイクロレンズ・アレイの2つの隣接するマイクロレンズの間のピッチと、
マイクロレンズの形状比を規定するスケールファクタと、
キャリブレーションされたマイクロレンズ中心の数と、
1つ以上のマイクロレンズ中心の空間座標と、
のうちの1つ以上のパラメータを表すデータを含む。
一実施形態においては、ライトフィールド・データから得られたビューのマトリックスの特性を記述するメタデータは、
アレイにおけるビューの数と、
1つまたは各ビューの空間解像度と、
ビューにおいて利用可能な色と、
ビューの参照点の空間座標と、
ビューの水平焦点距離および垂直焦点距離と、
のうちの1つ以上のパラメータを表すデータを含む。
一実施形態においては、ライトフィールド・データから得られたフォーカル・スタックの特性を記述するメタデータは、
フォーカル・スタックにおけるフォーカスされたピクチャの数と、
フォーカスされたピクチャの空間解像度と、
フォーカスされたピクチャの焦点距離と、
のうちの1つ以上のパラメータを表すデータを含む、
本発明の第2の形態は、キャプチャされたライトフィールド・データに関するメタデータを提供する装置を提供する。この装置は、
ライトフィールド・カメラによってキャプチャされたライトフィールド・データを取得するライトフィールド・データ取得モジュールと、
ライトフィールド・データをキャプチャするために使用されるライトフィールド・カメラと、
ライトフィールド・データから得られたビューのマトリックスと、
ライトフィールド・データから得られたフォーカル・スタックと、
のうちの少なくとも1つの特性を記述する集約メタデータを提供するデータフォーマッタと、を含む。
本発明の第3の態様は、ライトフィールド撮像装置を提供する。ライトフィールド撮像装置は、
規則的な格子構造に配列されたマイクロレンズのアレイと、
マイクロレンズのアレイからフォトセンサ上に投影された光をキャプチャするように構成されたフォトセンサであって、各々の組がマイクロレンズのアレイの各々のマイクロレンズに光学的に関連付けられた複数の組の画素を含む、フォトセンサと、
キャプチャされたライトフィールド・データに関するメタデータを提供する装置とを含み、このメタデータを提供する装置は、
ライトフィールド・カメラによってキャプチャされたライトフィールド・データを取得するライトフィールド・データ取得モジュールと、
ライトフィールド・データをキャプチャするために使用されるライトフィールド・カメラと、
ライトフィールド・データから得られたビューのマトリックスと、
ライトフィールド・データから得られたフォーカル・スタックと、
のうちの少なくとも1つの特性を記述する集約メタデータを提供するデータフォーマッタと、を含む。
本発明のさらなる態様は、
ライトフィールド・データをキャプチャするために使用されるライトフィールド・カメラと、
ライトフィールド・データから導出されたビューのマトリックスと、
ライトフィールド・データから導出されたフォーカル・スタックと、
のうちの少なくとも1つの特性を記述するメタデータを使用してライトフィールド・データからの画像をレンダリングする装置を提供する。この装置は、
プロセッサと、レンダリング・アプリケーション、ライトフィールド・データおよびメタデータを含むメモリとを含み、レンダリング・アプリケーションは、プロセッサに、メタデータにおいて提供された情報に基づいてライトフィールド・データをレンダリングさせるように構成されている。
本発明の別の態様は、
ライトフィールド・カメラからキャプチャされたライトフィールド・データと、
ライトフィールド・データをキャプチャするために使用されるライトフィールド・カメラと、
ライトフィールド・データから得られたビューのマトリックスと、
ライトフィールド・データから得られたフォーカル・スタックと、
の少なくとも1つの特性を記述するメタデータとを含む、データ・パッケージを提供する。
本発明の別の態様によれば、ライトフィールド・データを処理する方法が提供される。この方法は、第1のライトフィールド・データ・フォーマットを、この第1のライトフィールド・データ・フォーマットとは異なる第2のライトフィールド・データ・フォーマットに変換することを含み、この変換は、ライトフィールド・データを記述するメタデータから取得されるパラメータを使用して実行される。第1のライトフィールド・データ・フォーマットおよび第2のライトフィールド・データ・フォーマットは、ライトフィールド・カメラによってキャプチャされた生のライトフィールド・データ、サブアパーチャ画像のマトリックス、およびフォーカル・スタックからなる群より選択される。
本発明のさらに別の態様は、プロセッサと、フォーマット変換アプリケーションを含むメモリとを含むライトフィールド・データを処理する装置を提供する。フォーマット変換アプリケーションは、プロセッサに対し、第1のライトフィールド・データ・フォーマットを、この第1のライトフィールド・データ・フォーマットとは異なる第2のライトフィールド・データ・フォーマットに変換させるように構成され、この変換は、ライトフィールド・データを記述するメタデータから取得されるパラメータを使用して実行され、第1のライトフィールド・データ・フォーマットおよび第2のライトフィールド・データ・フォーマットは、ライトフィールド・カメラによってキャプチャされた生のライトフィールド・データ、サブアパーチャ画像のマトリックス、およびフォーカル・スタックからなる群より選択される。
一実施形態においては、メモリは、レンダリング・アプリケーションをさらに含み、レンダリング・アプリケーションは、プロセッサに対し、メタデータに提供された情報に基づいてライトフィールド・データをレンダリングさせるように構成される。
本発明のさらなる態様は、ライトフィールド撮像装置を提供する。このライトフィールド撮像装置は、規則的な格子構造に配列されたマイクロレンズのアレイと、マイクロレンズのアレイからフォトセンサ上に投影された光をキャプチャするように構成されたフォトセンサであって、各々の組がマイクロレンズのアレイの各々のマイクロレンズに光学的に関連付けられた複数の組の画素を含む、フォトセンサと、プロセッサおよびフォーマット変換アプリケーションを含むメモリを含んだライトフィールド・データを処理する装置と、を含み、フォーマット変換アプリケーションは、プロセッサに対し、第1のライトフィールド・データ・フォーマットを、この第1のライトフィールド・データ・フォーマットとは異なる第2のライトフィールド・データ・フォーマットに変換させるように構成され、この変換は、ライトフィールド・データを記述するメタデータから取得されるパラメータを使用して実行され、第1のライトフィールド・データ・フォーマットおよび第2のライトフィールド・データ・フォーマットは、ライトフィールド・カメラによってキャプチャされた生のライトフィールド・データ、サブアパーチャ画像のマトリックス、およびフォーカル・スタックからなる群より選択される。
一実施形態においては、ライトフィールド・メタデータは、ライトフィールド・データをキャプチャするために使用されるライトフィールド・カメラと、ライトフィールド・データから得られたサブアパーチャ画像のマトリックスと、ライトフィールド・データから得られたフォーカル・スタックと、のうちの少なくとも1つの特性を記述する。
一実施形態においては、第1のライトフィールド・データ・フォーマットは、ライトフィールド・カメラによってキャプチャされる、生のライトフィールド・データであり、生のライトフィールド・データは、マイクロ画像のアレイを含み、各マイクロ画像は、マイクロレンズ・アレイの各々のマイクロレンズによって投影され、第2のライトフィールド・フォーマットは、サブアパーチャ画像のマトリックスであり、各サブアパーチャ画像は、マイクロ画像の同じ位置にあるサンプルから生成され、焦点距離およびサブアパーチャ画像のマトリックスの軸間ベースライン距離の少なくとも一方は、メタデータに含まれるライトフィールド・カメラの技術的なパラメータを使用して得られる。
一実施形態においては、焦点距離は、ライトフィールド・カメラの主レンズの焦点距離と、ライトフィールド・カメラのフォトセンサの水平およびスケールファクタと、フォトセンサの画素ピッチと、のうちの少なくとも1つから得られる。
一実施形態においては、軸間ベースラインは、ライトフィールド・カメラのフォトセンサのスケールファクタと、フォトセンサの画素ピッチと、マイクロレンズ・アレイのピッチと、マイクロレンズ・アレイのスケールファクタと、のうちの少なくとも1つから得られる。
一実施形態においては、サブアパーチャ画像Vk,lの外部行列は、以下の回転R行列および平行移動T行列から構成される。
Figure 2018514969
ここで、bおよびbは、各々が水平軸間ベースライン距離および垂直軸間ベースライン距離であり、kおよびlは、整数である。
一実施形態においては、第1のライトフィールド・データ・フォーマットは、ライトフィールド・カメラによってキャプチャされる、生のライトフィールド・データであり、生のライトフィールド・データは、マイクロ画像のアレイを含み、各マイクロ画像は、マイクロレンズ・アレイの各々のマイクロレンズによって投影され、第2のライトフィールド・フォーマットは、フォーカル・スタックであり、フォーカル・スタックは、生のライトフィールド・データのシフトされたマイクロ画像をスプラットすることによって計算され、フォーカスされた画像の焦点距離は、主レンズの焦点距離、フォトセンサの画素ピッチ、およびマイクロレンズ・アレイのレンズ・ピッチのうちの少なくとも1つから得られる。
一実施形態においては、焦点距離は、以下の式に基づいて求められる。
Figure 2018514969
ここで、wは、フォーカスされたピクチャを規定するシフトを表し、Fは、主レンズの焦点距離であり、
Figure 2018514969
は、マイクロレンズの直径に対応するフォトセンサの画素の数であり、rμLは、ライトフィールド・カメラのマイクロレンズ・ピッチを表し、rは、ライトフィールド・カメラのフォトセンサ・ピッチを表す。
一実施形態においては、導出された焦点距離は、メタデータに含まれる。
一実施形態においては、第1のライトフィールド・データ・フォーマットは、サブアパーチャ画像のマトリックスであり、第2のライトフィールド・データ・フォーマットは、フォーカル・スタックである。フォーカル・スタックは、シフトされたサブアパーチャ画像をスプラットすることによって計算され、フォーカリゼーション輻輳は、焦点距離と、サブアパーチャ画像のマトリックスの軸間ベースライン距離と、のうちの少なくとも1つから得られる。
一実施形態においては、フォーカリゼーション輻輳vは、以下によって求められる。
Figure 2018514969
ここで、bおよびbは、軸間ベースライン距離であり、fおよびfは、サブアパーチャ画像のマトリックスの焦点距離であり、dは、潜在する視差である。
本発明のさらなる態様は、メモリと、1つ以上のプロセッサと、メモリに記憶され、1つ以上のプロセッサによって実行されるように構成された1つ以上のモジュールとを含む電子装置を提供する。1つ以上のモジュールは、本発明の実施形態に従って、ライトフィールド・データを処理またはフォーマット化するための命令を含む。
本発明のさらなる態様は、命令を含むコンピュータ可読メモリを提供し、この命令は、ポータブル装置のプロセッサによって実行されたときに、この装置に、本発明の実施形態に従って、ライトフィールド・データを処理またはフォーマットする命令を含む処理を実行させる。
本発明の要素によって実施される処理の中には、コンピュータによって実施されるものがある。したがって、このような要素は、完全にハードウェアの実施形態で実施することも、(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)完全にソフトウェアの実施形態で実施することも、ソフトウェアおよびハードウェアの態様を組み合わせた実施形態で実施することもでき、これらは、全て、本明細書において、一般的に、「回路」、「モジュール」、または、「システム」と称することがある。さらに、このような要素は、任意の有体物としての媒体であって、内部にコンピュータが使用可能なプログラム・コードが実装された表現を有する媒体において実施されるコンピュータ・プログラム・プロダクトの形態で実施することができる。
本発明の要素は、ソフトウェアにおいて実施することができるため、本発明は、任意の適切な担持媒体上でプログラム可能な装置に提供されるコンピュータ可読コードとして実施することができる。有体物としての担持媒体には、フロッピー・ディスク、CD−ROM、ハードディスク・ドライブ、磁気テープ装置、または、ソリッドステート・メモリ装置などが含まれる。一時的な搬送媒体には、電気信号、電子信号、光学信号、音響信号、磁気信号、電磁信号、例えば、マイクロ波またはRF信号などの信号が含まれる。
次に、本発明の実施形態を以下の添付図面を参照して、例示的な目的のみで、説明する。
本発明の第1の実施形態によるライトフィールド・カメラの模式図である。 本発明の第2の実施形態によるライトフィールド・カメラの模式図である。 本発明の実施形態によるライトフィールド・カメラの機能図である。 本発明の実施形態によるライトフィールド・データ・フォーマッタおよびライトフィールド・データ・プロセッサの機能図である。 フォトセンサ・アレイ上に形成された2Dライトフィールド画像の例を示す図である。 本発明の実施形態によるライトフィールド・データのフォーマット化および処理のステップの例を示す図である。 本発明の実施形態に係るデータ・ファイルの例を示すスクリーン・ショットである。 本発明の実施形態に係るデータ・ファイルの例を示すスクリーン・ショットである。
ライトフィールド・カメラは、通常、ピクセルのアレイから構成されるセンサ上の4Dライトフィールドを記録するために使用される。4Dライトフィールド・データは、入来する光上の2次元空間情報および2次元角度情報を提供する。このようなライトフィールド・カメラの例としては、以下のようなものが挙げられる。図1Aに示されているような、主レンズ101、レンズ110のアレイ、およびフォトセンサ120を含むプレノプティック・カメラ100、または、図1Bに示されているような、主レンズを有していない、レンズ210のアレイおよびフォトセンサ220を含むマルチカメラ・アレイ。マルチアレイ・カメラは、主レンズが無限焦点を有するプレノプティック・カメラの特別な場合と考えることができる。
本発明の実施形態は、フォーマット変換、リフォーカス、視点変化、および3D画像生成などのさらなる処理アプリケーションのためのライトフィールド・データのフォーマット化を提供する。
図1Aは、本発明の1つ以上の実施形態が適用されるライトフィールド・カメラの模式図である。
図1Aのライトフィールド・カメラ100は、マイクロレンズ・アレイ110およびこのマイクロレンズ・アレイ110に関連付けられた画像センサ120を含むプレノプティック・タイプのライトフィールド・カメラである。さらに、選択可能な光量の光がライトフィールド・カメラに入ることができるようにする開口部102など、光学部を設けることができる。レンズ構造は、さらに、マイクロレンズ・アレイ110に光を集光させる主(対物)レンズ101を含む。
マイクロレンズ・アレイ110は、規則的な格子構造のマイクロレンズ111,112,113,・・・11nが配列されたアレイから構成される。例えば、この構造は、行および列の矩形の格子とすることができる。マイクロレンズ・アレイは、レンズレット・アレイと呼ばれることもある。例示的な目的で、比較的小さな数のマイクロレンズを有するマイクロ・アレイ110が示されているが、マイクロレンズの数は、数千、または数百万にも達することがあることが理解できよう。
場合によっては、画像センサ120で、マイクロレンズからの光が、マイクロレンズ・アレイ110の他のマイクロレンズの光と重複しないようにするために、スペーサを、マイクロレンズ・アレイ110と画像センサ120との間に、マイクロレンズ・アレイ110の各マイクロレンズの周囲に配置してもよい。
画像センサは、格子構造に配列されたm個のフォトセンサ121,122,123,124・・・12mから構成されたフォトセンサ・アレイ120を含む。例えば、この構造は、行および列の矩形の格子に配列された構造とすることができる。各フォトセンサ121,122,123,124・・・12mは、フォトセンサ・アレイ120によってキャプチャされたシーンの生の画像(raw image)の画素または画素群に対応し、各画素は、シーンの部分(点とも呼ばれる)を示している。例示的な目的で、フォトセンサ・アレイ120は、比較的に少数のフォトセンサ121〜121mを有するように示されている。しかしながら、フォトセンサの数は、図1Aに例示されたものに限られるものではなく、どのような数のフォトセンサ、例えば、数千または数百万のフォトセンサに拡張可能であることが理解できよう。示されている例においては、12.4メガピクセルの画像が4088×3040画素/フォトセンサのアレイによって提供される。例えば、画像センサは、電荷結合素子(CCD)とすることができる。
マイクロレンズ・アレイ110のマイクロレンズ111,112,11nは、各マイクロレンズがフォトセンサ・アレイ120のフォトセンサに光学的に関連付けられるように配列されている。一般的には、フォトセンサ・アレイ120は、マイクロレンズ・アレイのピッチよりも細かいピッチを有する。したがって、各マイクロレンズは、フォトセンサ・アレイ120の複数のフォトセンサと関連付けられる。マイクロレンズとフォトセンサ群との間の光学的な関連付けは、所与のマイクロレンズを通過する光線が、所与のマイクロレンズに光学的に関連付けられているフォトセンサ群のうちの少なくとも1つのフォトセンサに達することを示すものである。
主レンズ101とフォトセンサ120との間にマイクロレンズ・アレイ110を配置することで、結果として、複数の画像がフォトセンサ・アレイ120上に形成されることとなる。マイクロレンズ・アレイ110の各マイクロレンズは、各画像をフォトセンサ・アレイ120の関連付けられたフォトセンサ上に投影する。したがって、画像センサ120によってキャプチャされた生の画像は、例えば、図3に例示されているような、通常、マイクロ画像と呼ばれる小さな画像のアレイから構成される。各マイクロ画像は、異なる視点からの部分的な視野に対応し、マイクロレンズ・アレイのマイクロレンズに対応する。フォトセンサ120の各画素は、2つの次元がセンサ上の自己の空間的な位置を特定し、2つの次元が、画素の属するマイクロ画像内での画素の2D位置に従って、この画素に入射する光の角度または方向情報を特定する、4Dライトフィールド座標に対応するものと考えることができる。
カラー・フィルタ・アレイ(CFA)は、場合によっては、マイクロレンズ・アレイ110上、または、フォトセンサ・アレイ120上に配列させてもよい。CFAは、通常、フォトセンサまたはマイクロセンサ・センサ上のRGB(赤、緑、および青)のカラー・フィルタを配列させる。RGB配列は、例えば、ベイヤーフィルタ・モザイクの形態をとる。1つのカラー・フィルタ(赤、緑、または青フィルタ)は、ベイヤーフィルタの例では、50%緑、25%赤、および25%青を含む、所定のパターンに従ったMLAに関連付けることができる。このようなパターンは、RGBG、GRGB、またはRGGBパターンとも呼ばれる。マイクロレンズ・アレイ110またはフォトセンサ・アレイ120上のカラー・フィルタの配列は、RGGBパターンに限定されないことが理解できよう。他の実施形態においては、所定のパターンは、(4つのカラー・フィルタのブロックに対して)緑フィルタのうちの1つが「エメラルド」に変更されているRGBEパターンでもよく、(4つのカラー・フィルタのブロックに対して)1つの「シアン」フィルタ、2つの「黄」フィルタ、1つの「マゼンタ」フィルタを用いたCYYMパターンでもよく、1つの「シアン」フィルタ、1つの「黄」フィルタ、1つの「緑」フィルタ、および1つの「マゼンタ」フィルタを用いたCYGMパターンでもよく、1つの「赤」フィルタ、1つの「緑」フィルタ、1つの「青」フィルタ、および1つの「白」フィルタを用いたRGBWパターンでもよく、幾つかの配列構成が可能である(例えば、左上のフィルタに対して「白」、右上のフィルタに対して「赤」、左下のフィルタに対して「青」、および右下のフィルタに対して「緑」が存在する4つのカラー・フィルタのブロック上に配列され、または、第1のラインに対しては、「白」、「青」、「白」、「緑」、第1のラインの下の第2のラインに対しては、「青」、「白」、「緑」、「白」、第2のラインの下の第3のラインに対しては、「白」、「緑」、「白」、「赤」、第3のラインの下の第4のラインに対しては、「緑」、「白」、「赤」、「白」が配列される)。
マイクロレンズ・アレイとフォトセンサ・アレイとの間のギャップは、空気、屈折率nを有する光学材料(例えば、ガラス層)、または、少なくとも1つの空気層および少なくとも1つの光学材料層を含む複数の層からなる。ギャップを形成するためにガラス層を使用した場合には、フォトセンサ・アレイ120全体にわたって均一に、マイクロレンズ・アレイ110のフォトセンサ・アレイ120からの距離を一定に維持し、さらに、この距離を必要な場合に減少できるという利点が得られる。dがマイクロレンズ・アレイ110の出力部とフォトセンサ・アレイ120と間の長軸に沿った距離である場合には、マイクロレンズ・アレイ110とフォトセンサ・アレイ120との間で屈折率n(n>1、例えば、n=1.5)を有する光学材料から構成される層を有することで、距離dを変更することなく、距離をd/nに設定可能である。ギャップを形成する層の光学材料の屈折率を適応化/変更することによって、距離dを変更することなく、マイクロレンズ・アレイ110とフォトセンサ・アレイ120との間の距離を表すパラメータを適応化/変更することが可能である。
図1Bは、本発明の第2の実施形態によるライトフィールド・カメラの模式図である。
本発明の第2の実施形態によるライトフィールド・カメラ200は、マイクロレンズ・アレイ210およびこのマイクロレンズ・アレイ210に関連付けられた画像センサ220を含むマルチカメラ・アレイ・タイプのライトフィールド・カメラである。本実施形態においては、マイクロレンズ・アレイ210に光を集光する主レンズ201が存在しない。フォトセンサ・アレイ220およびマイクロレンズ・アレイ210のような要素は、図1Aのプレノプティック・タイプのカメラの対応する要素と同じように動作する。主な差違は、主レンズが図1Bの実施形態には存在しない点である。各マイクロ画像は、異なる視点からの視野全体に対応する。
図2Aは、本発明の実施形態によるライトフィールド・カメラ装置のブロック図である。ライトフィールド・カメラは、図1Aのライトフィールド・カメラの通りに、開口部/シャッタ102、主(対物)レンズ101、マイクロレンズ・アレイ110、およびフォトセンサ・アレイ120を含む。実施の形態によっては、ライトフィールド・カメラは、被写体またはシーンのライトフィールド画像をキャプチャするように駆動されるシャッタ・リリースを含む。この機能的な特徴が図1Bのライトフィールド・カメラに対しても適用されることが理解されよう。
フォトセンサ・アレイ120は、ライトフィールド・データ・フォーマット化モジュール150によって、および/または、ライトフィールド・データ・プロセッサ155によって、ライトフィールド・データ・フォーマットの生成のために、ライトフィールド(LF)・データ取得モジュール140によって取得されたライトフィールド画像データを出力する。ライトフィールド・データは、取得後、そして処理後に、サブアパーチャ(sub−aperture)画像またはフォーカル・スタックとして、生データのフォーマットでメモリ190に記憶することができる。
示されている例においては、ライトフィールド・フォーマット化モジュール150およびライトフィールド・データ・プロセッサ155は、ライトフィールド・カメラ100内に設けられるか、ライトフィールド・カメラ100内に組み込まれている。本発明の他の実施形態においては、ライトフィールド・フォーマット化モジュール150および/またはライトフィールド・データ・プロセッサ155を、ライトフィールド・キャプチャ・カメラの外部に別体の部品として設けてもよい。別体の部品は、ライトフィールド画像キャプチャ装置に対して、ローカルに設けられていてもよいし、リモートに設けられていてもよい。フォーマット化モジュール150またはライトフィールド・データ・プロセッサ155にライトフィールド画像データを送信するために、任意の適切な無線または有線プロトコルを使用できることが理解できよう。例えば、ライトフィールド・データ・プロセッサは、キャプチャされたライトフィールド画像データおよび/または他のデータを、インターネット、携帯電話データ・ネットワーク、WiFiネットワーク、Bluetooth(登録商標)通信プロトコル、および/または他の適切な手段を通じて転送することができる。
ライトフィールド・データ・フォーマット化モジュール150は、ライトフィールド・データをキャプチャするために使用されるライトフィールド・カメラ、ライトフィールド・データから得られたビューのマトリックス、およびライトフィールド・データから得られたフォーカル・スタックのうちの少なくとも1つの特性を記述するメタデータを集約し、本発明の実施形態に従って、取得されたライトフィールドを表すデータを生成するように構成されている。ライトフィールド・データ・フォーマット化モジュール150は、ソフトウェア、ハードウェア、または、ソフトウェアおよびハードウェアを組み合わせたもので実施することができる。
ライトフィールド・データ・プロセッサ155は、例えば、本発明の実施形態に従って、フォーカル・スタックまたはビューのマトリックスを生成するために、ライトフィールド(LF)データ取得モジュール140から直接受信した生のライトフィールド画像データに対する処理を行うように構成される。例えば、キャプチャされたシーンの静止画像、2Dビデオ・ストリームなどのような他の出力データを生成することができる。ライトフィールド・データは、ソフトウェアで実施することもできるし、ハードウェアで実施することもできるし、ソフトウェアおよびハードウェアを組み合わせて実施することもできる。
少なくとも一実施形態においては、ライトフィールド・カメラ100には、ユーザがコントローラ170によってカメラ100の制御動作に対するユーザ入力を行えるようにするユーザ・インタフェース(UI)160を含めることができる。カメラの制御には、シャッタ速度のようなカメラの光学的パラメータの制御、または、調節可能なライトフィールド・カメラの場合には、マイクロレンズ・アレイとフォトセンサと間の相対距離または対物レンズとマイクロレンズ・アレイとの間の相対距離の制御のうちの1つ以上を含めることができる。実施形態によっては、ライトフィールド・カメラの光学素子間の相対距離を手動で調節することができる。カメラの制御には、他のライトフィールド・データ取得パラメータ、ライトフィールド・データ・フォーマット化パラメータ、またはカメラのライトフィールド処理パラメータの制御を含めることもできる。ユーザ・インタフェース160には、タッチスクリーン、ボタン、キーボード、ポインティング装置などの、任意の適切なユーザ入力装置を含めることができる。このようにして、ユーザ・インタフェースによって受信された入力は、データ・フォーマット化を制御するためのLFデータ・フォーマット化モジュール150、取得されたライトフィールド・データの処理を制御するためのLFデータ・プロセッサ155、およびライトフィールド・カメラ100を制御するためのコントローラ170を制御および/または構成設定するために使用することができる。
ライトフィールド・カメラは、1つ以上の交換可能または充電可能なバッテリなど、電源180を含む。ライトフィールド・カメラは、キャプチャされたライトフィールド・データおよび/またはレンダリングされた最終的な画像、または、本発明の実施形態の方法を実施するためのソフトウェアなどの他のデータを記憶するためのメモリ190を含む。メモリには、外部メモリおよび/または内部メモリを含めることができる。少なくとも1つの実施形態においては、メモリは、カメラ100とは別個の装置に設けることもできるし、且つ/または、カメラ100とは別個の位置に設けることもできる。一実施形態においては、メモリは、メモリ・スティックなどの着脱可能な/交換可能な記憶装置を含む。
ライトフィールド・カメラには、キャプチャを行う前にカメラの前方のシーンを視聴するための、且つ/または、以前にキャプチャされた画像および/または以前にレンダリングされた画像を視聴するための、表示部(ディスプレイ・ユニット)165(例えば、LCD画面)を含めることができる。画面165は、ユーザに対して1つ以上のメニューまたは他の情報を表示するために使用してもよい。ライトフィールド・カメラは、ファイア・ワイア(FireWire)またはユニバーサル・シリアル・バス(USB)・インタフェース、またはインターネットを介したデータ通信のための無線インタフェースまたは有線インタフェース、携帯電話データ・ネットワーク、WiFiネットワーク、Bluetooth(登録商標)通信プロトコル、および/または他の任意の適切な手段など、1つ以上のI/Oインタフェース195をさらに含んでいてもよい。I/Oインタフェース195は、レンダリング・アプリケーションのためのコンピュータ・システムまたはディスプレイ・ユニットなどの外部機器との、本発明の実施形態に従ったLFデータ・フォーマット化モジュールによって生成されたライトフィールドを表すデータおよび生のライトフィールド・データなどのライトフィールド・データ、または、LFデータ・プロセッサ155によって処理されたデータのデータ転送のために使用することができる。
図2Bは、ライトフィールド・データ・フォーマット化モジュールおよびライトフィールド・データ・プロセッサの想定可能な実施態様の一実施形態を例示するブロック図である。
回路300は、メモリ390、メモリ・コントローラ345、および1つ以上の処理ユニット(CPU)を含む処理回路340を含む。1つ以上の処理ユニット340は、メモリ390に記憶された様々なソフトウェア・プログラムおよび複数組の命令を実行して、ライトフィールド・データ・フォーマット化およびライトフィールド・データ処理を含む、様々な機能を実行するように構成されている。メモリに記憶されたソフトウェア・コンポーネントは、本発明の実施形態に従って取得されたライト・データを表すデータを生成するデータ・フォーマット化モジュール(または1組の命令)350と、本発明の実施形態に従ってライトフィールド・データの或るフォーマットを別の異なるライトフィールド・データのフォーマットに変換するフォーマット変換モジュール(または1組の命令)3555を含む、本発明の実施形態に従ってライトフィールド・データを処理するライトフィールド・データ処理モジュール(または1組の命令)355と、を含む。一般的なシステム・タスク(例えば、省電力管理、メモリ管理)を制御し、装置300の様々なハードウェア・コンポーネントとソフトウェア・コンポーネントとの間の通信を容易にするオペレーティング・システム・モジュール351およびI/Oインタフェース・ポートを介して他の装置との通信を制御および管理するインタフェース・モジュール352など、ライトフィールド・カメラ装置のアプリケーションのためのメモリに他のモジュールを含めることができる。
図3は、図1Aのフォトセンサ・アレイ120上、または、図1Bのフォトセンサ・アレイ220上に形成された2D画像の例を示している。画像は、複数のマイクロ画像MIのアレイで構成される。各マイクロ画像は、マイクロレンズ・アレイ110,210の各々のマイクロレンズ(i,j)によって生成される。マイクロ画像は、軸iおよびjによって規定される矩形の規則的な格子構造のアレイに配列されている。マイクロレンズ画像は、各々のマイクロレンズ座標(i,j)によって参照される。フォトセンサ120,220の画素PIは、この画素PIの空間座標(x,y)によって参照される。所与の画素に関連付けられている4Dデータは、(x,y,i,j)として参照される。
本発明の実施形態は、生のライトフィールド・データ・コンテンツ、ビューのマトリックス、および、フォーカル・スタックについて記述したメタデータを集約したデータ・フォーマットを提供する。実施形態によっては、メタデータは、ライトフィールド・データを処理するために、例えば、或るフォーマットから別のフォーマットに、生のライトフィールド・データをビューのマトリックスまたはフォーカル・スタックに変換する、または、ビューのマトリックスからフォーカル・スタックに変換するなど、ライトフィールドを変換するために、もしくは、視点変更およびリフォーカスなどの一般的なライトフィールド・アプリケーションのために、使用することができる。
図4は、本発明の1つ以上の実施形態によるライトフィールド・データを処理、フォーマット化する方法のステップの概要を示している。ステップS401において、ライトフィールド・データは、図1Aに示されたカメラなどのプレノプティック・カメラから、または、図1Bに示されたカメラなどのマルチカメラ・アレイから、データ取得モジュール140によって取得される。ライトフィールド・データ・プロセッサ155は、生のフォーマットでライトフィールド・データを受信する。ステップS402において、生のライトフィールド・データは、デモザイクおよび再格子化の処理によってビューのマトリックス(サブアパーチャ画像)に変換される。ステップS403において、生のライトフィールド・データがスプラット処理(シフトしたマイクロ画像の蓄積)によってフォーカル・スタック(複数の異なるフォーカル平面での1組の画像)に変換される。ステップS404において、ビューのマトリックスがスプラット処理(シフトしたサブアパーチャ画像の蓄積)によってフォーカル・スタックに変換される。
ステップS410において、取得されたライトフィールド・データのメタデータが提供され、フォーマット化される。メタデータは、カメラの技術的な特性を規定するカメラ・メタデータ、ビューのマトリックスを規定するビュー・マトリックス・メタデータ、およびフォーカル・スタックを規定するフォーカル・スタック・メタデータを含む。ステップS420において、ビューのマトリックスおよびこのビューのマトリックスを規定するライトフィールド・メタデータを使用して、視点の変更を行うことができる。ステップS430において、フォーカル・スタックおよびこのフォーカル・スタックを規定するメタデータを使用して、リフォーカスを行うことができる。2D画像は、マイクロ画像を所与の視差だけシフトし、画像を加えて単一の2D画像を形成することによって、マイクロ画像から生成される。所与の距離zで画像をリフォーカスするために、距離zに関連付けられた視差だけマイクロ画像がシフトされる。視点の変更を行うために、マイクロ画像の部分のみが追加される(例えば、左/右の視点に対し、左/右の部分)。
本発明の実施形態において、ライトフィールド・データ・コンテンツを特徴付けるメタデータに対するフォーマット化シンタックスが提供される。ライトフィールド・データ・コンテンツを特徴付けるメタデータは、以下のものを含む。
カメラ特性データ:
カメラ特性データは、センサ、ライトフィールド・データをキャプチャするライトフィールド・カメラの主レンズおよびμレンズ・アレイ、特に、μレンズの中心の位置を特徴付けるデータである。メタデータは、例えば、センサ解像度、カラー・サンプリング、カラー・フィルタ透過率、ダイナミック・レンジ、色変換行列、画素ピッチ、レンズ・ピッチ、焦点距離、口径食(vignetting)を表すデータを含むことができる。
ビュー特性データ:
ビュー特性データは、各ビュー/サブアパーチャ画像の各々の固有パラメータおよび外部パラメータを特徴付けるメタデータなど、ビューのマトリックスを特徴付けるデータ、および各ビュー/サブアパーチャ画像の色情報である。
フォーカル・スタック・データ:
フォーカル・スタック・データは、各フォーカスされたピクチャの焦点距離を特徴付けるメタデータなど、フォーカル・スタックを特徴付けるデータである。例えば、インデックス・マップが挙げられる。
フォーマット化シンタックスには、さらに、ビデオおよび複数のフレームのシーケンスを管理するためのファイル・ロケーションおよびファイル名を復元するために必要な基本情報を含めることができる。
メタデータは、ファイルまたは1組のファイルに記憶されたディジタル・データとして提供することができる。本発明の一実施形態においては、フォーマット化シンタックスは、例えば、XML規則に準拠したマークアップ言語として示される。以下、フォーマット化シンタックスをライトフィールド・マークアック言語(略してlfmlと記す)として参照する。以下の例において、メタデータのフォーマット化シンタックスは、(タグが含まれた)セクションの定義および対応する属性(メタデータ自体)を含む。
ルート・セクションおよびタイプ属性
表1は、ライトフィールド・メタデータ・ファイルのルート・セクションおよび属性の例を示している。*.lfmlファイルのボディは、<LightFieldContent>セクションに含まれている。*.lfmlファイルのボディは、コンテンツのタイプを規定する属性を含み、これは、この例において、以下のように表されている。
LFtype=「RAW」は、生のプレノプティック・ピクチャを示し、「MATRIX_OF_VIEWS」は、ビューのアレイを示し、「FOCAL_STACK」は、フォーカル・スタックを示している。
<LightFieldContent
lfml:LFtype="RAW"
>
[…]
</LightFieldContent>
表1:例示的な*.lfmlファイルのルート・セクションおよび属性
フォルダおよびファイル属性
ファイルの名称設定属性は、全てのファイルが保存されており、かつ整合性を持って名称設定がなされていれば、ルート・レベルに存在し得る。ファイル名称設定属性は、ファイルの中に同一のパスまたは、プレフィックスまたはナンバリングを共有しないものがあれば、下位のレベルのセクションに存在することもある。path属性は、フォルダ・パスを規定する文字列である。filePrefix属性は、ファイル名のプレフィックスを規定する文字列である。storageMode属性は、ファイル・ストレージ・モードおよび使用されるファイル・フォーマットを記述する、コロン(:)によって分割された2つの部分の文字列である。この文字列は、「FILE_SEQUENCE:PNG」、「FILE_SEQUENCE:PGM」、「FILE_SEQUENCE:RAW」、「VIDEO_FILE:YUV」、「VIDEO_FILE:AVI」のうちのいずれかである。
firstFrameIdx属性及びlastFrameIdx属性は、それぞれ、ライトフィールド・シーケンスの最初のフレームおよび最後のフレームのインデックスである。digitSuffix属性は、例えばハッシュ・シンボルの文字列であり、ファイル名サフィックスにおけるフレームのナンバリング専用の桁数を規定する。静止画像の場合、これらの3つのフィールドは、存在しないか、空である(表2および図5参照)。複数の画像のシーケンスの場合には、ファイル名には、フレームのインデックスでサフィックスが付けられている(図3および図6参照)。

<LightFieldContent
lfml:LFtype="RAW"
lfml:path=".\Lytro\Gallery"
lfml:filePrefix="Snake"
lfml:storageMode="FILE_SEQUENCE:RAW"
lfml:firstFrameIdx=""
lfml:lastFrameIdx=""
lfml:digitSuffix=""
>
[…]
</LightFieldContent>
表2:生のライトフィールド静止画像に対するファイル名称設定属性


<LightFieldContent
lfml:LFtype="MATRIX_OF_VIEWS"
lfml:path=".\CGI\Blender"
lfml:filePrefix="outdoor"
lfml:storageMode="FILE_SEQUENCE:PNG"
lfml:firstFrameIdx="0"
lfml:lastFrameIdx="249"
lfml:digitSuffix="####"
>
[…]
</LightFieldContent>
表3:ライトフィールド・ビデオに対するファイル名称設定属性(ここでは、CGIマルチビュー・ビデオ・シーケンス)
なお、ビューのマトリックスおよびフォーカル・スタックの場合には、ファイルは、デフォルトで、例えば、それぞれ、¥view#および¥focus#という名称が付けられたフォルダ内に取得される(例えば、図6参照)。ファイル名は、デフォルトで、所定のプレフィックスおよびサフィックスの規則に従って構築されていてもよい。しかしながら、属性パス、フォルダ、ファイル名、およびサフィックスは、代替的なロケーションおよび名称を規定するために、複数のサブセクションにおいて使用することができる。
座標系属性
ライトフィールドの撮像の処理には、座標系による表記が必要である。座標系は、所定のデフォルト値を用いた黙示的なものであってもよいし、「leftward(左側)」/「rightward(右側)」および「upward(上側)」/「downward(下側)」の値をそれぞれ有する属性CSxおよび属性CSyを用いた記述ファイル内で明示的に記載されていてもよい。
座標系属性は、ルート・レベルまでの、*.lfmlファイルの任意のレベルに配置することができる。ただし、使用されている全ての座標系が互いに整合しているものとする。
生のプレノプティック・ピクチャ
生のプレノプティック・ピクチャの場合(LFtype=「RAW」)には、ライトフィールド・メタデータ・ファイル(*.lfmlファイル)は、セクション<RawPlenopticPictures>を示し、これは、キャリブレーションの完全性に依存して、<Sensor>、<MainLens>、および<μLensArray>のセクションのうちの1つ以上を含み得る(表4参照)。
<Sensor>セクションは、ライトフィールド・カメラの技術的な特徴を記述する以下の属性のうちの1つ以上を含むことができる。このような属性は、製造者によって提供されることがある。
raysResolution属性は、センサの解像度を規定する(「幅×高さ」、例えば、「4008×2672」がRaytrix R11カメラを指し、「3280×3280」が第1のLytro「LightField(ライトフィールド)」カメラを指すなど)。
colorFilter属性は、センサ上のカラー・サンプリングを規定する(例えば、「BayerGRBG」または「Foveonx3RGB」または「Monochrome」)。
colorFilterTransmittance属性は、センサのカラー・フィルタの透過率を規定する。colorFilterTransmittance属性は、カラー・フィルタに依存して、1つ、3つ、または4つの値を有する。この属性は、存在しないか、空となることがある。
dynamicRange属性は、画素のレンジを規定する。dynamicRange属性は、2つの値、下限および上限を有し、これを逸脱した信号は、ノイズとみなされる。
colorTransformMatrixは、画素によって出力される信号と入来する光との間の非線形関係を規定する3×3行列である。
pixelPitch属性は、2つの隣接する画素間の距離をメートルで規定する。
scaleFactorXおよびscaleFactorY属性は、(正方形ではない)矩形の画素の形状比を規定するために使用できる。
<MainLens>セクションは、以下の属性のうちの1つ以上を含み、この項目は、製造者によって提供されることがある。
focalLength属性は、主レンズの焦点距離をメートルで規定する。
numericalAperture属性は、瞳と焦点距離との間の比を規定する。この属性は、存在しないか、空となることがある。
whiteImage属性は、実際の焦点距離に対応する白画像の取得元となるフォルダ・ロケーションを規定する。白画像は、口径食の効果を除去するために使用される。この属性は、存在しないか、空となることがある。
vignetting属性は、主レンズの口径食のモデルを規定する。この属性は、存在しないか、空となることがある。
<μLensArray>セクションは、以下の属性を含む。製造者によって提供されるものもあれば、さらなるキャリブレーションによって決定されるものもある。
pattern属性は、μレンズ・アレイのパターンを規定する(「Square」、または「HexagonalRowMajor」、または「HexagonalColumnMajor」)。
該当する場合には、colorArrangement属性は、μレンズ・アレイに配置されたカラー・フィルタのパターンを規定する。この属性は、存在しないか、空となることがある。
μLensPitch属性は、2つの隣接したμレンズ間の距離をメートルで規定する。
μLensArrayRotation属性は、規定された座標系において、センサ格子に関し、μレンズの回転角を(角度で)規定する。
scaleFactorXおよびscaleFactorY属性は、μレンズの形状比を規定するために使用できる。
nbμCentersCalibrated属性は、キャリブレーションされたマイクロ画像の中心(μ中心)の数(すなわち、μ画像の中心の数)を規定する。この数は、零とすることができる。
<μLensArray>セクションは、対応する数の<μCenter>サブセクション(表5参照)を含む。これは、以下の属性を含む。
μCenterId属性は、μ中心のインデックスである。
cx属性およびcy属性は、μ中心のx座標およびy座標をそれぞれ(画素で)規定する。
<LightFieldContent
lfml:LFtype="RAW"
lfml:path=".\Lytro\Gallery"
lfml:filePrefix="Snake"
lfml:storageMode="FILE_SEQUENCE:RAW"
lfml:firstFrameIdx=""
lfml:lastFrameIdx=""
lfml:digitSuffix=""
lfml:CSx="rightward"
lfml:CSy="downward"
>
<RawPlenopticPictures>
<Sensor
lfml:raysResolution="3280x3280"
lfml:colorFilter="BayerGRBG"
lfml:colorFilterTransmittance=""
lfml:dynamicRange=""
lfml:colorTransformMatrix=""
lfml:pixelPitch="0.000001399999976158141876680929"
lfml:scaleFactorX="1.0"
lfml:scaleFactorY="1.0"
></Sensor>
<MainLens
lfml:focalLength="0.05131999969482421875"
lfml:numericalAperture="1.9"
lfml:whiteImage=””
lfml:vignetting=””
></MainLens>
<μLensArray
lfml:pattern="HexagonalRowMajor"
lfml:μLensPitch="0.00001389861488342285067432158"
lfml:μLensArrayRotation="-0.002579216146841645240783691406"
lfml:scaleFactorX="1.0"
lfml:scaleFactorY="1.00024712085723876953125"
lfml:nbμCentersCalibrated="0"
>
</μLensArray>
</RawPlenopticPictures>
</LightFieldContent>
表4:生のライトフィールド・ピクチャの*.lfmlファイルの例

LightFieldContent
lfml:LFtype="RAW"
[…]
>
<RawPlenopticPictures>
[…]
<μLensArray
[…]
lfml:nbμCentersCalibrated="108900"
>
[…]
<μCenter
lfml:μCenterId="27224"
lfml:cx="1633.087277"
lfml:cy="1633.490847"
></μCenter>
[…]
</μLensArray>
</RawPlenopticPictures>
</LightFieldContent>
表5:μ中心サブセクションの例
ビューのマトリックス
ビューのマトリックス(またはアレイ)の場合(LFtype=「MATRIX_OF_VIEWS」)、*.lfmlファイルは、幾つかの<SubApertureImage>サブセクションを含む、セクション<MatrixOfViews>を示す。シンタックスは、生のプレノプティック素材から再構築された1組のサブアパーチャ画像(表6参照)およびカメラ・アレイから取得されたコンテンツ(表7参照)の双方に適合する。
<MatrixOfViews>セクションは、以下の属性を含む。
nbSubApertureImagesは、ビュー/サブアパーチャ画像の数を規定する。<MatrixOfViews>セクションは、対応する数の<SubApertureImage>サブセクションを含む。
pixelResolution属性は、ビュー/サブアパーチャ画像の解像度を、この解像度が全てのビューで同一であると仮定して、画素(「WidthxHeight」)で規定する。解像度が全てのビューで同一でない場合には、この属性は、後続する<SubApertureImage>サブセクションのいずれにも記述される。この属性は、対応するピクチャ・ファイルのヘッダ内で利用可能であれば、存在しないか、空となることがある。
<SubApertureImage>サブセクションは、以下の属性を含む。
subApImId属性は、ビュー/サブアパーチャ画像のインデックスである。
extrinsics属性は、規定された座標系におけるビュー/サブアパーチャ画像の外部行列を規定する。
color属性は、ビュー/サブアパーチャ画像(「R」、「G」、「B」、「RGB」、「L」)内で利用可能な色を規定する。この属性は、どのビュー/サブアパーチャ画像によっても共有される場合には、<MatrixOfViews>セクションに記述することができる。
cx属性およびcy属性は、それぞれ、主点のx座標およびy座標を(画素で)規定する。これらの属性は、存在しないか、空となることがある。これらの属性は、どのビュー/サブアパーチャ画像によっても共有される場合には、<MatrixOfViews>セクションに記述することができる。
fxおよびfy属性は、それぞれ、ビュー/サブアパーチャ・ビューの水平および垂直焦点距離を(画素で)規定する。これらの属性は、存在しないか、空となることがある。これらの属性も、どのビュー/サブアパーチャ画像によっても共有される場合には、<MatrixOfViews>セクションに記述することができる。
numericalAperture属性は、<MainLens>セクションにおける場合と同様に、瞳と焦点距離の間の比を規定する。この属性は、存在しないか、空となることがある。この属性も、どのビュー/サブアパーチャ画像によっても共有される場合には、<MatrixOfViews>セクションに記述することができる。
distortionCoefficients属性は、歪みモデル(例えば、放射状歪みおよび接線歪みのBouguetの5個のパラメータ・モデル)を規定する。この属性は、存在しないか、空となることがある。この属性も、どのビュー/サブアパーチャ画像によっても共有される場合には、<MatrixOfViews>セクションに記述することができる。
<LightFieldContent
lfml:LFtype="MATRIX_OF_VIEWS"
lfml:path=".\PelicanImaging\Gallery"
lfml:filePrefix="GoldenGate"
lfml:storageMode="FILE_SEQUENCE:PGM"
lfml:firstFrameIdx=""
lfml:lastFrameIdx=""
lfml:digitSuffix=""
lfml:CSx="rightward"
lfml:CSy="downward"
>
<MatrixOfViews
lfml:nbSubApertureImages="16"
lfml:pixelResolution="1000x750"
>
<SubApertureImage
lfml:subApImId="0"
lfml:extrinsics="[[1, 0, 0, 0], [0, 1, 0, 0], [0, 0, 1, 0], [0,
0, 0, 1]]"
lfml:color="G"
lfml:cx="499"
lfml:cy="374"
lfml:fx=" 1175.0"
lfml:fy="1175.0"
lfml:numericalAperture=""
lfml:distortionCoefficients=""
></SubApertureImage>
<SubApertureImage
lfml:subApImId="1"
lfml:extrinsics="[[1, 0, 0, 0.005], [0, 1, 0, 0], [0, 0, 1, 0],
[0, 0, 0, 1]]"
lfml:color="R"
lfml:cx="500"
lfml:cy="374"
lfml:fx="1175.4"
lfml:fy="1175.4"
lfml:numericalAperture=""
lfml:distortionCoefficients=""
></SubApertureImage>
<SubApertureImage
lfml:subApImId="2"
lfml:extrinsics="[[1, 0, 0, 0.01], [0, 1, 0, 0], [0, 0, 1, 0],
[0, 0, 0, 1]]"
lfml:color="G"
lfml:cx="499"
lfml:cy="375"
lfml:fx="1175.9"
lfml:fy="1175.9"
lfml:numericalAperture=""
lfml:distortionCoefficients=""
></SubApertureImage>
<SubApertureImage
lfml:subApImId="3"
lfml:extrinsics="[[1, 0, 0, 0.015], [0, 1, 0, 0], [0, 0, 1, 0],
[0, 0, 0, 1]]"
lfml:color="B"
lfml:cx="500"
lfml:cy="375"
lfml:fx="1175.0"
lfml:fy="1175.0"
lfml:numericalAperture=""
lfml:distortionCoefficients=""
></SubApertureImage>
[…]
</MatrixOfViews>
</LightFieldContent>
表6:ペリカン・イメージング(Pelican Imaging)カメラ装置から再構築されたビューのマトリックスを記述する*.lfmlファイルの抜粋例

<LightFieldContent
lfml:LFtype="MATRIX_OF_VIEWS"
lfml:path=".\CGI\Blender"
lfml:filePrefix="outdoor"
lfml:storageMode="FILE_SEQUENCE:PNG"
lfml:firstFrameIdx="0"
lfml:lastFrameIdx="249"
lfml:digitSuffix="####"
lfml:CSx="rightward"
lfml:CSy="downward"
>
<MatrixOfViews
lfml:nbSubApertureImages="121"
lfml:pixelResolution="1920x1080"
lfml:color="RGB"
lfml:cx="960"
lfml:cy="540"
lfml:fx="3026.218853"
lfml:fy="3026.218853"
lfml:numericalAperture=”0.”
>
<SubApertureImage
lfml:subApImId="0"
lfml:extrinsics="[[1, 0, 0, 0], [0, 1, 0, 0], [0, 0, 1, 0], [0,
0, 0, 1]]"
lfml:distortionCoefficients=""
></SubApertureImage>
<SubApertureImage
lfml:subApImId="1"
lfml:extrinsics="[[1, 0, 0, 0.1], [0, 1, 0, 0], [0, 0, 1, 0], [0,
0, 0, 1]]"
lfml:distortionCoefficients=""
></SubApertureImage>
[…]
<SubApertureImage
lfml:subApImId="249"
lfml:extrinsics="[[1, 0, 0, 1.0], [0, 1, 0, 1.0], [0, 0, 1, 0],
[0, 0, 0, 1]]"
lfml:distortionCoefficients=""
></SubApertureImage>
</MatrixOfViews>
</LightFieldContent>
表7:コンピュータで生成されたビューのマトリックスを記述する*.lfmlファイルの抜粋
フォーカル・スタック
フォーカル・スタック(LFtype=「FOCAL_STACK」)の場合、*.lfmlファイルは、幾つかの<FocalStack>サブセクションおよび、場合によっては、サブセクション<IndexMap>を含んだセクション<FocalStack>を示す(表8参照)。
<FocalStack>セクションは、以下の属性を含む。
nbFocusedPicturesは、スタック内のフォーカスされたピクチャの数を規定する。<FocalStack>セクションは、対応する数の<FocusedPicture>サブセクションを含む。
focusedPicIdxMap属性は、インデックス・マップが利用可能かどうかを規定する(「AVAILABLE」または「UNAVAILABLE」)。
ビューのマトリックスの場合のように、pixelResolution属性は、フォーカスされたピクチャの解像度を、この解像度が誰にとっても同一だと仮定して、画素(「WidthxHeight」)で規定する。そうでない場合には、この属性は、後続する<FocusedPicture>サブセクションのいずれにも記述される。この属性は、対応するピクチャ・ファイルのヘッダ内で利用可能であれば、存在しないか、空となることがある。
<FocusedPicture>サブセクションは、以下の属性を含む。
focusPicId属性は、フォーカス・ピクチャのインデックスである。
distance属性は、フォーカスされたピクチャの焦点距離をメートルで規定する。この属性は、存在しないか、空となることがある。
vergence属性は、フォーカスされたピクチャの焦点距離の逆数を(m−1で)規定する。この属性は、存在しないか、空となることがある。
<IndexMap>サブセクションは、対応するファイル(ファイル名、サフィックス、場合によっては、パスまたはフォルダ)を取得するために必要な属性を含む。
<LightFieldContent
lfml:LFtype="FOCAL_STACK"
lfml:path=".\Lytro\Gallery"
lfml:filePrefix="Snake"
lfml:storageMode="FILE_SEQUENCE:PNG"
lfml:firstFrameIdx=""
lfml:lastFrameIdx=""
lfml:digitSuffix=""
lfml:CSx="rightward"
lfml:CSy="downward"
>
<FocalStack
lfml:nbFocusedPictures="8"
lfml:focusedPicIdxMap="AVAILABLE"
lfml:pixelResolution="1000x1000"
>
<FocusedPicture
lfml:focusPicId="0"
lfml:distance=""
lfml:vergence=""
></FocusedPicture>
<FocusedPicture
lfml:focusPicId="1"
lfml:distance =""
lfml:vergence=""
></FocusedPicture>
<FocusedPicture
lfml:focusPicId="2"
lfml:distance =""
lfml:vergence=""
></FocusedPicture>
<FocusedPicture
lfml:focusPicId="3"
lfml:distance =""
lfml:vergence=""
></FocusedPicture>
<FocusedPicture
lfml:focusPicId="4"
lfml:distance =""
lfml:vergence=""
></FocusedPicture>
<FocusedPicture
lfml:focusPicId="5"
lfml:distance =""
lfml:vergence=""
></FocusedPicture>
<FocusedPicture
lfml:focusPicId="6"
lfml:distance =""
lfml:vergence=""
></FocusedPicture>
<FocusedPicture
lfml:focusPicId="7"
lfml:distance =""
lfml:vergence=""
></FocusedPicture>
<IndexMap
lfml:suffix="indexMap"
></IndexMap>
</FocalStack>
</LightFieldContent>
表8:フォーカル・スタックに対する*.lfmlファイルの例
メタデータは、ライトフィールド・データの処理、例えば、ライトフィールドのデータ・コンテンツを或るフォーマットから別のフォーマットに、例えば、生のライトフィールド・データからビューのマトリックスまたはフォーカル・スタックに、または、ビューのマトリックスからフォーカル・スタックに変換するために、さらに、ビューポイント変更およびリフォーカスなどの一般的なライトフィールド・アプリケーションのために、使用することができる。次に、本発明の実施形態に従った、ライトフィールド・データ・プロセッサによってライトフィールド(LF)・データに対して実行される処理の例について説明する。
ファイル変換
生のプレノプティック・コンテンツからビューのマトリックスへの変換
ビュー(マイクロ画像)のアレイは、ライトフィールド・カメラから取得された生のライトフィールド・データをデモザイクおよび再格子化することによって再構築することができる。
(Ri,j)は、生のライトフィールド・ピクチャにおける1組のマイクロ画像を示す。サブアパーチャ画像Vk,lは、各μ画像からの同じ位置にあるサンプルで構成される。
k,l[i,j] =Ri,j[k,l]
対応するビューのアレイの(画素での)焦点距離、すなわち、ビューのマトリックスを記述するメタデータの水平焦点距離fxおよび垂直焦点距離fy属性は、以下のように与えられる。
Figure 2018514969
ここで、
・Fは、主レンズの焦点距離をメートルで表し(すなわち、セクション<MainLens>の属性focalLengthの値)、
・SおよびSの各々は、センサの水平スケールファクタおよび垂直スケールファクタを表し(すなわち、セクション<Sensor>の属性scaleFactorXおよびscaleFactorYの値)、
・rは、画素ピッチをメートルで表す(すなわち、セクション<Sensor>の属性pixelPitchの値)。
さらに、基礎となる軸間ベースライン距離は、以下のように与えられる。
Figure 2018514969
ここで、
・rμLは、μレンズ・ピッチをメートルで表し(すなわち、属性μLensPitchの値)、
・σxおよびσyは、μレンズ・アレイの水平スケールファクタおよび垂直のスケールファクタをそれぞれ表す(すなわち、セクション<μLensArray>の属性scaleFactorXおよびscaleFactorYの値)。
(セクション<SubApertureImage>の外部属性に対応する)ビューの外部行列Vk,lは、したがって、ビューの光学的中心V0,0が座標系の原点として選択されると仮定し、以下の回転行列および平行移動行列で作られる。
Figure 2018514969
生のプレノプティック・コンテンツからフォーカル・スタックへの変換
フォーカル・スタックは、シフトされたμ画像を蓄積する(「スプラットする」)ことによって算出される。wは、フォーカスされたピクチャを規定するシフトを表す。
μ画像Ri,jの寄与を考慮すると、その画素
Figure 2018514969
の各々に対し、フォーカル・スタックの新たな座標は、以下のように与えられる。
Figure 2018514969
ここで、

Figure 2018514969
は、生の画像座標系全体で表現され、
・uは、ズーム・ファクタである。
基礎となる(メートルでの)焦点距離、すなわち、セクション<FocusedPicture>の距離属性は、以下のように与えられる。
Figure 2018514969
ここで、
Figure 2018514969
は、μレンズの直径に対応する画素の数である。そして、vergence属性は、その逆数である。
ビューのマトリックスからフォーカル・スタックへの変換
フォーカル・スタックもまた、シフトされたビューを蓄積する(「スプラットする」)ことによって算出することができる。ただし、これらが登録されているものとする。
ここでは、サブアパーチャ画像(Vk,l)を集めたものを考慮して同じ公式を使用することができる。
Figure 2018514969
ここで、
Figure 2018514969
は、各ビューの座標系で表されている。
潜在する(m−1での)焦点輻輳、すなわち、セクション<FocusedPicture>の輻輳属性は、無差別に、以下によって与えられる。
Figure 2018514969
対応する距離属性は、輻輳vの逆数である。
ライトフィールド・データを記述するメタデータの提案されているフォーマットは、さらに、視点変更およびリフォーカスなどの、ライトフィールド・データの一般的なアプリケーションに適合している。
3D効果は、視点変更によって成すことができる。これは、ビューのマトリックス内でのビュー補間によって得ることができる。
リフォーカスは、フォーカル・スタックに対する一般的なアプリケーションである。この目的は、被写界深度を強調することに関わる。この場合、ユーザは、自己がフォーカスしたいと望むピクチャの1つまたは幾つかのエリアを選び出す(シーンの残りのオブジェクトは、フォーカスされた深度平面から離れているため、ぼやけている)。別の目的は、全焦点(all−in−focus)ピクチャを供給することにある。双方の場合において、フォーカル・スタックの1つのフォーカライズされたピクチャにおけるサンプルを取得するために、インデックス・マップが局所的に取得される。
本発明を特定の実施形態を参照して上記に説明したが、本発明は特定の実施形態に限定されるものではなく、本発明の範囲の中で、改変が施されることが当業者には明らかであろう。
上述した例示的な実施形態を参照することによって、多くのさらなる改変および変形が当業者によって提案されるであろう。実施形態は、例示的な目的のみで与えられ、本発明の範囲を限定するように意図されたものではなく、本発明の範囲は、付随する請求の範囲によってのみ確定される。特に、種々の実施形態からの種々の特徴事項は、適宜、相互に置き換え可能である。

Claims (15)

  1. キャプチャされたライトフィールド・データに関するメタデータを提供する方法であって、
    前記ライトフィールド・データをキャプチャするために使用されるライトフィールド・カメラと、
    前記ライトフィールド・データから得られたビューのマトリックスと、
    前記ライトフィールド・データから得られたフォーカル・スタックと、
    のうちの少なくとも1つの特性を記述するメタデータを集約するデータ・フォーマットを提供することを含む、前記方法。
  2. ライトフィールド・データからの画像をレンダリングする方法であって、
    前記ライトフィールド・データをキャプチャするために使用されるライトフィールド・カメラと、
    前記ライトフィールド・データから得られたビューのマトリックスと、
    前記ライトフィールド・データから得られたフォーカル・スタックと、
    のうちの少なくとも1つの特性を記述するライトフィールド・データ・メタデータを取得することと、
    前記メタデータによって提供される情報に基づいてライトフィールド・データをレンダリングすることと、
    を含む、前記方法。
  3. 前記メタデータは、ライト画像ファイルに集約される、請求項1または2に記載の方法。
  4. 前記ライトフィールド・データをキャプチャするために使用される前記ライトフィールド・カメラの特性を記述する前記メタデータは、
    前記ライトフィールド・カメラのフォトセンサと、
    前記ライトフィールド・カメラの主レンズと、
    前記ライトフィールド・カメラのマイクロレンズ・アレイと、
    の前記ライトフィールド・カメラの技術的な特徴のうちの1つ以上を規定するデータを含む、請求項1〜3のいずれか1項に記載の方法。
  5. 前記ライトフィールド・カメラの前記フォトセンサを記述する前記メタデータは、
    前記フォトセンサの空間解像度と、
    前記フォトセンサのカラー・フィルタのカラー・サンプリングと、
    前記フォトセンサの前記カラー・フィルタの透過率と、
    前記フォトセンサの画素のダイナミック・レンジと、
    画素によって出力される信号と入来する光との非線形的な関係を規定する色変換行列と、
    前記フォトセンサの2つの隣接する画素間のピッチと、
    非正方形の画素の形状比を規定するスケールファクタと、
    のうちの1つ以上のパラメータを表すデータを含む、請求項4に記載の方法。
  6. 前記ライトフィールド・カメラの前記主レンズを記述する前記メタデータは、
    前記主レンズの焦点距離と、
    瞳と前記焦点距離との比と、
    前記主レンズの口径食モデルと、
    のうちの1つ以上のパラメータを表すデータを含む、請求項4または5に記載の方法。
  7. 前記ライトフィールド・カメラの前記マイクロレンズ・アレイを記述する前記メタデータは、
    マイクロレンズ・アレイのパターンと、
    前記マイクロレンズ・アレイ上に配列されたカラー・フィルタのパターンと、
    前記マイクロレンズ・アレイの2つの隣接するマイクロレンズの間のピッチと、
    マイクロレンズの形状比を規定するスケールファクタと、
    キャリブレーションされたマイクロレンズ中心の数と、
    1つ以上のマイクロレンズ中心の空間座標と、
    のうちの1つ以上のパラメータを表すデータを含む、請求項4〜6のいずれか1項に記載の方法。
  8. 前記メタデータは、XLMに準拠したマークアップ言語で規定される、請求項1〜7のいずれか1項に記載の方法。
  9. 前記ライトフィールド・データから得られたビューのアレイの特性を記述する前記メタデータは、
    前記アレイにおけるビューの数と、
    1つまたは各ビューの空間解像度と、
    ビューにおいて利用可能な色と、
    ビューの参照点の空間座標と、
    ビューの水平焦点距離および垂直焦点距離と、
    のうちの1つ以上のパラメータを表すデータを含む、請求項1〜8のいずれか1項に記載の方法。
  10. 前記ライトフィールド・データから得られたフォーカル・スタックの特性を記述する前記メタデータは、
    前記フォーカル・スタックにおけるフォーカスされたピクチャの数と、
    前記フォーカスされたピクチャの空間解像度と、
    前記フォーカスされたピクチャの焦点距離と、
    のうちの1つ以上のパラメータを表すデータを含む、請求項1〜9のいずれか1項に記載の方法。
  11. キャプチャされたライトフィールド・データに関するメタデータを提供する装置であって、
    ライトフィールド・カメラによってキャプチャされたライトフィールド・データを取得するライトフィールド・データ取得モジュールと、
    前記ライトフィールド・データをキャプチャするために使用されるライトフィールド・カメラと、
    前記ライトフィールド・データから得られたビューのマトリックスと、
    前記ライトフィールド・データから得られたフォーカル・スタックと、
    のうちの少なくとも1つの特性を記述する集約メタデータを提供するデータフォーマッタと、
    を含む、前記装置。
  12. 規則的な格子構造に配列されたマイクロレンズのアレイと、
    前記マイクロレンズの前記アレイから前記フォトセンサ上に投影された光をキャプチャするように構成されたフォトセンサであって、各々の組が前記マイクロレンズの前記アレイの各々のマイクロレンズに光学的に関連付けられている複数の組の画素を含む、前記フォトセンサと、
    請求項11に記載されたメタデータを提供する装置と、
    を含む、ライトフィールド撮像装置。
  13. ライトフィールド・データをキャプチャするために使用されるライトフィールド・カメラと、
    前記ライトフィールド・データから得られたビューのマトリックスと、
    前記ライトフィールド・データから得られたフォーカル・スタックと、
    のうちの少なくとも1つの特性を記述するメタデータを使用して前記ライトフィールド・データからの画像をレンダリングする装置であって、
    プロセッサと、レンダリング・アプリケーション、前記ライトフィールド・データおよび前記メタデータを含むメモリとを含み、
    前記レンダリング・アプリケーションは、前記プロセッサに、前記メタデータにおいて提供された情報に基づいて前記ライトフィールド・データをレンダリングさせるように構成されている、前記装置。
  14. ライトフィールド・カメラからキャプチャされたライトフィールド・データと、
    前記ライトフィールド・データをキャプチャするために使用されるライトフィールド・カメラと、
    前記ライトフィールド・データから得られたビューのマトリックスと、
    前記ライトフィールド・データから得られたフォーカル・スタックと、
    の少なくとも1つの特性を記述するメタデータと、
    を含む、データ・パッケージ。
  15. プログラム可能な装置用のコンピュータ・プログラム製品であって、前記プログラム可能な装置にロードされ、かつ実行されたときに請求項1〜10のいずれか1項に記載された方法を実行するための命令のシーケンスを含む、前記コンピュータ・プログラム製品。
JP2017546605A 2015-03-05 2016-02-26 ライトフィールド・メタデータ Pending JP2018514969A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15305340.0 2015-03-05
EP15305340.0A EP3065394A1 (en) 2015-03-05 2015-03-05 Light field metadata
PCT/EP2016/054041 WO2016139134A1 (en) 2015-03-05 2016-02-26 Light field metadata

Publications (2)

Publication Number Publication Date
JP2018514969A true JP2018514969A (ja) 2018-06-07
JP2018514969A5 JP2018514969A5 (ja) 2019-04-04

Family

ID=52774156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017546605A Pending JP2018514969A (ja) 2015-03-05 2016-02-26 ライトフィールド・メタデータ

Country Status (11)

Country Link
US (1) US20180047185A1 (ja)
EP (2) EP3065394A1 (ja)
JP (1) JP2018514969A (ja)
KR (1) KR20170125078A (ja)
CN (1) CN107534718A (ja)
BR (1) BR112017019004A2 (ja)
CA (1) CA2978072A1 (ja)
MX (1) MX2017011323A (ja)
RU (1) RU2017134151A (ja)
TW (1) TW201633773A (ja)
WO (1) WO2016139134A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019047214A (ja) * 2017-08-30 2019-03-22 株式会社東芝 スマートカメラ、画像処理装置、スマートカメラシステム、データ送信方法およびプログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3145168A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing An apparatus and a method for generating data representing a pixel beam
EP3270589A1 (en) * 2016-07-11 2018-01-17 Thomson Licensing An apparatus and a method for generating data representative of a pixel beam
EP3494543B1 (en) * 2016-08-05 2023-06-28 InterDigital CE Patent Holdings A method for obtaining at least one sub-aperture image being associated with one view
WO2018062368A1 (ja) * 2016-09-30 2018-04-05 株式会社ニコン 撮像装置および撮像システム
KR102646437B1 (ko) * 2016-11-25 2024-03-11 삼성전자주식회사 멀티 렌즈 기반의 촬영 장치 및 방법
CN110710199B (zh) * 2017-08-22 2021-03-02 株式会社东芝 智能摄像机、图像处理装置以及数据通信方法
RU2690757C1 (ru) 2018-08-21 2019-06-05 Самсунг Электроникс Ко., Лтд. Система синтеза промежуточных видов светового поля и способ ее функционирования
KR20200067020A (ko) 2018-12-03 2020-06-11 삼성전자주식회사 캘리브레이션 방법 및 장치
CN110389140A (zh) * 2019-07-11 2019-10-29 中国科学院上海应用物理研究所 实现元素空间定位的双能焦点堆栈三维重构方法
WO2021249955A1 (en) * 2020-06-09 2021-12-16 Interdigital Vc Holdings France, Sas Metadata to describe color filter on top on camera sensors
US20240031543A1 (en) * 2020-12-04 2024-01-25 Dolby Laboratories Licensing Corporation Processing of extended dimension light field images

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120069A (ja) * 2002-09-24 2004-04-15 Canon Inc 画像処理装置、画像処理方法および該方法を実現するためのプログラム
JP2012524467A (ja) * 2009-04-18 2012-10-11 リフォーカス イマジング,インコーポレイテッド ライト・フィールド・カメラ画像、ファイルおよび構成データ、および、これらを使用、保存および伝達する方法
JP2013255172A (ja) * 2012-06-08 2013-12-19 Canon Inc 画像処理装置及び画像処理方法
JP2014535191A (ja) * 2011-09-28 2014-12-25 ペリカン イメージング コーポレイション 明視野画像ファイルを符号化および復号するためのシステムおよび方法
JP2015005201A (ja) * 2013-06-21 2015-01-08 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法およびプログラム。

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120249550A1 (en) * 2009-04-18 2012-10-04 Lytro, Inc. Selective Transmission of Image Data Based on Device Attributes
US9693010B2 (en) * 2014-03-11 2017-06-27 Sony Corporation Method, electronic device, and server for generating digitally processed pictures

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120069A (ja) * 2002-09-24 2004-04-15 Canon Inc 画像処理装置、画像処理方法および該方法を実現するためのプログラム
JP2012524467A (ja) * 2009-04-18 2012-10-11 リフォーカス イマジング,インコーポレイテッド ライト・フィールド・カメラ画像、ファイルおよび構成データ、および、これらを使用、保存および伝達する方法
JP2014535191A (ja) * 2011-09-28 2014-12-25 ペリカン イメージング コーポレイション 明視野画像ファイルを符号化および復号するためのシステムおよび方法
JP2013255172A (ja) * 2012-06-08 2013-12-19 Canon Inc 画像処理装置及び画像処理方法
JP2015005201A (ja) * 2013-06-21 2015-01-08 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法およびプログラム。

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019047214A (ja) * 2017-08-30 2019-03-22 株式会社東芝 スマートカメラ、画像処理装置、スマートカメラシステム、データ送信方法およびプログラム

Also Published As

Publication number Publication date
KR20170125078A (ko) 2017-11-13
EP3065394A1 (en) 2016-09-07
MX2017011323A (es) 2017-12-07
CA2978072A1 (en) 2016-09-09
WO2016139134A1 (en) 2016-09-09
CN107534718A (zh) 2018-01-02
RU2017134151A (ru) 2019-04-03
US20180047185A1 (en) 2018-02-15
TW201633773A (zh) 2016-09-16
BR112017019004A2 (pt) 2018-04-17
RU2017134151A3 (ja) 2019-10-02
EP3266194A1 (en) 2018-01-10

Similar Documents

Publication Publication Date Title
JP2018514969A (ja) ライトフィールド・メタデータ
US9866810B2 (en) Optimization of optical systems for improved light field capture and manipulation
US8593509B2 (en) Three-dimensional imaging device and viewpoint image restoration method
CN102037717B (zh) 使用具有异构成像器的单片相机阵列的图像拍摄和图像处理
US9412206B2 (en) Systems and methods for the manipulation of captured light field image data
Birklbauer et al. Panorama light‐field imaging
US10887576B2 (en) Light field data representation
EP3065395A1 (en) Processing of light field data
CN103688536B (zh) 图像处理装置、图像处理方法
JP6019729B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN104662887A (zh) 图像处理设备、图像处理方法、程序和具有该图像处理设备的摄像设备
JP5507761B2 (ja) 撮像装置
US11882259B2 (en) Light field data representation
US20240127407A1 (en) Image sensor apparatus for capturing depth information
JP6376194B2 (ja) 画像処理装置、画像処理方法及びプログラム
EP3144884A1 (en) Light field data representation
JP6239982B2 (ja) 画像変換装置及びプログラム
JP2017188788A (ja) 電子機器、再生装置、記録プログラム、再生プログラムおよび撮像システム。

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180223

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181220

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190222

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200401

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201022