JP7075892B2 - ピクセルビームを表すデータを生成する装置および方法 - Google Patents

ピクセルビームを表すデータを生成する装置および方法 Download PDF

Info

Publication number
JP7075892B2
JP7075892B2 JP2018552042A JP2018552042A JP7075892B2 JP 7075892 B2 JP7075892 B2 JP 7075892B2 JP 2018552042 A JP2018552042 A JP 2018552042A JP 2018552042 A JP2018552042 A JP 2018552042A JP 7075892 B2 JP7075892 B2 JP 7075892B2
Authority
JP
Japan
Prior art keywords
optical system
pixel
pixel beam
pupil
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018552042A
Other languages
English (en)
Other versions
JP2019522909A5 (ja
JP2019522909A (ja
Inventor
ブロンド,ローラン
シューベルト,アルノー
ボワソン,ギヨーム
ドワイヤン,ディディエ
カービリウ,ポール
ビューラー,オリビエ
ドラジック,ヴァルター
Original Assignee
インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ filed Critical インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ
Publication of JP2019522909A publication Critical patent/JP2019522909A/ja
Publication of JP2019522909A5 publication Critical patent/JP2019522909A5/ja
Application granted granted Critical
Publication of JP7075892B2 publication Critical patent/JP7075892B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/236Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Lens Barrels (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、ライトフィールドを表すデータの生成に関する。
4Dライトフィールドのサンプリング(すなわち、光線の記録)と見なすことができる四次元また4Dライトフィールドデータの取得は、多忙な研究の主題である、ECCV2008の学会論文誌で公開されたAnat Levinらによる“Understanding camera trade-offs through a Bayesian analysis of light field projections”という論文で説明されている。
カメラから得られる古典的な二次元または2D画像と比べると、4Dライトフィールドデータは、画像のレンダリングおよびユーザとの対話性を強化するさらなる後処理特徴へのアクセスをユーザが有することができるようにする。例えば、4Dライトフィールドデータを用いると、焦点面の位置を事後指定/選択することができる焦点絞り手段の自由選択距離での画像の再焦点合わせおよび画像のシーンの視点のわずかな変更の実行が可能である。4Dライトフィールドデータを取得するため、いくつかの技法を使用することができる。例えば、プレノプティックカメラは、4Dライトフィールドデータを取得することができる。プレノプティックカメラは、メインレンズと、二次元アレイ状に配列された複数のマイクロレンズを備えるマイクロレンズアレイと、画像センサとを備える。4Dライトフィールドデータを取得する別の方法は、レンズアレイおよび画像センサを備えるカメラアレイを使用することである。
プレノプティックカメラの例では、メインレンズは、メインレンズの物体フィールドの物体から光を受信し、メインレンズの画像フィールドに光を通過させる。
最後に、4Dライトフィールドを取得する別の方法は、異なる焦点面で同じシーンの一連の2D画像を捕捉するように構成された従来のカメラを使用することである。例えば、2014年10月にOPTICS EXPRESS, Vol. 22, No. 21において公開されたJ.-H. Parkらによる“Light ray field capture using focal plane sweeping and its optical reconstruction using 3D displays”という文書で説明される技法を使用して、従来のカメラによる4Dライトフィールドデータの取得を達成することができる。
4Dライトフィールドデータを表すいくつかの方法がある。実際に、2006年7月に公開されたRen Ngによる“Digital Light Field Photography”と称する修士論文の第3.3章では、4Dライトフィールドデータを表す3つの異なる方法が説明されている。第1に、4Dライトフィールドデータは、プレノプティックカメラによってマイクロレンズ画像の集合体で記録されたときに、表すことができる。この表現における4Dライトフィールドデータは、原画像または4Dライトフィールド原データと名付けられている。第2に、4Dライトフィールドデータは、プレノプティックカメラまたはカメラアレイによって1組のサブアパチャ画像で記録された際に表すことができる。サブアパチャ画像は、視点からのシーンの捕捉画像に相当し、視点は、2つのサブアパチャ画像間でわずかに異なる。これらのサブアパチャ画像は、結像されるシーンの視差および深度についての情報を与える。第3に、4Dライトフィールドデータは、1組のエピポーラ画像によって表すことができる。それに関しては、例えば、ISVC2011の学会論文誌で公開されたS. Wannerらによる“Generating EPI Representation of a 4D Light Fields with a Single Lens Focused Plenoptic Camera”を参照されたい。
ライトフィールド取得デバイスは極めて異種のものである。ライトフィールドカメラは、例えば、プレノプティックまたはカメラアレイなど、異なるタイプのものである。各タイプ内には、異なる光学配列または異なる焦点距離のマイクロレンズなど、多くの違いがある。各カメラは、それ自体の独自のファイルフォーマットを有する。現在のところ、ライトフィールドが依存する異なるパラメータの包括的な概要に対する多次元情報の取得および伝送の標準的なサポートは存在しない。従って、異なるカメラに対して取得されたライトフィールドデータは、多様なフォーマットを有する。
本発明は、前述を念頭に置いて考案された。
本発明の第1の態様によれば、光学系の瞳孔を通過する1組の光線により占められるボリュームを表すデータを生成するコンピュータ実装方法であって、前記ボリュームが、ピクセルビームと呼ばれる前記1組の光線により占められ、前記方法が、
第1の光学系の物体空間において前記ピクセルビームを表すデータを取得することであって、前記ピクセルビームが、前記第1の光学系の瞳孔と、第1の光学系の前記物体空間における前記第1の光学系と関連付けられたセンサの少なくとも1つのピクセルの画像共役(conjugate)とを通過する1組の光線により占められている、取得することと、
第2の光学系を介して前記ピクセルビームの画像共役を演算することによって前記ピクセルビームを表すデータを生成することと
を含む、方法が提供される。そのような方法は、依存しない(すなわち、光学系を埋め込むカメラから独立した)第1の光学系を説明するピクセルビームの集合体を表すデータの提供を可能にするが、その理由は、これらのデータは、第2の光学系を介してピクセルビームの集合体を結像することによって得られるためである。ピクセルビームの集合体を表すそのようなデータは、パラメータ化された出力画像の生成を可能にし、パラメータ化された出力画像から、フォーカルスタックの作成、再焦点合わせ、視点の変更、異なる取得システムから取得されたライトフィールドコンテンツの混合などの後処理を実行することができる。
第2の光学系を介して第1の光学系を説明するピクセルビームの集合体の画像を演算する目標のうちの1つは、光学系のフォーカルボリュームに相当する双対およびコンパクト空間において、様々なカメラに埋め込まれたいくつかの光学系の物体空間の表現を提供することである。そのようなフォーカルボリュームは、例えば再焦点合わせ動作の間に、画像面に容易に投影することができる。
第2の光学系を介して第1の光学系を説明するピクセルビームの集合体を結像する利点は、結像されたピクセルビームが単一のフォーカルボリュームに位置すること、および同じ光学系を使用して様々なタイプの光学取得デバイスを表すピクセルビームの集合体を同じフォーカルボリュームに位置付けられることであり、それにより、ピクセルビームの異なる集合体を表すデータの処理が容易になる。
本発明の別の実施形態によれば、方法は、
第1の光学系の物体空間における前記ピクセルビームと瞳孔の中心から距離zの所に位置する平面との交差面を演算することと、
ピクセルビームを表すデータを提供するために、前記第2の光学系を介して前記交差面の画像共役を演算することと
をさらに含む。
そのような方法は、合成アパチャ再焦点合わせの実行を可能にする。合成アパチャ結像は、再焦点合わせの目的で別のカメラをシミュレーションするために、カメラに埋め込まれた光学系によって取得された画像を再構成するものである。従って、第1のカメラによって取得されたライトフィールドデータを表すピクセルビームは、所定の平面に属する物体に焦点を合わせるように再構成される。平面は、基準座標系におけるそのアフィン方程式によって定義される。
本発明の別の実施形態によれば、第1の光学系は実際のカメラであり、第2の光学系はバーチャルカメラである。
本発明のそのような実施形態では、第2の光学系の画像空間におけるピクセルビームの共役を演算するために、第1の光学系の入射瞳孔のプロパティおよび第2の光学系の射出瞳孔のプロパティの知識が必要である。
第2の光学系を介してピクセルビームの画像はバーチャルセンサに位置するため、第2の光学系(すなわち、バーチャルカメラ)がその焦点面に正確に結像する限り、その射出瞳孔のプロパティの正確な知識は必要ない。
本発明の別の実施形態によれば、方法第1の光学系はバーチャルカメラであり、第2の光学系は実際のカメラである。
本発明のそのような実施形態では、第2の光学系の画像空間におけるピクセルビームの共役を演算するために、第1の光学系の入射瞳孔のプロパティおよび第2の光学系(すなわち、実際のカメラ)の射出瞳孔のプロパティの知識が必要である。
ピクセルビームは第1の取得システムと関連付けられたバーチャルセニョールのピクセルの物体共役であるため、第1の光学系(すなわち、バーチャルカメラ)がその焦点面に正確に結像する限り、その射出瞳孔のプロパティの正確な知識は必要ない。
本発明の別の目的は、本発明の異なる実施形態による方法に従って得られたものを使用してライトフィールドデータから画像をレンダリングするデバイスに関与する。
本発明の別の目的は、光学系の瞳孔を通過する1組の光線により占められるボリュームを表すデータを生成するデバイスであって、前記ボリュームが、ピクセルビームと呼ばれる前記1組の光線により占められ、前記デバイスが、
第1の光学系の物体空間において前記ピクセルビームを表すデータを取得することであって、前記ピクセルビームが、前記第1の光学系の瞳孔と、第1の光学系の前記物体空間における前記第1の光学系と関連付けられたセンサの少なくとも1つのピクセルの画像共役とを通過する1組の光線により占められている、取得することと、
第2の光学系を介して前記ピクセルビームの画像共役を演算することによって前記ピクセルビームを表すデータを生成することと
を行うように構成されたライトフィールドデータ生成モジュールを備える、デバイスに関与する。
本発明の別の目的は、
規則的な格子構造で配列されたマイクロレンズのアレイと、
光センサであって、マイクロレンズのアレイから光センサに投影された光を捕捉するように構成され、ピクセルのセットを含み、ピクセルの各セットが、マイクロレンズのアレイのそれぞれのマイクロレンズと光学的に関連付けられている、光センサと、
請求項8によるメタデータを生成するデバイスと
を備えるライトフィールド結像デバイスに関与する。
本発明の別の目的は、前記第1の光学系の瞳孔と、第1の光学系の前記物体空間における前記第1の光学系と関連付けられたセンサの少なくとも1つのピクセルの共役とを通過する1組の光線により占められる第1の光学系の物体空間におけるボリュームを表すデータのデータパッケージであって、前記ボリュームが、ピクセルビームと呼ばれる前記1組の光線により占められており、ピクセルビームを表す前記データが、第2の光学系を介して前記ピクセルビームの画像共役である、データパッケージに関与する。
本発明の要素によって実装されるいくつかのプロセスは、コンピュータ実装することができる。それに従って、そのような要素は、完全なハードウェア実施形態、完全なソフトウェア実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)または本明細書ではすべてを「回路」、「モジュール」または「システム」と一般的に呼ぶことができるソフトウェア態様とハードウェア態様とを組み合わせた実施形態の形態を取ることができる。その上、そのような要素は、コンピュータ使用可能プログラムコードがその媒体で具体化される任意の有形表現媒体で具体化されるコンピュータプログラム製品の形態を取ることができる。
本発明の要素はソフトウェアにおいて実装できるため、本発明は、任意の適切なキャリア媒体上のプログラム可能装置に提供するためのコンピュータ可読コードとして具体化することができる。有形キャリア媒体は、フロッピーディスク、CD-ROM、ハードディスクドライブ、磁気テープデバイスまたはソリッドステートメモリデバイスおよび同様のものなどの記憶媒体を含み得る。一時的なキャリア媒体は、電気信号、電子信号、光信号、音響信号、磁気信号または電磁信号(例えば、マイクロ波またはRF信号)などの信号を含み得る。
ここでは、単なる例示として、以下の図面を参照して、本発明の実施形態を説明する。
カメラの光学系11の瞳孔を通過する1組の光線により占められるボリュームを示す。 本発明の実施形態による、ピクセルビームを表す一葉双曲面(a hyperboloid of one sheet)を示す。 一葉双曲面およびその漸近錐を示す。 本発明の実施形態による、部分的にオーバーラップする2つの同軸の錐体によって表されるピクセルビームを示す。 本発明の実施形態による、ピクセルビームを表すデータを生成する装置の例を示す概略ブロック図である。 本開示の実施形態による、光学取得システムによって捕捉された画像を符号化するプロセスを説明するフローチャートである。 本発明の実施形態による、第2の光学系を介して結像されるピクセルビームを表す。
当業者によって理解されるように、本原理の態様は、システム、方法またはコンピュータ可読媒体として具体化することができる。それに従って、本原理の態様は、完全なハードウェア実施形態、完全なソフトウェア実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)または本明細書ではすべてを「回路」、「モジュール」または「システム」と一般的に呼ぶことができるソフトウェア態様とハードウェア態様とを組み合わせた実施形態の形態を取ることができる。その上、本原理の態様は、コンピュータ可読記憶媒体の形態を取ることができる。1つまたは複数のコンピュータ可読記憶媒体のいかなる組合せも利用することができる。
いかなる光学取得システムの場合も、プレノプティックであるか否かにかかわらず、光学取得システムによって捕捉された4Dライトフィールドデータを表す原画像またはエピポーラ画像に加えて、前記光学取得システムのセンサのピクセルと前記光学取得システムの物体空間のピクセルとの間の対応に関連する情報を得ることが興味深い。光学取得システムの物体空間のどの部分を前記光学取得システムのセンサに属するピクセルが検知しているかを知ることにより、逆多重化、デモザイキング、再焦点合わせなどの信号処理動作、および異なる特性を有する異なる光学系によって捕捉された画像の混合を改善することができる。その上、光学取得システムのセンサのピクセルと前記光学取得システムの物体空間のピクセルとの間の対応に関連する情報は、光学取得システムから独立している。
本開示は、カメラ(図1に図示せず)の光学系11の瞳孔と、瞳孔の表面の法線方向における光学系の物体空間におけるカメラのセンサのピクセルの共役とを通過する1組の光線により占められるボリュームを表すピクセルビーム10(図1に図示する)の概念を紹介する。
1組の光線は、前記光学系11の瞳孔14を通じてカメラのセンサ13のピクセル12によって検知される。光学系11は、写真またはビデオカメラに適合するレンズの組合せであり得る。光学系の瞳孔は、前記アパチャ絞りの前に来る前記光学系(すなわち、光学取得システムのレンズ)を通じて見られるようなアパチャ絞りの画像として定義される。アパチャ絞りは、光学取得システムの光学系を通過する光の量を制限する開口部である。例えば、カメラレンズ内に位置する調整可能なブレードダイヤフラムは、レンズ用のアパチャ絞りである。ダイヤフラムを通過することが認められる光の量は、ダイヤフラム開口部の直径によって制御され、ダイヤフラム開口部の直径は、カメラのユーザが認めたいと願う光の量に応じて適応させることができる。例えば、アパチャを小さくすることにより、ダイヤフラムを通過することが認められる光の量が低減すると同時に、焦点深度が増加する。レンズの部分の屈折性作用により、絞りの見掛けサイズは、その物理的なサイズより大きくも小さくもあり得る。正式には、瞳孔は、物理的な絞りと観察空間との間に位置する光学取得システムのすべてのレンズを通じたアパチャ絞りの画像である。
ピクセルビーム10は、入射瞳孔14を介して光学系11を通じて伝播する際に所定のピクセル12に到達する光線束として定義される。光は自由空間では直線上を移動するため、そのようなピクセルビーム10の形状は、2つのセクションによって定義することができ、一方は、ピクセル12の共役15であり、他方は、入射瞳孔14である。ピクセル12は、非ヌル表面およびその感度マップによって定義される。
本発明の第1の実施形態では、図2に示されるように、ピクセルビーム30は、一葉双曲面によって表すことができ、2つの要素、すなわち、瞳孔24および物体空間におけるピクセル12の共役25によってサポートされる。
一葉双曲面は、光線束の観念をサポートし、かつ物理的な光ビームの「エテンデュ」の概念、物理的な光ビームの断面を横切るエネルギーの保存に結び付けられる概念と両立する線識面(a ruled surface)である。
図3に表されるように、一葉双曲面30は、ウエスト35(物体空間における共役15に相当する)と呼ばれるその最も小さなセクションの基本領域を除いて、その漸近錐31、32と大体同一である。ライトフィールドカメラなどのプレノプティックシステムの場合、これは、複数のパス光線による空間サンプリングが実行される領域である。固有の錐体がこの領域の1点に退縮した状態で空間をサンプリングすることは適切ではない。その理由は、数十平方ミクロンのその表面においてピクセル12の感度は著しいものであり、錐体の先端であろう無限に小さな表面を用いて数学的観点によって表すことができないためである。
本発明の実施形態では、各ピクセルビーム10、20、30は、瞳孔14、24の前方にあるピクセル共役15、35の位置およびサイズを定義する4つの独立パラメータz、θ、θ、aによって、ならびに、瞳孔14、24の位置、向きおよび半径を定義する6つの瞳孔パラメータx、y、z、θx0、θy0、rによって定義される。これらの6つの瞳孔パラメータは、同じ瞳孔14、24を共有する一葉双曲面によって表される際は、ピクセルビームの集合体に共通である。実際に、ピクセルビームは、瞳孔14を通じてピクセル12によって検知された光学系11の物体空間における1組の光線により占められるボリュームを表す(すなわち、ピクセル12/瞳孔14、24の所与の組み合わせは、固有のピクセルビーム10、20、30に相当する)が、複数の個々のピクセルビームは、同じ瞳孔14、24によってサポートされ得る。
図1に示されるように、ピクセルビーム10、20、30を表す一葉双曲面のパラメータが定義される座標系(x,y,z)の原点Oは、瞳孔14の中心に相当し、z軸は、瞳孔14、24の表面の法線方向を定義する。
パラメータθ、θは、入射瞳孔14の中心に対する主光線方向を定義する。パラメータθ、θは、センサ13上のピクセル12の位置および光学系11の光学要素に依存する。より正確に言えば、パラメータθ、θは、瞳孔14の中心からのピクセル12の共役15の方向を定義するせん断角を表す。
パラメータzは、z軸に沿った、ピクセルビーム10、20、30のウエスト35またはピクセル12の共役15の距離を表す。
パラメータaは、ピクセルビーム10、20、30のウエスト35の半径を表す。
光学的歪みおよびフィールド湾曲をモデル化することができる光学系11の場合、パラメータzおよびaは、パラメトリック関数を介してパラメータθおよびθに依存し得る。
4つの独立パラメータは、ピクセル12およびその共役15に関連する。
ピクセルビーム10、20、30を定義する6つの相補的な瞳孔パラメータは、以下の通りである。
- 瞳孔14、24の半径を表すr
- 座標系(x,y,z)における瞳孔14、24の中心の座標を表すx、y、z
- 基準座標系(x,y,z)における瞳孔14、24の向きを表すθx0、θy0
これらの6つの瞳孔パラメータは、瞳孔14、24に関連する。別のパラメータcが定義される。そのようなパラメータcは、ピクセル12およびその共役15に関連するパラメータzおよびa、ならびに、瞳孔14、24に関連するパラメータrに依存する。パラメータcは、ピクセルビーム10、20、30のアパチャ角αを定義し、以下の公式によって与えられる。
Figure 0007075892000001
従って、パラメータcの表現は、以下の方程式によって与えられる。
Figure 0007075892000002
ピクセルビーム10、20、30を区切る表面に属するポイントの物体空間における座標(x,y,z)は、瞳孔14およびピクセルの共役15に関連する上記で定義されるパラメータの集合の関数である。従って、ピクセルビーム10、20、30を表す一葉双曲面の生成を可能にする方程式(2)は以下の通りである。
Figure 0007075892000003
ピクセルビーム10、20、30を表す同じ双曲面のパラメトリック方程式(3)は以下の通りである。
Figure 0007075892000004

式中、vは、双曲線の生成からピクセルビーム10、20、30の生成を可能にする(x,y)平面における角度であり、vは、[0,2π]間隔で変化し、z∈[0,∞]は、瞳孔14、24の表面の法線方向を定義するz軸に沿った座標である。方程式(2)および(3)は、ピクセル12およびその共役15のセクションは円形であり、瞳孔14、24のセクションも円形であるという想定の下で記載される。
前記光学取得システムのセンサのピクセルと前記光学取得システムの物体空間のピクセルとの間の対応に関連する情報は、瞳孔14、24の前方にあるピクセル共役15、35の位置およびサイズを定義する4つの独立パラメータz、θ、θ、aを含むパラメータの集合、または、ピクセルビームがそのパラメトリック方程式で表現される場合は、瞳孔14、24の位置、向きおよび半径を定義する6つの瞳孔パラメータx、y、z、θx0、θy0、rを含むパラメータの集合の形態を取ることができる。
従って、このパラメータの集合は、4Dライトフィールドデータを処理する間に使用するために、光学取得システムによって捕捉された4Dライトフィールドデータを表す原画像またはエピポーラ画像に加えて提供される。
図4に示されるように、本発明の第2の実施形態では、ピクセルビーム40は、部分的にオーバーラップする2つの同軸の錐体(前方の錐体41および後方の錐体41)によって表すことができ、2つの要素、すなわち、瞳孔44および物体空間におけるピクセル42の共役45(すなわち、ピクセルで結像される物体空間における表面)によってサポートされる。
前方の錐体41は、ピクセル42および瞳孔44によって定義された凸状錐台の画像である。凸状錐台の頂点は、光学取得システムのセンサの向こう側に存在する。その構築により、前方の錐体41は、光学取得システムの物体空間において収束し、前方の錐体41の頂点は、ピクセル45の共役(またはピクセルビーム40のウエスト)と瞳孔44との間に存在する。前方の錐体41は、ピクセル42で瞳孔44が成す立体角から導き出される。
後方の錐体41は、ピクセル42および瞳孔44によって定義された錐体の画像であり、その頂点は、瞳孔44と光学取得システムのセンサとの間に存在する。その構築により、後方の錐体41の頂点は、瞳孔40のウエスト45の向こう側に位置する。後方の錐体41は、必ずしも光学取得システムの物体空間において収束するわけではなく、いくつかの事例では、後方の錐体41は、円筒または発散錐体に退縮することができる。後者の事例では、発散錐体の頂点は、光学取得システムの画像空間(すなわち、入射瞳孔44の前)に存在する。
前方の錐体41および後方の錐体41は、同じ回転軸を共有し、回転軸は、瞳孔44の中心とウエスト45の中心とを結ぶ線である。
錐体は、光線束の観念をサポートし、2つの錐体を組み合わせると、物理的な光ビームの「エテンデュ」の概念、物理的な光ビームの断面を横切るエネルギーの保存に結び付けられる概念と両立する線識面(a ruled surface)ある。錐体と平面との交差面は、双曲面のような円錐曲線であり、円錐曲線は複数の係数によって特徴付けることができる。その頂点を考慮すると、錐体は、3つの角度パラメータ、すなわち、錐体の回転軸から測定される極角、頂角に至るまでの角度および2つの角度によって与えられる回転軸の方向によって表すことができる。
xyzを光学取得システムの座標系とする。zは、光学取得システムの物体空間における光学取得システムの光軸(z>0)を示し、瞳孔44の中心は、前記座標系の原点である。
光学取得システムの光学素子は、光学取得システムの物体空間(z∈[2f;+∞]の距離から)を光学取得システムの画像空間(z∈[-2f;-f])に結像し、fは、光学取得システムの光学素子の焦点距離である。瞳孔44およびピクセルビーム40のウエスト45の場所は、光学取得システムの較正から、光学取得システムの座標系xyzで知られている。瞳孔44およびウエスト45は、平行であると想定され、両方ともz軸の法線方向にある。
z’をピクセルビーム40の主光線と呼ぶことにする。主光線は、瞳孔44の中心とピクセルビーム40のウエスト45の中心とを結ぶ線である。また、主光線は、ピクセルビーム40の回転軸および対称軸でもある。従って、座標系xyz’では、ピクセルビーム40は回転体である。
前方の錐体41および後方の錐体41の両方の頂点は、ピクセルビーム40の主光線z’上に位置する。薄レンズ近似の下では、これらの2つの頂点の座標は、光学取得システムのセンサは後焦点面には位置しないという想定の下、光学取得システムの座標系xyzにおいて以下の通り演算される。
Figure 0007075892000005

式中、P、z、Wおよびzはそれぞれ、瞳孔44の直径(P>0)、瞳孔44のz座標、ピクセルの共役45の直径(0<W<+∞)およびピクセルの共役45のz座標(0<z<+∞)を示す。
後方の錐体41の頂点のz座標z前方は、後方の錐体41が収束錐体である際は正であり、後方の錐体41が発散錐体である際は負であり得る。また、瞳孔44およびピクセルビームのピクセルの共役45が同じサイズのものである場合は無限でもあり得る。
光学取得システムのセンサが後焦点面に位置する場合は、W=+∞およびz=+∞である。それらの比率は一定であるため、
Figure 0007075892000006

となり、式中、pおよびfはそれぞれ、ピクセル42の直径(p>0)および光学取得システムの光学素子の焦点距離(光学取得システムの光学素子は収束レンズであると想定すると、f>0)を表す。
頂角は、
Figure 0007075892000007

によって与えられる。
各錐体の頂点を考慮すると、(それらの融合はピクセルビーム40を表し、光線は、2つの角度パラメータ、すなわち、ピクセルビームの回転軸から頂角までの極角と、[0,2π]における方位角を用いて定義することができる。
ピクセルビームに関連するそれらの情報は、所定の光学取得システムと関連付けられたメタデータである。それらの情報は、例えば、光学取得システムと共に供給されるCD-ROMまたはフラッシュドライブに格納されたデータファイルとして提供することができる。また、ピクセルビームに関連する追加の情報を内包するデータファイルは、光学取得システムの製造業者に属するサーバからダウンロードすることができる。また、本発明の実施形態では、ピクセルビームに関連するこれらの追加の情報は、光学取得システムによって捕捉された画像のヘッダに埋め込むことができる。
ピクセルビームに関連するこれらの情報を知ることにより、独自のファイルフォーマットおよび処理予定の画像を捕捉するために使用される光学取得システムの特徴とは無関係に、任意の光学取得システムによって捕捉された画像の処理が可能になる。
ピクセルビームに関連する情報を知ることにより、独自のファイルフォーマットおよび処理予定の画像を捕捉するために使用される光学取得システムの特徴とは無関係に、任意の光学取得システムによって捕捉された画像の処理が可能になる。
図5は、本開示の実施形態による、第2の光学系を介して前記ピクセルビームを結像することによって第1の光学系の物体空間を表すピクセルビームを表すデータを生成する装置の例を示す概略ブロック図である。
装置500は、バス506によって接続される、プロセッサ501、格納ユニット502、入力デバイス503、表示デバイス504およびインタフェースユニット505を備える。当然ながら、コンピュータ装置500の構成要素は、バス接続以外の接続によって接続することができる。
プロセッサ501は、装置500の動作を制御する。格納ユニット502は、第2の光学系を介して第1の光学系の物体空間を表すピクセルビームが結像される際に、これらのピクセルビームを表すデータの生成が可能な、プロセッサ501によって実行される少なくとも1つのプログラムと、センサ13上のピクセル12の位置に関連するパラメータまたは光学取得システムの第1の光学系11および第2の光学系に関連するパラメータ、プロセッサ501によって実行される演算によって使用されるパラメータ、プロセッサ501によって実行される演算の中間データなどを含む様々なデータとを格納する。プロセッサ501は、いかなる公知の適切なハードウェアもしくはソフトウェア、または、ハードウェアとソフトウェアの組合せによっても形成することができる。例えば、プロセッサ501は、処理回路などの専用ハードウェアによってまたはそのメモリに格納されたプログラムを実行するCPU(中央処理装置)などのプログラム可能処理ユニットによって形成することができる。
格納ユニット502は、いかなる適切な記憶装置またはコンピュータ可読方式でプログラム、データもしくは同様のものの格納が可能な手段によっても形成することができる。格納ユニット502の例は、半導体メモリデバイス、ならびに、読取および書込ユニットにロードされた磁気、光または光磁気記録媒体などの非一時的なコンピュータ可読記憶媒体を含む。プログラムは、図6を参照して以下で説明されるように、本開示の実施形態による、第2の光学系ビームを通じる前記ピクセルビームの画像共役から第1の光学系の物体空間を表すピクセルビームの集合体のピクセルビームを表すデータを演算するプロセスをプロセッサ501に実行させる。
入力デバイス503は、コマンドを入力して光学系の物体空間における1組の光線により占められるボリュームのパラメトリック表示の生成に使用されるパラメータに対するユーザの選択を行うためにユーザが使用するキーボード、マウスなどのポインティングデバイスまたは同様のものによって形成することができる。出力デバイス604は、例えば、グラフィカルユーザインタフェース(GUI)など、本開示の実施形態に従って生成される画像を表示する表示デバイスによって形成することができる。入力デバイス503および出力デバイス504は、例えば、タッチスクリーンパネルによって一体化して形成することができる。
インタフェースユニット505は、装置500と外部の装置との間のインタフェースを提供する。インタフェースユニット505は、ケーブルまたは無線通信を介して外部の装置と通信可能であり得る。一実施形態では、外部の装置は、実際のカメラなどの光学取得システムであり得る。
図6は、本発明の実施形態による、光学取得システムによって捕捉された画像を符号化するプロセスを説明するフローチャートである。
装置500のプロセッサ501は、図7で表されているように、前記ピクセルビーム70の画像共役72から第2の光学系71を通じる第1の光学系(図示せず)の物体空間を表すピクセルビームの集合体の少なくとも1つのピクセルビーム70を表すデータの演算が可能なプログラムを実行する。以下の例では、ピクセルビーム70、72は、一葉双曲面20によって表されている。
従って、プロセッサ501は、光学系71のフォーカルボリュームのピクセルビーム70を表すデータを提供するために、例えば薄レンズである光学系71を通じるピクセルビーム70の画像共役72を演算する。
光学系71を通じるピクセルビーム70の画像共役72は、以下で説明されるように演算することができる。
図1~3を参照して説明されるように、光学系の瞳孔と結び付けられたピクセルビームは、6つの付帯的なパラメータによって定義される。
- r:第1の光学系の入射瞳孔半径
- x、y、z:基準座標系における第1の光学系の入射瞳孔中心の座標
- θx0、θy0:基準座標系における第1の光学系の入射瞳孔の向き
基準座標系では、簡単にするためにθx0=θy0=0を保つと、ピクセルビームを表す双曲面のパラメトリック方程式は、
Figure 0007075892000008

または同等に
Figure 0007075892000009

によって与えられる。
本発明の実施形態では、第1の光学取得システムのセンサのピクセルによって取得される色を表す値(RGB値など)は、対応するピクセルビーム70と関連付けられる。
第2の光学系71を表す平面表面を定義するパラメータは、第2の光学系71がバーチャル光学系である際には定義され、または第2の光学系が実際の光学系である際には検索される。
- 第2の光学系71の光学中心の座標は、x、y、zである
- 光学系71の表面の法線方向の単位ベクトルの座標:θxC、θyC
- 光学系71の焦点f
- 説明を簡単にするため、第2の光学系71の光学中心は第1の光学系の瞳孔の中心と同じ平面で取られ(z=z)、光学系71は瞳孔に平行である(すなわち、θxC=θyC=0)と考えられている。
光学系71の中心Cに関連するポイントMの座標は(x,y,z)と示される。光学系71を通じるポイントMの画像M’の座標は(x’,y’,z’)と示される。これらの座標の各々は代数値である。
ポイントM’の座標は、以下のような「レンズメーカーの公式」のニュートン形式を使用して演算される。
(|z|-f)(|z’|-f)=f (10)
ポイントMは光学系71の前に位置し(すなわち、z<0)、ポイントM’は光学系71の後に位置するため(すなわち、z’>0)、
(-z-f)(z’-f)=f (11)
であり、それにより、
Figure 0007075892000010

が与えられる。
光学系71が薄レンズである際は、その光学中心を通過する光線はずれないため、倍率は
Figure 0007075892000011

によって与えられ、それにより、
Figure 0007075892000012

が与えられ、その逆、すなわち、
Figure 0007075892000013

も言える。
Mがピクセルビーム70の表面に属するポイントである際は、結像されたピクセルビームの表面にあるポイントM’の座標は以下の通りである。
Figure 0007075892000014
近軸レンズは物体空間の光線(直線)を画像空間の光線に変換するので、および、ピクセルビーム70は線織面によって表されるので、物体空間の一葉双曲面の画像は画像空間の一葉双曲面であり、結像されたピクセルビーム72もまた線織面によって表される。
ピクセルビーム70を表す双曲面のパラメータからおよび光学系71のパラメータから結像されたピクセルビーム72を表す双曲面のパラメータを決定することにする。
ピクセルビーム70を表す以下の方程式を考慮する。
Figure 0007075892000015

式中、軸上のピクセルビームおよび(x,z)平面に対する解析を低減するため、θ=θ=0、x=y=z=0およびv=0である。
次いで、決定すべきパラメータは、z’、a’であり、z’、a’は、z、a、f、rの関数であり、z’は、結像されたピクセルビーム72のウエストのz座標であり(W’は、ビームアパチャ(a≠0)により、結像プロセスを通じるPの共役ポイントではない)、a’は、結像されたピクセルビーム72のウエストの半径である。
θ=θ=0、x=y=z=0およびv=0という想定を用いると、ポイントMに適用される方程式16は、以下のように簡易化される。
Figure 0007075892000016
Mに対して方程式14の近軸レンズ変換を使用すると、
Figure 0007075892000017

が得られ、それは、光学系71のフォーカルボリュームの結像されたピクセルビーム72を表す方程式である。
方程式(20)を導き出すことにより、導関数のゼロ交差を見出すことによって、ピクセルビームを表す双曲線の極小値および/または極大値の計算が可能になる。
方程式(20)を展開すると、
Figure 0007075892000018

が与えられる。
方程式(21)の微分は、
Figure 0007075892000019

によって与えられる。
ゼロ交差の演算により、以下のような導関数(23)のゼロ交差が与えられる。
Figure 0007075892000020
以下、すなわち、
Figure 0007075892000021

を知っていることで、
Figure 0007075892000022

の各項を
Figure 0007075892000023

で除することができる。従って、z≫fおよび(f+z)≒zの場合、以下のように近似を導き出すことができる。
Figure 0007075892000024

a’は結像されたピクセルビーム72のウエストの半径であるため、結像されたピクセルビーム72に対する正の双曲線の最小値でもある(すなわち、方程式20(z’=z’)によって定義されるようなx’の値に相当する)。
a’=x’(z’) (27)
これにより、
Figure 0007075892000025

が与えられる。
ポイント(x,y)および光学系71を通じるその共役(x’,y’)を考慮することにする。ポイント(x,y)および光学系71の中心を通過する光線の場合、光の法則により、
Figure 0007075892000026

が与えられる。
光線が入射光線θである場合は、高さxで光学系71に当たると、
Figure 0007075892000027

であり、同様に、
Figure 0007075892000028

である。
従って、
Figure 0007075892000029

である。
レンズメーカーの公式
Figure 0007075892000030

から分かっているように、
Figure 0007075892000031

が得られ、同様に、
Figure 0007075892000032

が得られる。
その結果、結像されたピクセルビーム72を表す方程式は、
Figure 0007075892000033

であり、以下の式、すなわち、
Figure 0007075892000034

によるピクセルビーム70のパラメータz、θ、θ、aから得られたパラメータz’、θ’、θ’、a’が用いられ、式中、
Figure 0007075892000035

である。
ステップ6010では、装置500のプロセッサ501は、第1の光学系の物体空間におけるピクセルビームの集合体のピクセルビーム70と基準座標系のそのアフィン方程式によって定義された所定の平面との交差面を演算する。
次いで、ステップ6020では、プロセッサ501は、光学系71を通じるこの交差面の画像共役を演算する。
ステップ6030では、プロセッサ501は、ステップ6020の間に演算された交差面の画像共役から、結像されたピクセルビーム72を演算する。
次いで、ステップ6040では、装置500のプロセッサ501は、結像されたピクセルビーム72と光学系71のセンサとの交差面を演算する。
次いで、ステップ6050では、プロセッサ501は、前記交差面上における光放射照度(irradiance)の積分を演算する。
ピクセルビームを表すデータを生成するそのような方法は、所定のフォーカルボリュームのピクセルビームの集合体の正確な知識およびパラメータ化を提供する。フォーカルボリュームのパラメトリックサンプリングは均一であるため、前記ピクセルビームに対応するピクセルと関連付けられたRGB値と関連付けられた結像されたピクセルビームを表すパラメータは、画像処理動作に有益な第2の光学系72のフォーカルボリュームのパラメトリックサンプリングを形成する。
本発明の実施形態では、その物体空間がピクセルビーム70の集合体によってサンプリングされている第1の光学系は、実際のカメラの光学系であるのに対して、第2の光学系71は、バーチャルカメラの光学系である。
本発明の別の実施形態では、その物体空間がピクセルビーム70の集合体によってサンプリングされている第1の光学系は、バーチャルカメラの光学系であるのに対して、第2の光学系71は、実際のカメラの光学系である。
本発明は、上記では、特定の実施形態に関して説明されているが、本発明は、特定の実施形態に限定されず、変更形態は、当業者には明らかであり、本発明の範囲内にある。
多くのさらなる変更形態および変形形態は、前述の例示的な実施形態を参照する際にそれら自体を当業者に示唆し、前述の例示的な実施形態は、単なる例示として提供され、本発明の範囲を制限することを意図せず、本発明の範囲は、添付の請求項によってのみ決定される。特に、異なる実施形態からの異なる特徴は、適切な場合に、交換可能であり得る。
なお、上述の実施形態の一部又は全部は、以下の付記のように記載され得るが、以下には限定されない。
(付記1)
光学系の瞳孔を通過する1組の光線により占められるボリュームを表すデータを生成するコンピュータ実装方法であって、前記ボリュームが、ピクセルビームと呼ばれる前記1組の光線により占められ、前記方法が、
第1の光学系の物体空間において前記ピクセルビームを表すデータを取得することであって、前記ピクセルビームが、前記第1の光学系の瞳孔と、前記第1の光学系の前記物体空間における前記第1の光学系と関連付けられたセンサの少なくとも1つのピクセルの画像共役とを通過する1組の光線により占められている、取得することと、
第2の光学系を介して前記ピクセルビームの画像共役を演算することによって前記ピクセルビームを表すデータを生成することと
を含む、方法。
(付記2)
前記第1の光学系の前記物体空間における前記ピクセルビームと平面との交差面を演算することと、
前記ピクセルビームを表すデータを提供するために、前記第2の光学系を介して前記交差面の画像共役を演算することと
をさらに含む、付記1に記載の方法。
(付記3)
前記第1の光学系が実際のカメラであり、前記第2の光学系がバーチャルカメラである、付記1または2に記載の方法。
(付記4)
前記第1の光学系がバーチャルカメラであり、前記第2の光学系が実際のカメラである、付記1または2に記載の方法。
(付記5)
付記1~4のいずれか一項に記載の方法に従って得られたものを使用してライトフィールドデータから画像をレンダリングするデバイス。
(付記6)
光学系の瞳孔を通過する1組の光線により占められるボリュームを表すデータを生成するデバイスであって、前記ボリュームが、ピクセルビームと呼ばれる前記1組の光線により占められ、前記デバイスが、
第1の光学系の物体空間において前記ピクセルビームを表すデータを取得することであって、前記ピクセルビームが、前記第1の光学系の瞳孔と、前記第1の光学系の前記物体空間における前記第1の光学系と関連付けられたセンサの少なくとも1つのピクセルの画像共役とを通過する1組の光線により占められている、取得することと、
第2の光学系を介して前記ピクセルビームの画像共役を演算することによって前記ピクセルビームを表すデータを生成することと
を行うように構成されたライトフィールドデータ生成モジュールを備える、デバイス。
(付記7)
規則的な格子構造で配列されたマイクロレンズのアレイと、
光センサであって、前記マイクロレンズのアレイから前記光センサに投影された光を捕捉するように構成され、ピクセルのセットを含み、ピクセルの各セットが、前記マイクロレンズのアレイのそれぞれのマイクロレンズと光学的に関連付けられている、光センサと、
付記8によるメタデータを生成するデバイスと
を備えるライトフィールド結像デバイス。
(付記8)
前記第1の光学系の瞳孔と、前記第1の光学系の前記物体空間における前記第1の光学系と関連付けられたセンサの少なくとも1つのピクセルの共役とを通過する1組の光線により占められる第1の光学系の物体空間におけるボリュームを表すデータのデータパッケージであって、前記ボリュームが、ピクセルビームと呼ばれる前記1組の光線により占められており、ピクセルビームを表す前記データが、第2の光学系を介して前記ピクセルビームの画像共役である、データパッケージ。
(付記9)
プログラム可能装置用のコンピュータプログラム製品であって、前記プログラム可能装置によってロードされ、実行された際に、付記1~4のいずれか一項に記載の方法を実装する一連の命令を含む、コンピュータプログラム製品。

Claims (22)

  1. コンピュータ実装方法であって、
    光学系の瞳を通過する1組の光線によって占められたボリュームを表すデータを生成することであって、前記ボリュームは、第1のピクセルビームと呼ばれる前記1組の光線によって占められる、ことと、
    第1の光学系の物体空間において前記第1のピクセルビームを表すデータを取得することであって、前記第1のピクセルビームは、前記第1の光学系の瞳と、前記第1の光学系と関連付けられたセンサの少なくとも1つのピクセルの画像共役とを通過する1組の光線によって占められている、ことと、
    前記第1の光学系の物体空間において、平面と前記第1のピクセルビームとの交差面を決定することであって、前記平面は、前記瞳から第1の距離に位置している、ことと、
    第2の光学系を通じて前記交差面の画像共役を決定することと、
    前記画像共役に基づいて第2の結像されたピクセルビームを表すデータを生成することと、
    を含む、方法。
  2. 請求項1に記載の方法であって、
    前記第2の結像されたピクセルビームと前記第2の光学系と関連付けられたセンサとの交差面を決定することを更に含む、方法。
  3. 請求項1に記載の方法であって、
    前記第1の光学系は、実際のカメラの光学系であり、前記第2の光学系は、バーチャルカメラの光学系である、方法。
  4. 請求項1に記載の方法であって、
    前記第1の光学系は、バーチャルカメラの光学系であり、前記第2の光学系は、実際のカメラの光学系である、方法。
  5. 請求項2に記載の方法であって、
    前記第1の光学系は、実際のカメラの光学系であり、前記第2の光学系は、バーチャルカメラの光学系である、方法。
  6. 請求項2に記載の方法であって、
    前記第1の光学系は、バーチャルカメラの光学系であり、前記第2の光学系は、実際のカメラの光学系である、方法。
  7. デバイスであって、
    光学系の瞳を通過する1組の光線によって占められたボリュームを表すデータを生成するように構成されたプロセッサであって、前記ボリュームは、第1のピクセルビームと呼ばれる前記1組の光線によって占められる、プロセッサを備え、
    前記プロセッサは、第1の光学系の物体空間において前記第1のピクセルビームを表すデータを取得することであって、前記第1のピクセルビームは、前記第1の光学系の瞳と、前記第1の光学系と関連付けられたセンサの少なくとも1つのピクセルの画像共役とを通過する1組の光線によって占められている、ことと、前記第1の光学系の物体空間において、平面と前記第1のピクセルビームとの交差面を決定することであって、前記平面は、前記瞳から第1の距離に位置している、こととを行うように構成されており、
    前記プロセッサは、第2の光学系を通じて前記交差面の画像共役を決定し、前記画像共役に基づいて第2の結像されたピクセルビームを表すデータを生成するように構成されている、デバイス。
  8. 請求項7に記載のデバイスであって、
    前記プロセッサは、前記第2の結像されたピクセルビームと前記第2の光学系と関連付けられたセンサとの交差面を決定するように構成されている、デバイス。
  9. 請求項7に記載のデバイスであって、
    前記第1の光学系は、実際のカメラの光学系であり、前記第2の光学系は、バーチャルカメラの光学系である、デバイス。
  10. 請求項7に記載のデバイスであって、
    前記第1の光学系は、バーチャルカメラの光学系であり、前記第2の光学系は、実際のカメラの光学系である、デバイス。
  11. 請求項8に記載のデバイスであって、
    前記第1の光学系は、実際のカメラの光学系であり、前記第2の光学系は、バーチャルカメラの光学系である、デバイス。
  12. 請求項8に記載のデバイスであって、
    前記第1の光学系は、バーチャルカメラの光学系であり、前記第2の光学系は、実際のカメラの光学系である、デバイス。
  13. 請求項7に記載のデバイスであって、
    前記デバイスは、前記データから画像をレンダリングするように構成されている、デバイス。
  14. 請求項7に記載のデバイスであって、
    規則的な格子構造で配列されたマイクロレンズのアレイと、
    光センサであって、前記マイクロレンズのアレイから前記光センサに投影された光を捕捉するように構成され、数組のピクセルを含み、ピクセルの各組が、前記マイクロレンズのアレイのそれぞれのマイクロレンズと光学的に関連付けられている、光センサと、
    メタデータを生成するためのコンポーネントと、
    を備える、デバイス。
  15. 請求項8に記載のデバイスであって、
    規則的な格子構造で配列されたマイクロレンズのアレイと、
    光センサであって、前記マイクロレンズのアレイから前記光センサに投影された光を捕捉するように構成され、数組のピクセルを含み、ピクセルの各組が、前記マイクロレンズのアレイのそれぞれのマイクロレンズと光学的に関連付けられている、光センサと、
    メタデータを生成するためのコンポーネントと、
    を備える、デバイス。
  16. コンピュータに、
    第1の光学系の物体空間において第1のピクセルビームを表すデータを取得することであって、前記第1のピクセルビームは、前記第1の光学系の瞳と、前記第1の光学系と関連付けられたセンサの少なくとも1つのピクセルの画像共役とを通過する1組の光線によって占められている、ことと、
    前記第1の光学系の物体空間において、平面と前記第1のピクセルビームとの交差面を決定することであって、前記平面は、前記瞳から第1の距離に位置している、ことと、
    第2の光学系を通じて前記交差面の画像共役を決定することと、
    前記画像共役に基づいて第2の結像されたピクセルビームを表すデータを生成することと、
    の方法を実行させるコンピュータプログラム。
  17. 請求項16に記載のコンピュータプログラムであって、
    前記方法は、前記第2の結像されたピクセルビームと前記第2の光学系と関連付けられたセンサとの交差面を決定することと、前記ピクセルの前記交差面上における光放射照度を積分することと、を含む、コンピュータプログラム。
  18. 請求項16に記載のコンピュータプログラムであって、
    前記第1の光学系は、実際のカメラの光学系であり、前記第2の光学系は、バーチャルカメラの光学系である、コンピュータプログラム。
  19. 請求項16に記載のコンピュータプログラムであって、
    前記第1の光学系は、バーチャルカメラの光学系であり、前記第2の光学系は、実際のカメラの光学系である、コンピュータプログラム。
  20. 請求項2に記載の方法であって、
    前記交差面上における光放射照度を積分することを更に含む、方法。
  21. 請求項8に記載のデバイスであって、
    光放射照度は、前記交差面にわたって積分される、デバイス。
  22. 請求項1に記載の方法であって、
    前記データから画像をレンダリングすることを更に含む、方法。
JP2018552042A 2016-06-30 2017-06-30 ピクセルビームを表すデータを生成する装置および方法 Active JP7075892B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP16305810.0A EP3264759A1 (en) 2016-06-30 2016-06-30 An apparatus and a method for generating data representative of a pixel beam
EP16305810.0 2016-06-30
PCT/EP2017/066359 WO2018002346A1 (en) 2016-06-30 2017-06-30 An apparatus and a method for generating data representative of a pixel beam

Publications (3)

Publication Number Publication Date
JP2019522909A JP2019522909A (ja) 2019-08-15
JP2019522909A5 JP2019522909A5 (ja) 2020-08-06
JP7075892B2 true JP7075892B2 (ja) 2022-05-26

Family

ID=56511477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018552042A Active JP7075892B2 (ja) 2016-06-30 2017-06-30 ピクセルビームを表すデータを生成する装置および方法

Country Status (10)

Country Link
US (1) US11092820B2 (ja)
EP (2) EP3264759A1 (ja)
JP (1) JP7075892B2 (ja)
KR (1) KR102402432B1 (ja)
CN (1) CN109565583B (ja)
BR (1) BR112018077345A2 (ja)
CA (1) CA3021368A1 (ja)
MX (1) MX2018016106A (ja)
RU (2) RU2019102400A (ja)
WO (1) WO2018002346A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3579561A1 (en) * 2018-06-05 2019-12-11 InterDigital VC Holdings, Inc. Prediction for light-field coding and decoding

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080266655A1 (en) 2005-10-07 2008-10-30 Levoy Marc S Microscopy Arrangements and Approaches
JP2010176325A (ja) 2009-01-28 2010-08-12 Ntt Docomo Inc 任意視点画像生成装置及び任意視点画像生成方法
JP2012227700A (ja) 2011-04-19 2012-11-15 Canon Inc 情報処理装置およびプログラム
JP2013029682A (ja) 2011-07-28 2013-02-07 Fuji Xerox Co Ltd 光走査装置および画像形成装置
JP2013186640A (ja) 2012-03-07 2013-09-19 Sony Corp 画像処理装置と画像処理方法およびプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6097394A (en) * 1997-04-28 2000-08-01 Board Of Trustees, Leland Stanford, Jr. University Method and system for light field rendering
US6490094B2 (en) * 2000-03-17 2002-12-03 Zograph, Llc High acuity lens system
KR101134208B1 (ko) * 2004-10-01 2012-04-09 더 보드 어브 트러스티스 어브 더 리랜드 스탠포드 주니어 유니버시티 촬상 장치 및 그 방법
US8358354B2 (en) 2009-01-26 2013-01-22 The Board Of Trustees Of The Leland Stanford Junior University Correction of optical abberations
US8279325B2 (en) * 2008-11-25 2012-10-02 Lytro, Inc. System and method for acquiring, editing, generating and outputting video data
US8289440B2 (en) * 2008-12-08 2012-10-16 Lytro, Inc. Light field data acquisition devices, and methods of using and manufacturing same
CN101419708B (zh) 2008-12-08 2010-09-08 北京航空航天大学 一种基于一维靶标的结构光传感器标定方法
KR20120110614A (ko) * 2011-03-30 2012-10-10 삼성전자주식회사 3차원 이미지 센서
DE102011076083A1 (de) 2011-05-18 2012-11-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Projektionsdisplay und Verfahren zum Anzeigen eines Gesamtbildes für Projektionsfreiformflächen oder verkippte Projektionsflächen
KR20130003135A (ko) 2011-06-30 2013-01-09 삼성전자주식회사 다시점 카메라를 이용한 라이트 필드 형상 캡처링 방법 및 장치
KR101857977B1 (ko) 2011-08-16 2018-05-15 삼성전자주식회사 플래놉틱 카메라와 깊이 카메라를 결합한 영상 장치 및 영상 처리 방법
KR20130047194A (ko) 2011-10-31 2013-05-08 한국전자통신연구원 동적 개체의 외형복원 및 자동 스키닝 장치 및 방법
US8831377B2 (en) * 2012-02-28 2014-09-09 Lytro, Inc. Compensating for variation in microlens position during light-field image processing
US9846960B2 (en) 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US9179126B2 (en) 2012-06-01 2015-11-03 Ostendo Technologies, Inc. Spatio-temporal light field cameras
US9858649B2 (en) * 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
US8754829B2 (en) 2012-08-04 2014-06-17 Paul Lapstun Scanning light field camera and display
CN203219392U (zh) 2013-04-09 2013-09-25 上海海鸥数码照相机有限公司 双镜头光场相机
EP3023826A1 (en) * 2014-11-20 2016-05-25 Thomson Licensing Light field imaging device
US10132616B2 (en) * 2015-04-20 2018-11-20 Samsung Electronics Co., Ltd. CMOS image sensor for 2D imaging and depth measurement with ambient light rejection
KR101729017B1 (ko) * 2015-06-30 2017-04-21 엘지전자 주식회사 스캐닝 프로젝터 및 그 동작방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080266655A1 (en) 2005-10-07 2008-10-30 Levoy Marc S Microscopy Arrangements and Approaches
JP2010176325A (ja) 2009-01-28 2010-08-12 Ntt Docomo Inc 任意視点画像生成装置及び任意視点画像生成方法
JP2012227700A (ja) 2011-04-19 2012-11-15 Canon Inc 情報処理装置およびプログラム
JP2013029682A (ja) 2011-07-28 2013-02-07 Fuji Xerox Co Ltd 光走査装置および画像形成装置
JP2013186640A (ja) 2012-03-07 2013-09-19 Sony Corp 画像処理装置と画像処理方法およびプログラム

Also Published As

Publication number Publication date
WO2018002346A1 (en) 2018-01-04
US20190162978A1 (en) 2019-05-30
BR112018077345A2 (pt) 2019-04-02
KR102402432B1 (ko) 2022-05-27
RU2019102400A3 (ja) 2020-07-30
KR20190022573A (ko) 2019-03-06
RU2019102400A (ru) 2020-07-30
RU2021111662A (ru) 2021-10-25
EP3264759A1 (en) 2018-01-03
US11092820B2 (en) 2021-08-17
CN109565583B (zh) 2021-11-09
EP3479571A1 (en) 2019-05-08
EP3479571B1 (en) 2022-08-10
CN109565583A (zh) 2019-04-02
MX2018016106A (es) 2019-08-16
CA3021368A1 (en) 2018-01-04
JP2019522909A (ja) 2019-08-15

Similar Documents

Publication Publication Date Title
JP2017063414A (ja) ライト・フィールドを表すデータを生成する方法および装置
JP2018538709A (ja) ピクセルビームを表すデータを生成する方法及び装置
JP6902529B2 (ja) 光学的捕捉システムを校正する装置及び方法
JP2018531448A6 (ja) 光学的捕捉システムを校正する装置及び方法
JP6971084B2 (ja) ライト・フィールド・データに関連するボケを表現するデータを生成する方法及び装置
RU2729698C2 (ru) Устройство и способ для кодирования изображения, захваченного оптической системой получения данных
JP7075892B2 (ja) ピクセルビームを表すデータを生成する装置および方法
KR102454773B1 (ko) 픽셀 빔을 나타내는 데이터를 생성하기 위한 장치 및 방법
CN108353120B (zh) 用于生成表示像素束的数据的装置和方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220516

R150 Certificate of patent or registration of utility model

Ref document number: 7075892

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150