JP6832919B2 - ピクセルビームを表すデータを生成する装置および方法 - Google Patents

ピクセルビームを表すデータを生成する装置および方法 Download PDF

Info

Publication number
JP6832919B2
JP6832919B2 JP2018514443A JP2018514443A JP6832919B2 JP 6832919 B2 JP6832919 B2 JP 6832919B2 JP 2018514443 A JP2018514443 A JP 2018514443A JP 2018514443 A JP2018514443 A JP 2018514443A JP 6832919 B2 JP6832919 B2 JP 6832919B2
Authority
JP
Japan
Prior art keywords
data
pixel
parameter
light field
ray
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018514443A
Other languages
English (en)
Other versions
JP2019502277A5 (ja
JP2019502277A (ja
Inventor
ドラジ,ヴァルテ
ブロンデ,ローラン
ビュルレ,オリヴィエ
Original Assignee
インターデジタル ヴイシー ホールディングス, インコーポレイテッド
インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターデジタル ヴイシー ホールディングス, インコーポレイテッド, インターデジタル ヴイシー ホールディングス, インコーポレイテッド filed Critical インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Publication of JP2019502277A publication Critical patent/JP2019502277A/ja
Publication of JP2019502277A5 publication Critical patent/JP2019502277A5/ja
Application granted granted Critical
Publication of JP6832919B2 publication Critical patent/JP6832919B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、ライトフィールドを表すデータの生成に関する。
4次元または4Dのライトフィールドデータの取得については、これは4Dのライトフィールドのサンプリングと見なせ、すなわち光線の記録と見なすことができるが、これはAnat Levin and al.著「Understanding camera trade−offs through a Bayesian analysis of light field projections」(published in the conference proceedings of ECCV 2008)に説明されており、活気のある研究課題である。
カメラから得られる古典的な2次元すなわち2D画像と比較して、4Dライトフィールドデータにより、ユーザは、より多くの後処理機能にアクセスできるようになり、画像のレンダリングおよびユーザとのインタラクティブ性が向上する。例えば、4Dライトフィールドデータがあれば、自由に選択された焦点距離で画像の再焦点合わせを行うことができ、これは、焦点面の位置を事後的に指定/選択すること、及び画像のシーンにおいて視点を少し変えることができることを意味する。4Dライトフィールドデータを取得するために、いくつかの技術を使用することができる。例えば、プレノプティックカメラは4Dライトフィールドデータを撮影することができる。Plenopticカメラのアーキテクチャの詳細を図1Aに示す。図1Aは、プレノプティックカメラ100を概略的に示す図である。プレノプティックカメラ100は、主レンズ101と、2次元配列に配列された複数のマイクロレンズ103を含むマイクロレンズアレイ102と、イメージセンサ104とを備える。
4Dライトフィールドデータを取得する別の方法は、図1Bに示すようなカメラアレイを使用することである。図1Bは、マルチアレイカメラ110を示している。マルチアレイカメラ110は、レンズアレイ112と、イメージセンサ114とを含む。
図1(a)に示すプレノプティックカメラ100の例では、主レンズ101は、主レンズ101の物体視野内の被写体(図示せず)からの光を受けて、その光を主レンズ101の像視野を通す。
最後に、4Dライトフィールドを取得する別の方法は、異なる焦点面で同じシーンの2D画像のシーケンスを取得するように構成された従来のカメラを使用することである。例えば、文献J.H.Park et al.著「Light ray field capture using focal plane sweeping and its optical reconstruction using 3D displays」(OPTICS EXPRESS, Vol. 22, No. 21, in October 2014)に記載された手法を用いて、従来のカメラにより4Dライトフィールドデータの取得を実現できる。
4Dライトフィールドデータを表現するにはいくつかの方法がある。実際、2006年7月に公表されたRen Ng著「Digital Light Field Photography」というタイトルの博士論文の第3.3章には、4Dライトフィールドデータを表現する3つの異なる方法が説明されている。第1に、4Dライトフィールドデータは、プレノプティックカメラによって記録されたときに、マイクロレンズ画像の集まりによって表現することができる。この表現における4Dライトフィールドデータは、生画像または生4Dライトフィールドデータと呼ばれる。第2に、4Dのライトフィールドデータは、プレノプティックカメラまたはカメラアレイによって記録されたときは、サブアパーチャ画像(sub−aperture images)のセットによって表すことができる。サブアパーチャ画像は、2つのサブアパーチャ画像の間で視点がわずかに異なる視点からのシーンの撮影画像に対応する。これらのサブアパーチャ画像は、撮影されたシーンの視差および深度に関する情報を与える。第3に、4Dライトフィールドデータは、エピポーラ画像(epipolar images)のセットによって表すことができる。例えば、ISVC 2011の会議議事録で発表されたWanner et al.著「Generating EPI Representation of a 4D Light Fields with a Single Lens Focused Plenoptic Camera」を参照されたい。
ライトフィールドデータは、大きなストレージスペースを占有する可能性があり、ストレージを煩雑にし、処理効率が低下する可能性がある。さらに、ライトフィールド取得装置は極めて異質である。ライトフィールドカメラは、例えば、プレノプティック(plenoptic)またはカメラアレイのような異なるタイプのものである。各タイプには、異なる光学構成、焦点距離が異なるマイクロレンズなど、多くの違いがある。各カメラには独自のファイル形式がある。現時点では、ライトフィールドが依存する様々なパラメータを完全に概観するための多次元情報の取得および伝送をサポートする標準は存在しない。このように、異なるカメラで取得されたライトフィールドデータには、多様なフォーマットがある。本発明は、上記の点を考慮して案出されたものである。
本発明の第1の態様によると、光学的撮像システムのオブジェクト空間において、光学的撮像システムの瞳と、前記光学的撮像システムのセンサの少なくとも1つのピクセルの共役とを通る光線のセットにより占められるボリュームを表すデータを生成する、コンピュータにより実施される方法が提供される。前記光線のセットにより占められるボリュームはピクセルビームと呼ばれ、前記方法は、
光線の集まりを取得するステップであって、前記集まりの各光線はピクセルビームを表し、少なくとも第1のパラメータが前記ピクセルの共役を確定する、ステップと、
前記ピクセルビームを表す光線の、複数の基準面との交点を確定する交点データを取得するステップであって、前記基準面は互いに平行であり、前記オブジェクト空間における異なる深度に対応する、ステップと、
2次元光線図において前記交点データの図式的表現を規定する光線図パラメータを取得するステップと、
前記光線図パラメータを、ピクセルの共役を確定する前記少なくとも1つのパラメータと関連付け、前記ピクセルビームを表すデータを提供するステップとを含む。
本発明の一実施形態では、前記方法はさらに、前記ピクセルの共役を確定する第1のパラメータの第1の値と第2の値との差分を符号化するステップであって、前記差分は前記光線図パラメータに関連付けられ、前記ピクセルビームを表すデータを提供する、ステップを含む。
本発明の一実施形態では、前記ピクセルビームを表す光線に対応する交点データは、前記光線図においてデータラインとして図式的に表現され、前記光線図パラメータは、
−データラインの傾斜、及び
−データラインの、前記光線図の軸との切片
のうち少なくとも1つを表すデータを含む。
本発明の一実施形態では、前記データラインは、ラドン変換を適用することにより、前記2次元光線図において検出される。
本発明の一実施形態では、前記図式的表現はデジタルデータラインを提供するセルのマトリックスとして提供され、各デジタルデータラインフォーマットは、前記データラインの軸との交点を表す少なくとも1つの第1のセルと、前記データラインの傾斜を決定する少なくとも1つの第2のセルとである複数のセルにより確定される。
本発明の一実施形態では、各デジタルデータラインはBresenhamアルゴリズムの適用により生成される。
本発明の一実施形態では、前記ピクセルビームを表すデータは、さらに、前記ピクセルビームを表す対応する光線の色を表す色データを含む。
本発明の一実施形態では、前記ピクセルビームを表すデータはメタデータとして提供され、前記メタデータのヘッダは、2次元光線図における交点データの図式的表現を確定する光線図パラメータを含み、前記メタデータのボディは、光線の色を表すデータと、前記オブジェクト空間におけるピクセルの共役の位置とサイズを確定するパラメータとを含む。
本発明の他の目的は、光学的撮像システムのオブジェクト空間において、光学的撮像システムの瞳と、前記光学的撮像システムのセンサの少なくとも1つのピクセルの共役とを通る光線のセットにより占められるボリュームを表すデータを生成するデバイスに関し、前記光線のセットにより占められるボリュームはピクセルビームと呼ばれ、前記デバイスは、
光線の集まりを取得し、前記集まりの各光線はピクセルビームを表し、少なくとも第1のパラメータが前記ピクセルの共役を確定し、
前記ピクセルビームを表す光線の、複数の基準面との交点を確定する交点データを取得し、前記基準面は互いに平行であり、前記オブジェクト空間における異なる深度に対応し、
2次元光線図において前記交点データの図式的表現を規定する光線図パラメータを取得し、
前記光線図パラメータを、ピクセルの共役を確定する前記少なくとも1つのパラメータと関連付け、前記ピクセルビームを表すデータを提供する。
本発明の一実施形態では、前記プロセッサは、さらに、前記ピクセルの共役を確定する第1のパラメータの第1の値と第2の値との差分を符号化し、前記差分は前記光線図パラメータに関連付けられ、前記ピクセルビームを表すデータを提供する。
ライトフィールドイメージングデバイスであって、
規則的な格子構造で構成されたマイクロレンズアレイと、
前記マイクロレンズアレイから投影された光をキャプチャするように構成されたフォトセンサであって、複数のピクセルのセットを有し、各ピクセルセットは前記マイクロレンズアレイのそれぞれのマイクロレンズに光学的に関連付けられている、フォトセンサと、
請求項11に記載のメタデータを提供するデバイスとを有する。
本発明の他の目的は、光学的撮像システムのオブジェクト空間において、光学的撮像システムの瞳と、前記光学的撮像システムのセンサの少なくとも1つのピクセルの共役とを通る光線のセットにより占められるボリュームを表すデータを含むデジタルファイルに関し、前記光線のセットにより占められるボリュームはピクセルビームと呼ばれ、前記データは、
ピクセルビームを表す光線の交点データの2次元光線図における図式的表現を確定する光線図パラメータであって、前記交点データは前記ピクセルビームを表すライトフィールド光線の、複数の基準面との交点を確定し、前記基準面は互いに平行であり、前記オブジェクト空間における異なる深度に対応する、光線図パラメータと、
前記ピクセルビームを表すライトフィールド光線の色を確定する色データと、
前記光学的撮像システムのオブジェクト空間におけるピクセルの共役の位置とサイズを確定するパラメータとを含む、本発明の要素によって実現されるいくつかのプロセスは、コンピュータによって実施されてもよい。したがって、かかる要素は、完全にハードウェアによる実施形態、(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)完全にソフトウェアによる実施形態、またはソフトウェアとハードウェアの態様を組み合わせた実施形態の形式を取り得る。これらはすべてここでは概して「回路」、「モジュール」または「システム」と呼ぶ。さらに、そのような要素は、媒体に組み込まれたコンピュータ使用可能プログラムコードを有する表現の任意の有形媒体に具体化されたコンピュータプログラム製品の形式を取ることができる。
本発明の要素はソフトウェアで実施することができるので、本発明は、任意の適切なキャリア媒体上のプログラム可能な装置に提供するためのコンピュータ可読コードとして実施することができる。有形のキャリア媒体は、フロッピーディスク、CD−ROM、ハードディスクドライブ、磁気テープ装置または固体メモリ装置などのような記憶媒体を含むことができる。過渡キャリア媒体は、電気信号、電子信号、光信号、音響信号、磁気信号または電磁信号、例えばマイクロ波またはRF信号などの信号を含むことができる。
ここで、以下の図面を参照して、例として、本発明の実施形態を説明する。
プレノプティックカメラを示す概略図である。 マルチアレイカメラを示す図である。 本発明の一実施形態によるライトフィールドカメラを示す機能図である。 本発明の一実施形態によるライトフィールドフォーマッタとライトフィールドプロセッサとを示す機能図である。 フォトセンサアレイ上に形成された2Dライトフィールドイメージの一例を示す図である。 カメラまたは光学撮影システムの光学系のオプジェクト空間において、光線のセットにより占められたボリュームを示す図である。 一葉の双曲面を示す図である。 本発明の一以上の実施形態によるライトフィールドデータのパラメータ化のための基準面の使用を図式的に示す図である。 本発明の一以上の実施形態によるライトフィールドデータのパラメータ化のための基準面の使用を図式的に示す図である。 本発明の複数の実施形態による基準面に対するライトフィールド光線を示す概略図である。 本発明の一以上の実施形態による方法のステップを示すフローチャートである。 本発明の一以上の実施形態によるライトデータフォーマットを提供するデバイスのモジュールを示す機能ブロック図である。 本発明の複数の実施形態によるライトフィールド光線を示すパラメータを示す概略図である。 本発明の複数の実施形態による交点データをグラフィカルに示す2D光線図である。 本発明の複数の実施形態に従って生成されたデジタルライン(a digital line)を図式的に示す図である。 本発明の複数の実施形態に従って生成されたデジタルライン(digitals line)を図式的に示す図である。 本発明の複数の実施形態によるデジタルラインを適用したRadon変換を図式的に示す図である。 本発明の複数の実施形態によるデジタルラインを適用したRadon変換を図式的に示す図である。 本発明の複数の実施形態によるデジタルラインを適用したRadon変換を図式的に示す図である。 本発明の複数の実施形態による複数のカメラの交点データをグラフィカルに示す2D光線図である。 本発明の一以上の実施形態による方法のステップを示すフローチャートである。 本発明の一以上の実施形態による方法のステップを示すフローチャートである。 ガウシアンビームの幾何学的形状を示す図である。
本技術分野の当業者には言うまでもないが、本原理の諸態様はシステム、方法、またはコンピュータ読み取り可能媒体として実施され得る。したがって、本原理の諸態様は、完全にハードウェアによる実施形態、完全にソフトウェアによる実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなど)、またはソフトウェアとハードウェアの態様を組み合わせた実施形態の形式を取り得る。これらはここでは概して「回路」、「モジュール」または「システム」と呼ぶ。さらにまた、本原理の諸態様はコンピュータ読み取り可能記憶媒体の形式を取り得る。一以上のコンピュータ読み取り可能記憶媒体の任意の組み合わせを利用できる。
本発明の実施形態は、フォーマット変換、リフォーカス、視点変更および3D画像生成などのさらなる処理アプリケーションのためのライトフィールドデータのフォーマットを提供する。
図2A本発明の一実施形態によるライトフィールドカメラデバイスを示すブロック図である。 ライトフィールドカメラは、図1Aのライトフィールドカメラにしたがって、アパーチャ/シャッタ202、メイン(対物)レンズ201、マイクロレンズアレイ210、およびフォトセンサアレイ220を備える。いくつかの実施形態では、ライトフィールドカメラは、被写体またはシーンのライトフィールド画像を取得するように作動するシャッターレリーズ(shutter release)を含む。言うまでもなく、機能的特徴はまた、図1Bのライトフィールドカメラにも適用され得る。
フォトセンサアレイ220は、ライトフィールドデータフォーマットモジュール250によるライトフィールドデータフォーマットの生成、および/またはライトフィールドデータプロセッサ255による処理のために、LFデータ取得モジュール240によって取得されるライトフィールド画像データを提供する。ライトフィールドデータは、取得後および処理後に、生データフォーマットで、サブアパーチャ画像または焦点スタックとして、または本発明の実施形態によるライトフィールドデータフォーマットで、メモリ290に格納することができる。
図示した例では、ライトフィールドデータフォーマッティングモジュール150およびライトフィールドデータプロセッサ255は、ライトフィールドカメラ200内に配置されるか、または一体化される。本発明の他の実施形態では、ライトフィールドデータフォーマットモジュール250および/またはライトフィールドデータプロセッサ255は、ライトフィールドキャプチャカメラの外部の別個のコンポーネントに設けられてもよい。別個のコンポーネントは、ライトフィールド画像キャプチャデバイスに対してローカルであってもリモートであってもよい。言うまでもなく、任意の好適な有線または無線のプロトコルを用いて、ライトフィールド画像データをフォーマッティングモジュール250やライトフィールドデータプロセッサ255に送信してもよい。例えばライトフィールドデータプロセッサは、キャプチャされたライトフィールド画像データおよび/またはその他のデータを、インターネット、セルラデータネットワーク、WiFiネットワーク、BlueTooth(登録商標)通信プロトコル、および/またはその他の任意の適切な手段を介して転送してもよい。
ライトフィールドデータフォーマッティングモジュール250は、本発明の実施形態に従って、取得されたライトフィールドを表すデータを生成するように構成される。ライトフィールドデータフォーマッティングモジュール250は、ソフトウェア、ハードウェア、またはそれらの組み合わせで実施することができる。
ライトフィールドデータプロセッサ255は、LFデータ取得モジュール240から直接受け取った生のライトフィールド画像データに対して作用して、例えば、本発明の実施形態による焦点スタックまたはビューマトリックスを生成するように構成される。キャプチャされたシーンの静止画像、2Dビデオストリームなどの出力データを生成することができる。ライトフィールドデータプロセッサは、ソフトウェア、ハードウェア、またはそれらの組み合わせで実施することができる。
少なくとも1つの実施形態では、ライトフィールドカメラ200は、ユーザがコントローラ270によるカメラ100の動作を制御するためのユーザ入力を提供することを可能にするユーザインターフェース260を含むこともできる。カメラの制御は、シャッタ速度のようなカメラの光学的パラメータの制御、または調整可能なライトフィールドカメラの場合には、マイクロレンズアレイとフォトセンサとの間の相対的距離や対物レンズとマイクロレンズアレイとの間の相対的距離の制御のうち一以上を含み得る。いくつかの実施形態では、ライトフィールドカメラの光学素子間の相対的距離を手動で調整することができる。カメラの制御は、カメラのその他のライトフィールドデータ取得パラメータ、ライトフィールドデータフォーマッティングパラメータ、またはライトフィールド処理パラメータの制御を含んでいてもよい。ユーザインターフェース260は、タッチスクリーン、ボタン、キーボード、ポインティングデバイスなどの任意の適切なユーザ入力デバイスを含むことができる。このようにして、ユーザインターフェースによって受信された入力を用いて、データフォーマットを制御するLFデータフォーマッティングモジュール250、取得されたライトフィールドデータの処理を制御するLFデータプロセッサ255、およびライトフィールドカメラ200を制御するコントローラ270を制御および/または設定できる。
ライトフィールドカメラは、一以上の交換可能または再充電可能なバッテリなどの電源280を含む。ライトフィールドカメラは、キャプチャされたライトフィールドデータおよび/またはレンダリングされた最終画像、または本発明の複数の実施形態の方法を実施するソフトウェアのようなその他のデータを記憶するためのメモリ290を備える。メモリは、外部メモリおよび/または内部メモリを含むことができる。少なくとも1つの実施形態では、メモリは、カメラ200とは別のデバイスおよび/またはカメラ200から離れた位置に設けることができる。一実施形態では、メモリは、メモリスティックのような取外し可能/交換可能な記憶デバイスを含む。
また、ライトフィールドカメラは、キャプチャする前にカメラの前のシーンを視るための、および/または事前にキャプチャされたおよび/またはレンダリングされた画像を見るためのディスプレイユニット265(例えば、LCDスクリーン)を含むことができる。また、スクリーン265を用いて、一以上のメニューまたはその他の情報をユーザに表示してもよい。ライトフィールドカメラは、さらに、FireWireやユニバーサルシリアルバス(USB)インターフェースなどの一以上のI/Oインターフェース295、またはインターネット、セルラデータネットワーク、WiFiネットワーク、BlueTooth通信プロトコル、および/または任意の他の適切な手段を解してデータ通信するための有線または無線通信インターフェースを含むことができる。I/Oインターフェース295を使用して、本発明の実施形態によるLFデータフォーマッティングモジュールによって生成されたライトフィールド代表データ、及び生のライトフィールドデータまたはLFデータプロセッサ255により処理されたデータなどのライトフィールドデータを、コンピュータシステムまたはディスプレイユニットなどの外部デバイスとの間で、アプリケーションをレンダリングするために、転送できる。
図2Bは、ライトフィールドデータフォーマッティングモジュール250およびライトフィールドデータプロセッサ253の潜在的な実装の実施形態を示すブロック図である。
回路2000は、メモリ2090、メモリコントローラ2045、および一以上の処理ユニット(CPU)を含む処理回路2040を含む。一以上の処理ユニット2040は、メモリ2090に格納された様々なソフトウェアプログラムおよび/または命令のセットを実行して、ライトフィールドデータフォーマッティングおよびライトフィールドデータ処理を含む様々な機能を実行するように構成される。メモリに格納されたソフトウェアコンポーネントは、本発明の複数の実施形態による取得されたライトデータを表すデータを生成するデータフォーマッティングモジュール(または命令セット)2050と、本発明の複数の実施形態によるライトフィールドデータを処理するライトフィールドデータ処理モジュール(または命令セット)2055とを含む。ライトフィールドカメラデバイスのアプリケーション用のその他のモジュールがメモリに含まれてもよい。例えば、一般的なシステムタスク(例えば、電力管理、メモリ管理)を制御し、及び、デバイス2000の様々なハードウェアおよびソフトウェアのコンポーネント間の通信を容易にするオペレーティングシステムモジュール2051、及びI/Oインターフェースポートを介して他のデバイスとの通信を制御および管理するインターフェースモジュール2052が含まれてもよい。
図3は、図1Aのフォトセンサアレイ104または図1Bのフォトセンサアレイ114上に形成された2D画像の例を示す。2D画像は、生4Dライトフィールド画像と呼ばれることも多いが、マイクロ画像アレイMIから構成され、各マイクロ画像は、マイクロレンズアレイ102,112のそれぞれのマイクロレンズ(i,j)によって生成される。マイクロ画像は、軸iおよびjによって確定される矩形格子構造中の配列内に配置される。マイクロレンズ画像は、それぞれのマイクロレンズ座標(i,j)によって参照されてもよい。フォトセンサ104,114のピクセルPIは、その空間座標(x,y)によって参照されてもよい。所与のピクセルに関連する4Dライトフィールドデータは、(x,y,i,j)として参照されてもよい。
4Dライトフィールド画像を表現する(または定義する)いくつかの方法がある。例えば、4Dライトフィールド画像は、図3を参照して先に説明したようなマイクロレンズ画像の集まりによって表すことができる。4Dライトフィールド画像は、プレノプティックカメラによって記録されたときに、サブアパーチャ画像のセットによって表現することもできる。各サブアパーチャ画像は、各マイクロレンズ画像から選択された同じ位置のピクセルから構成される。さらに、4Dのライトフィールド画像は、ピクセルビームの場合ではないエピポーラ画像(epipolar images)のセットによって表されてもよい。
本発明の実施形態は、ピクセルビームの概念に基づいてライトフィールドデータの表現を提供する。このようにして、フォーマットやライトフィールドデバイスの多様性を考慮に入れることができる。実際、光線ベースのフォーマットの1つの欠点は、ピクセルフォーマットおよびサイズを反映するためにパラメータ化平面をサンプリングする必要があることである。したがって、物理的に意味のある情報を回復するためには、他のデータに沿ってサンプリングを定義する必要がある。
ピクセルビーム40は、図4に示すように、カメラの光学系41のオブジェクト空間内の光線のセットによって占められるボリュームを表す。
光線のセットは、光学系41の瞳44を通ってカメラのセンサ43のピクセル42によって感知される。光線とは対照的に、ピクセルビーム40は、それ自体が「etendue」を伝達するので、物理的な光線のセクション間のエネルギーの保存に対応する。
光学系の瞳は、前記光学系、すなわち前記アパーチャ絞りに先行するカメラのレンズを通して見たアパーチャ絞りの像として定義される。アパーチャ絞りは、カメラの光学系を通る光の量を制限するアパーチャである。例えば、カメラレンズの前面近くに配置された調節可能な絞りは、レンズのアパーチャ絞りである。絞りを通って入る光の量は、カメラのユーザが受けることを望む光の量に応じて適合させ得る絞りアパーチャの直径によって制御される。例えば、絞りを小さくすると、絞りを通して入る光の量は減少するが、焦点深度は増加する。ストップの有効サイズは、レンズの屈折作用のために、物理的サイズより大きい、または小さくてもよい。正式には、瞳は、カメラの光学系を通るアパーチャ絞りの像である。
ピクセルビーム40は、入射瞳44を介して光学系41を伝播するときに、所与のピクセル42に到達する光線の光線バンドルとして定義される。光が自由空間の直線上を移動するとき、そのようなピクセルビーム40の形状は、2つの部分によって画定することができる。1つはピクセル42の共役45であり、もう1つは入射瞳44である。ピクセル42は、その非ヌル面とその感度マップによって定められる。
したがって、ピクセルビームは、図5に示すように、瞳54およびカメラのオブジェクト空間内のピクセル42の共役55の2つの要素によって支持される、一葉の双曲面50によって表される。
一様の双曲面は、光線バンドルの概念を支持し、物理的光線の「etendue」という概念と互換性のある線織面である。
一様の双曲面は、ガウシアンビームの幾何学的形状に対応する。実際、光学的には、ガウシアンビームは、その横方向の磁場および電場の振幅プロファイルがガウス関数によって与えられる単色電磁放射のビームであり、これはまた、ガウス強度プロファイルを示唆する。この基本的な横方向のガウスモードは、このような光ビームは最も集中したスポットに集バンドルさせることができるので、ほとんどのレーザの意図された出力を表す。
以下の式は、zのすべての値において円形の断面を有するビームを仮定する。これは、単一の横方向寸法rが現れることに気付くことによって見ることができる。
(焦点から測られた)ビームに沿った位置zにおいて、スポットサイズパラメータwは、
により与えられる。ここで、wはwaistサイズである。
図16に示されるように、waistからの距離はzに等しく、ビームの幅wは√2wに等しい。
ガウス関数のテールは実際にはゼロにはならないが。これは、waistから遠いと、ビーム「エッジ」がコーン形状であることを意味する。そのコーンに沿った線(r=w(z))とビームの中心軸(r=0)との間の角度は、ビームの発散と呼ばれる。
waistから遠いビームの全角度広がりは、Θ=2θで与えられる。本発明の一実施形態では、ピクセルビーム40,50は、4つの独立したパラメータ、すなわち、瞳44,54の前のピクセル共役45,55の位置およびサイズを定めるz、θ、θ、aによって定義される。
ピクセルビームを表す一葉の双曲面は、以下の式
によって定義することができる。ここで、t=tanθ、t=tanθである。
ピクセルビーム40,50のパラメータが定義される座標系(x,y,z)の原点Oは、図4に示すピクセルの共役の中心に対応する。a,b,cはそれぞれO,O,Oに沿った半軸(semi−axes)の長さと同相である。ここで、aは、Oに沿ったwaistの半径を表し、bは、Oに沿ったwaistの半径を表し、cは、ピクセルビームの各アパーチャを定める。本発明のいくつかの実施形態では、aとbは、同一の値を有するが、これらの場合、waistは円形の形状を有する。
パラメータθ、θは、瞳44の中心の入口に対する主光線方向を規定する。それらは、センサ43上のピクセル42と、光学系41の光学素子とに依存する。より正確には、パラメータθ、θは、瞳44の中心からのピクセル42の共役45の方向を定める剪断角度を表す。
パラメータzは、z軸に沿った、ピクセルビーム40,50のwaist55の距離、またはピクセル42の共役45の距離を表す。
パラメータaは、ピクセルビーム40,50のwaist55の半径を表し、cは、以下の式
によって与えられる。ここで、rは瞳44,54の半径である。
パラメータz、a、cの値の計算は、カメラの較正フェーズ中にそのカメラの各ピクセルビームについて実現される。この較正段階は、例えば、カメラの光学系を通る光線の伝搬をモデル化することができるプログラムを実行することからなる。そのようなプログラムは、例えば、Zemax、ASAPまたはCode Vのような光学設計プログラムである。光学設計プログラムは、光学系を設計および分析するために使用される。光学設計プログラムは、光学系を通る光線の伝播をモデル化し、単純なレンズ、非球面レンズ、屈折率分布型レンズ、ミラー、回折光学素子等の光学素子の効果をモデル化することができる。
したがって、ピクセルビーム40,50は、その主光線およびパラメータzp、a及びcにより定められる。
しかしながら、ピクセルビーム40,50のそのような表現は、光線を保存するための古典的なファイルフォーマットが3D空間内の位置および方向を記憶することにあるので、大量の記憶空間を占める。
より少ない記憶空間だけで済む光線を保存するためのファイルフォーマットを提案するために、ライトフィールド輝度の4つの次元をパラメータ化する方法は、図6Aに示す立方体を参照する。立方体の6つの面はすべて、ライトフィールドをパラメータ化するために使用される。方向をパラメータ化するために、立方体面に平行な平面の第2のセットを追加することができる。このようにして、ライトフィールドは、軸方向i、−i、j、−j、k、−k(訳注:上付き「→」は、本来はその前の記号の上に付き、その記号がベクトルであることを示す)に沿った法線を有する6つの平面ペアに関して定義され得る。
図6Bは、互いに平行に配置され、既知の深度zおよびzにそれぞれ位置する、パラメータ化に使用される2つの基準面P1およびP2を通過するライトフィールド光線を示す。ライトフィールド光線は交点(x、y)で深さzで第1の基準平面P1と交差し、交点(x、y)で深さz2で第2の基準平面Pと交差する。このようにして、ライトフィールド光線は4つの座標(x、y、x、y)によって識別することができる。このようにして、ライトフィールドは、パラメータ化平面とも呼ばれるパラメータ化のための基準面P、Pのペアによってパラメータ化することができ、各ライトフィールド光線4D光線空間内の点(x、y,x,x)∈Rとして表される。
例えば、基準座標系の原点は、座標軸系i 、j の基底ベクトルによって生成された平面Pの中心に置くことができる。k軸は、生成された平面Pに対して垂直であり、第2の平面Pは、単純化のため、平面Pからk軸に沿って距離z=Δに配置することができる。6つの異なる伝搬方向を考慮に入れるために、ライトフィールド全体は、そのような平面の6つのペアによって特徴付けられてもよい。ライトスラブ(light slab)と呼ばれることが多い一対の面は、伝搬方向に沿ってライトフィールドカメラのセンサまたはセンサアレイと相互作用するライトフィールドを特徴付ける。
パラメータ化のための基準面の位置は、x =dnように与えられる。ここで、nは法線であり、dはその法線の方向に沿った3D座標系の原点からのオフセットである。
パラメータ化のための基準面のカーテシアン方程式は、n{x−x }=0のように与えられる。
ライトフィールドは既知の位置x (x,y,z)と、規格化された伝搬ベクトルu(u,u,u)とを有する場合、3次元における光線の一般的な伝搬方程式は、x=tu+x で与えられる。
ライトフィールド光線と基準面との間の交点x の座標は、
で与えられる。
以下の条件(x −x )u>0が満たされない場合、ライトフィールド光線と基準パラメータ化との間に交点は存在しない。
ライトフィールドをパラメータ化するために使用される一対の基準平面の、系の軸の1つとの直交性により、光線交差の成分の1つは各平面に対して常に一定である。したがって、ライトフィールド光線の第1の基準面との交点x1と、第2の基準面との前記ファイトフィールドとの交点x2とがある場合、4つの座標が変化し、方程式Aを使用して、ライトフィールドの4つのパラメータを計算することができる。これらの4つのパラメータを使用して、ライトフィールドの4D図を構成することができる。
2つのパラメータ化基準平面を参照して、ライトフィールドのパラメータ化を仮定すると、ライトフィールドを表すデータは、以下のように得られる。図7に示すように基準系が設定されている場合、第1のパラメータ化平面P1はz=zでz軸に垂直であり、第2のパラメータ化平面P2はz=zでz軸に垂直に配置され、ライトフィールドパラメータがL(x;y;x;y)である光線は、ライトフィールドカメラのフォトセンサアレイが配置されている位置z=zにレンダリングされる。式(A)から:
上の式を展開すると、
両方の式のセットは、新しい場所にレンダリングされたライトフィールド光線と同じ点x となる必要がある。u;u;uをx とx の関数として対応する式で置き換えることによって、前のブロックからの第2の式のセットが使用され、xとyが一緒に加算される場合、
次の式
が得られる。
添え字3の座標は、ライトフィールドがレンダリングされる既知の点(x、y、z)に関する。すべての深さ座標ziは既知である。パラメータ化平面は、伝播またはレンダリングの方向にある。ライトフィールドデータパラメータLは、(x、y、x、y)である。
点(x、y、z)で像を形成するライトフィールド光線は、Rの超平面を規定する式(B)によってリンクされる。
これは、2面のパラメータ化されたライトフィールドから画像をレンダリングする場合、超平面近傍の光線のみをレンダリングすればよいので、トレースする必要がないことを意味する。図8Aは、本発明の1つ以上の実施形態による、ライトフィールドを表すデータを生成する方法のステップを示すフローチャートである。図8Bは、本発明の1つ以上の実施形態によるライトフィールドを表すデータを生成するシステムの主要モジュールを概略的に示すブロック図である。
方法の予備ステップS801では、カメラのセンサのピクセルに関連付けられた異なるピクセルビームを規定するパラメータが、カメラを較正することによって、またはリモートサーバまたはカメラのメモリ290やカメラに接続されたフラッシュディスクのようなローカルストレージに格納されたデータファイルから、このようなパラメータを読み出すことによって、取得される。
そのようなパラメータは、異なるピクセルビームの主光線の座標であり、カメラの較正中に各ピクセルビームについて得られる瞳の前にあるピクセル共役の位置およびサイズを規定するパラメータzpとaである。ピクセルビームの主光線は、waistの中心とピクセルビームを支持する瞳の中心を通る直線である。別の予備的なステップS802において、ライトフィールドカメラ801によって生ライトフィールドデータが取得される。生ライトフィールドデータは、例えば、図3を参照して説明したようなミクロ画像の形式であってもよい。ライトフィールドカメラは、図1A又は図1B及び図2A及び図2Bに示すようなライトフィールドカメラ装置であってもよい。
ステップS803において、取得されたライトフィールドデータは、光線パラメータモジュール802によって処理され、ピクセルビーム40,50の主光線に対応する、それぞれの深度z、zにおけるパラメータ化P、Pのための一対の基準面との、取得された光線の交点を確定する交点データ(x、y、x、y)を提供する。
カメラの較正から、次のパラメータ:投影中心(x、y、z)、カメラの光軸の向き、およびカメラのピンホールからフォトセンサの平面までの距離fを決定することができる。ライトフィールドカメラパラメータを図9に示す。フォトセンサ平面は深さzに位置する。フォトセンサのピクセル出力は、ライトフィールド光線の幾何学的表現に変換される。2つの基準平面PおよびP2を含むライトスラブは、カメラのフォトセンサへの投影中心の他方の側で、それぞれzを越えて深さzおよびzに配置される。光線に三角原理を適用することによって、マイクロレンズのアレイから投影された光を記録するピクセル座標(x、y、z)を、次の式
を適用することにより光線パラメータに、すなわち基準面交点(x、y、x、y)にマッピングできる。
上記の計算は、異なる組のトリプレット(x、y、z)(x、y、z)を有する複数のカメラに拡張することができる。
プレノプティックカメラの場合、アパーチャを有するカメラモデルを用いて、ライトフィールド光線を、位相空間において原点(x、y、z)および方向(x'、y'、1)を有するものとして記述する。深度zの平面(x、y)への伝播は、行列変換として記述することができる。レンズは、光線を屈折させるABCDマトリックスとして作用し、別のABCD伝播マトリックスは、光線をライトスラブ基準面PおよびP上にもたらす。
このステップから、基準面P、Pとのライトフィールド光線の交点を幾何学的に規定する交点データ(x、y、x、y)が得られる。
ステップS804において、2D線は、光線図生成モジュール803によって交点データ(x、y、x、y)をグラフィック表示する光線図を得る。
図10は、位置x=2および深さz=2にあるアパーチャ|A|<0.5のカメラによって取得されたライトフィールド光線の交点データ(x、x)をグラフ的に表す2D光線図である。パラメータ化に使用される光線図のデータ線は、256×256ピクセルの画像を提供する256個のセルによってサンプリングされる。
図10に示す光線図を行列として解釈する場合、それはスパース(sparsely populated)であることがわかる。光線を、4D位相空間行列ではなく、ファイルに個別に保存する場合は、これは、角光線について、各位置xまたはxについて少なくとも2バイト(int16)、色に対ついてさらに3バイトを保存する必要があり、つまり2Dスライスライトフィールドの場合は光線あたり7バイト、フル4D表示の場合は光線あたり11バイトを保存する必要がある。それでも、光線はファイル内にランダムに格納され、これは表現を操作する必要があるアプリケーションには適していない可能性がある。本発明の発明者らは、光線図マトリックスから代表データのみを抽出し、そのデータを構造化された方法でファイルに格納する方法を見いだした。
ライトフィールド光線は2D光線図のデータ線に沿ってマッピングされるので、線の値そのものではなくデータ線を確定するパラメータを格納する方が効率的である。例えば、傾斜を定めるパラメータsおよび軸切片dのようなデータラインを確定するパラメータを、そのデータラインに属する一組のライトフィールド光線とともに記憶してもよい。
これには、例えば、傾斜パラメータsのために2バイト、切片パラメータdのために2バイト、次にレイのために3バイトしか必要としない可能性がある。行列セルを介してラインを設定するために、いわゆる線が最小誤差で近似するデジタルラインが生成される。
データ線の位置を突き止め、パラメータsおよび交点パラメータdを得るために、ステップS805において、ステップS804において生成された光線図上の光線検出モジュール804によってラドン変換が実行される。
得られた傾斜パラメータsおよび切片パラメータdから、ステップS806において、デジタルライン生成モジュール805によって代表デジタルラインが生成される。このステップでは、例えば、Bresenhamアルゴリズムを適用することによって、解析線をその最も近い格子点に近似することによって、デジタル線が生成される。事実、Bresenhamアルゴリズムは、最小限の演算でデジタルラインを提供する方法を提供する。他の方法は、高速離散ラドン変換計算を適用することができる。Bresenhamアプリケーションの一例は、次のリファレンスから受け入れたものである:http://www.cs.helsinki.fi/group/goa/mallinnus/lines/bresenh.html。
デジタルフォーマットは、グリッド(0、d)と(N−1、s)の2点でデータラインを確定する。dは、x=0のときのxの値に対応する切片であり、sは、x=N−1のときのxの値に対応する傾斜パラメータである。生成されたデジタルフォーマットから、個々のラインの傾斜aが、
の関数として表される。ここで、s∈{0,1,...,N−1}及びd∈{0,1,...,N−1}である。
図11は、Bresenhamアルゴリズムの適用によって生成されるデジタルラインの例を示す。
図12は、同じ傾斜a(またはs−d)を有するが、異なる切片dを有するデジタルラインのグループを示し、データラインのグループは連続している。データラインのグループは、本明細書ではラインのバンドルと呼ばれ、カメラが理想的なピンポイントではないことに起因するビームに対応する。各ラインは異なるピクセルをアドレス指定する。言い換えれば、1つのピクセルは、同じ傾きを持ち、異なる切片を持つバンドルのユニークな線にのみ属する。軸の切片dの上下の境界はそれぞれdmaxとdminとして与えられる。
サンプリングされた(2Dの)線のペアによりパラメータ化された、1つのカメラに属する光線データは、データを表すために使用される位相空間内のデジタル線(ビーム)のファミリーに属する。ビームのヘッダは、傾きaと、軸の切片の上下の境界dmax−dminにより確定されるビームの厚さを単純に含めることができる。光線値は、ヘッダがdおよびsのデジタル線に沿ってRGB色として格納される。サンプリングされた空間内の光線図の空洞は保存する必要はない。光線の座標x;xは、パラメータd、sおよびデジタルラインに沿ったセルの位置から導き出すことができる。
ライトフィールドまたはカメラのジオメトリから推定されるパラメータは、傾斜aと、デジタルライン(d,s)である。離散ラドン変換は、既に光線図(ray diagram)内のライトフィールドのサポート位置を測定するツールとして説明した。
図13Bは、図13Aのデータラインのデジタルラインパラメータ空間(d,s)における離散ラドン変換(discrete Radon transform)を示す。図13Cは、図12Bに含まれる関心領域のズームである。デジタルラインのビームは、最大値パラメータの探索によって位置付けられる。DRTの幾何学的対称中心と画像コンテンツによる最大の実際の位置との間に、ある程度のオフセットが存在することがあり、後で、最大値ではなく対称中心をピンポイントするアルゴリズムが使用される。次に、図13Cに示すビーム変換のwaistは、値(dmin,dmax)を与えることを見ることは容易である。点(dmin=74,s=201)は、図12Aからのデジタルラインのビームの下側エンベロープであり、点(dmax=81,s=208)は、デジタルラインのビームの上側エンベロープである。
方程式Bからの2つの直交する2Dスライス空間の方程式は、
で与えられる。
座標の2Dスライスをとると、(x,y,z)においてサイズAのアパーチャを通る光線データがマップされる線のビームの方程式は、
で与えられる。
同様に、yi座標に対して2Dスライスが撮られると、
前に説明したように、mおよびdmaxx、dminx、dmaxy、dminyの値は、離散領域で評価されて、前述のフォーマットによって定義されたライトフィールドの特性を定位することができ、4D離散ラドン変換を実行する必要はない。2つの直交する2D DRTが得られれば、ハイパープレーンの傾きmと、4D光線図にすべてのデータが集中するデジタルハイパープレーンのビーム幅との測定を行うことができます。
このより単純な位置手順は、円形入射瞳Aを仮定して、dmaxx、dminx、dmaxy、dminyがすべてのハイパープレーン切片を包含するように、フォーマットに書かれたいくつかの値は値を含まない。
2Dの場合に提案されたものと同様の4Dの場合のフォーマットを得ることは興味深い。そうするため、Π(x,x)平面上にある2D線を、Π(y,y)で見つかった線、すなわち、対応するハイパープレーンとΠ(x,x)とΠ(y、y)の2つの直交するスライスとの交差の結果である線とを関連付けることは興味深い。式DおよびEから、対応するラインは同じ傾きmを有することが知られている。これは、カメラのある深度にあるΠ(x,x)中の線を、Π(y,y)中の線と関連付ける第1のパラメータである。同じ深度に複数のカメラがある場合(すなわち、図13Aの場合)、Π(x,x)には3つのラインがあり、Π(y,y)には3つのラインがあり、推定された傾きmは同じである。次に、これらの2つのプレーン内のライン間のラインオフセットにおける対応関係が決定される。これを行うために、式DおよびEにおける線の定式化が利用される。特に、
とすると、オフセットは
及び
の通りである。
この連立方程式はk、x及びyについて解くことができる。(x,y,z)はカメラの座標、すなわち、言いかえると、対応する光バンドルが半径Aの円に集バンドルされるボクセルに対応することに留意されたい。zに位置する平面上のアパーチャは円形であり、そのためdmaxx−dminx=dmaxy−dminy=2kAであり、上記の連立方程式を解くと
となる。
デジタルラインは前述の通り、Bresenhamデジタルラインを用いて、Π(x,x)上でスキャンできる。各(x,x)の値について、ライトフィールドにおいて取得される対応する(y、y)の値が格納される。かかる値を見いだすため、式Cを利用する。以下はすべて式F及びG、x;y;z;z;zから知られているか、推定される。
Π(x,x)の各ラインから動かして、各(x 、x )について、(y,y)の次の関係
が得られる。
Π(x,x)の各点に対して、Π(y,y)のラインの集まりが保存される。doffは(x 、x )についてスキャン及び保存されたラインのオフセットに対応する。留意点として、
である
図12を参照して、各四角形は(x 、x )ポイントであり、これらのポイントのそれぞれについて、式
により規定されるデジタルバンドルに沿って、図示したデータラインに垂直な、しかし4D空間における、図の平面から出る一組のBresenhamデジタルラインがある。
カメラごとのデータラインのバンドルの例示的データフォーマットを表1に示す。
第1に、4D空間の一般的メタデータが提供される。これは4軸x、x,y,yの境界と対応するそれらのサンプリングとを含む。カメラ(バンドル)の数も提供される。各カメラjについて、次のパラメータが保存される:
アパーチャサイズ:A、これはピクセルビームの瞳の直径に対応する、
カメラの焦点:cam; focusPoint=(u,u,w
(x1,2)=dにおける最低d切片
傾き=m
(x,x)=l におけるデジタルライン数
(x,x)=l xyにおけるデジタルライン数
各カメラで、各(x ;x )に対して、Bresenhamデジタルラインを使用して式(K)に対して(y、y)で走査が開始され、各ライトフィールド光線のRGB値が保存される。特にy −Aないしy +Aおよび対応するdoffは、式(K)に従って計算される。
ライトフィールド光線はピクセルビームの主光線に対応するので、与えられたピクセルビームのパラメータz、aの値は、対応するライトフィールド光線のRGB値と並んで、表1に示すように格納される。これらの2つのパラメータは浮動小数点数として格納されるため、カメラごとのデータラインのバンドルのデータフォーマットがはるかに大きくなる。実際、表1において、各光線は3バイトを占め、パラメータz、aはそれぞれ4バイトを占める。よって、パラメータz、aは、グローバルファイルサイズに大きく影響する。
記憶スペースの量を減らすために、これらの2つのパラメータz、aは、例えば、ライトフィールドデータフォーマッティングモジュール250によって実行され、図15Aおよび15Bに表される以下の方法に従って符号化される。
浮動小数点数は仮数とも呼ばれる有効桁と、指数を使用するスケールとで表され、浮動項は、仮数中で浮動できる基数またはカンマ記号からできている。
従って、表1に示すように、カメラ毎のデータラインのバンドルのデータフォーマットに格納された浮動小数の数を減少させるために、開始値を基準にして数値のインクリメントを符号化することが提案される。正または負のいずれかの数の変動は、−254から+255まで、例えば512レベルで符号化される。本発明の他の実施形態では、数の変化を256または128レベルで符号化することができる。インクリメントの値は、パラメータの値および変動に応じて調整される。
したがって、ステップS150において、初めの浮動小数点数が基準として使用され、これは、例えば、カメラのピクセルビームの集まりのうち第1のピクセルビームのパラメータzpの第1の値である。
本発明の一実施形態では、ステップS151の間に、ピクセルビームの集まりにおける別のピクセルビームのzpパラメータの第2の値を表す第2の浮動小数点数と、パラメータzpの第1の値との差分が計算される。パラメータzpの第2の値と第1の値とは、ライトフィールドを表すデータストリームにおける連続的な浮動小数である。この差は、テーブル1に、パラメータzpの第2の値の代わりに記憶される。ピクセルビームを規定するパラメータが順次的な空間的角度的な方法で(an ordered spatio−angular manner)記憶されるので、同じパラメータの2つの連続する値は非常に少量だけ変化する。
ステップS152の間に、ピクセルビームの集まりにおける別のピクセルビームのzパラメータの第3の値を表す第3の浮動小数点数と、パラメータzの第2の値との差分が計算される。本発明の一実施形態では、パラメータzの第3の値および第2の値は、ライトフィールドを表すデータストリーム内の連続する浮動小数である。すなわち、例えば同じパラメータの異なる値が、例えば、RGB、RGB、...、z、z、...、a、a、.....などのデータストリームにグループ分けされる。本発明のこの実施形態では、「収縮(deflate)」と呼ばれる方法を使用してデータを圧縮する方が簡単であり、その例はhttps://en.wikipedia.org/wiki/DEFLATEに記載されている。この差は、テーブル1に、パラメータzpの第3の値の代わりに記憶される。
これらのステップS151、S152は、カメラのピクセルビームの集まりを表すパラメータzpの値に対して実行される。パラメータaの値の同じステップが実行される。
データストリームを同期させ、異なるパラメータの符号化された値がピクセルビームを表すことを確実にするために、ステップS153において、zパラメータの第4の値が、2つの連続する値の間の差としてではなく、浮動小数として格納される。ステップS153は、例えば100個の浮動小数点数数ごとに実行される。
本発明の他の実施形態では、ステップS250において、初めの浮動小数点数が基準として使用され、これは、例えば、カメラのピクセルビームの集まりのうち第1のピクセルビームのパラメータzの第1の値である。
ステップS251の間に、ピクセルビームの集まりにおける別のピクセルビームのzパラメータの第2の値を表す第2の浮動小数と、パラメータzの第1の値との差分が計算される。本発明の一実施形態では、パラメータzの第2の値および第1の値は、ライトフィールドを表すデータストリーム内の連続する浮動小数である。すなわち、例えば同じパラメータの異なる値が、例えば、RGB、RGB、...、z、z、...、a、a、.....などのデータストリームにグループ分けされる。本発明のこの実施形態では、「収縮(deflate)」と呼ばれる方法を使用してデータを圧縮する方が簡単であり、その例はhttps://en.wikipedia.org/wiki/DEFLATEに記載されている。この差は、テーブル1に、パラメータzpの第2の値の代わりに記憶される。
ステップS252の間に、ピクセルビームの集まりにおける別のピクセルビームのzパラメータの第3の値を表す第3の浮動小数点数と、パラメータzの第1の値との差分が計算される。この差は、テーブル1に、パラメータzpの第3の値の代わりに記憶される。
これらのステップS251、S252は、カメラのピクセルビームの集まりを表すパラメータzpの値に対して実行される。したがって、パラメータzpの各値に対して、基準値であるパラメータzpの第1の値との差が計算され、表1に格納される。パラメータaの値の同じステップが実行される。
データストリームを同期させ、ピクセルビームを表す異なるパラメータの符号化された値が信頼できることを確実にするために、ステップS253において、zパラメータの第4の値が、パラメータzpの2つの連続する値の間の差分としてではなく、浮動小数として格納され、パラメータzの対応する値の代わりに表1に格納される差分を計算するための新しい基準とみなされる。ステップS253は、例えば100個の浮動小数点数ごとに実行される。
この方法は、連続する2つの浮動小数点数の変化が小さいという主張、Ft+1=Ft+εという主張に依存する。この小さな差εは8ビットで符号化される。本発明の他の実施形態では、差分は、4ビット、12ビットまたは16ビットで符号化することができる。これにより、デバイスおよびネットワーク帯域幅に使用されるメモリを最適化できる。
同じ計算が、格納されたメタデータを使用する復号化ステップにおいて実行される。特に、式(H)を用いてkを求める。従って、フォーマットはコンパクトなままである。システム内の各光線のために4つのインデックスを格納したり、ピクセルビームを確定するパラメータのために2つの浮動小数点数を格納したりする必要はなし。上のハイパープレーンのサンプリングは、4D光線空間のサンプリングであり、従って、x1;y1;x2;y2の位置はどれもミスできないことに留意されたい。これは、すべてのデータを非常にコンパクトな形で保存するための4D光線空間の系統的スキャンの一例に過ぎない。もちろん、他のプロセスを適用してもよい。パラメトリック形式は、交互的空間探査を可能にするため、ハイパープレーンを探索するように適応されているようである。
複数のカメラが、いくつかのハイパープレーンバンドル(複数のカメラなのでラドン変換にはいくつかの最大値がある)を含むデータを処理する場合、より複雑なアルゴリズムを使用することができる。前処理ステップとして、Π(x1,x2)のラドン変換のすべてのピークについてパラメータ(m、k)を求め、1つのセットに入れる。同じことが(y1、y2)のピークに対して行われ、パラメータは別のセットに入れられる。グリーディアルゴリズムの各反復では、(x、x)の2Dラドン変換において最大ピーク強度が見出され、以前に見つかったパラメータ(m、k)をマッチングすることによって、(y、y)における対応するピークが見いだされる。最後のセクションで述べたようにデータを保存した後、これらのピークはラドン変換から消去され、次の反復が開始され、ライトフィールドには意味があるものが残っていなくなるまで続けられる。
本発明を特定の実施形態を参照して上で説明してきたが、本発明は特定の実施形態に限定されるものではなく、本発明の範囲内にある当業者には明らかである。
当業者は、前記の例示的な実施形態を参照すれば、さらに別の多数の修正や変更に想到
するだろう。実施形態は、本発明の範囲を限定することを意図したものではなく、単に例
示的なものである。本発明の範囲は、添付の請求項のみにより決まる。特に、適切であれ
ば、異なる実施形態の異なる特徴を交換し得る。
上述の実施形態の一部又は全部は、以下の付記のように記載され得るが、以下には限定されない。
(付記1)
光学的撮像システムのオブジェクト空間において、光学的撮像システムの瞳と、光学的撮像システムのセンサの少なくとも1つのピクセルの共役とを通る光線のセットにより占められるボリュームを表すデータを生成する、コンピュータにより実施される方法であって、光線のセットにより占められるボリュームはピクセルビームと呼ばれ、方法は、
光線の集まりを取得するステップであって、集まりの各光線はピクセルビームを表し、少なくとも第1のパラメータがピクセルの共役を確定する、ステップと、
ピクセルビームを表す光線の、複数の基準面との交点を確定する交点データを取得するステップであって、基準面は互いに平行であり、オブジェクト空間における異なる深度に対応する、ステップと、
2次元光線図において交点データの図式的表現を規定する光線図パラメータを取得するステップと、
光線図パラメータを、ピクセルの共役を確定する少なくとも1つのパラメータと関連付け、ピクセルビームを表すデータを提供するステップとを含む、
方法。
(付記2)
ピクセルの共役を確定する第1のパラメータの第1の値と第2の値との差分を符号化するステップであって、差分は光線図パラメータに関連付けられ、ピクセルビームを表すデータを提供する、ステップをさらに含む、
付記1に記載の方法。
(付記3)
ピクセルビームを表す光線に対応する交点データは、光線図においてデータラインとして図式的に表現され、光線図パラメータは、
データラインの傾斜、及び
データラインの、前記光線図の軸との切片
のうち少なくとも1つを表すデータを含む、
付記2に記載の方法。
(付記4)
データラインは、ラドン変換を適用することにより、2次元光線図において検出される、
付記3に記載の方法。
(付記5)
図式的表現はデジタルデータラインを提供するセルのマトリックスとして提供され、各デジタルデータラインフォーマットは、データラインの軸との交点を表す少なくとも1つの第1のセルと、データラインの傾斜を決定する少なくとも1つの第2のセルとである複数のセルにより確定される、
付記3または4に記載の方法。
(付記6)
各デジタルデータラインはBresenhamアルゴリズムの適用により生成される、 付記5に記載の方法。
(付記7)
ピクセルビームを表すデータは、さらに、ピクセルビームを表す対応する光線の色を表す色データを含む、
付記1ないし6いずれか一項に記載の方法。
(付記8)
ピクセルビームを表すデータはメタデータとして提供され、メタデータのヘッダは、2次元光線図における交点データの図式的表現を確定する光線図パラメータを含み、メタデータのボディは、光線の色を表すデータと、オブジェクト空間におけるピクセルの共役の位置とサイズを確定するパラメータとを含む、
付記7に記載の方法。
(付記9)
光学的撮像システムのオブジェクト空間において、光学的撮像システムの瞳と、光学的撮像システムのセンサの少なくとも1つのピクセルの共役とを通る光線のセットにより占められるボリュームを表すデータを生成するデバイスであって、光線のセットにより占められるボリュームはピクセルビームと呼ばれ、デバイスはプロセッサを有し、プロセッサは、
光線の集まりを取得し、集まりの各光線はピクセルビームを表し、少なくとも第1のパラメータがピクセルの共役を確定し、
ピクセルビームを表す光線の、複数の基準面との交点を確定する交点データを取得し、基準面は互いに平行であり、オブジェクト空間における異なる深度に対応し、
2次元光線図において交点データの図式的表現を規定する光線図パラメータを取得し、
光線図パラメータを、ピクセルの共役を確定する少なくとも1つのパラメータと関連付け、ピクセルビームを表すデータを提供する、
デバイス。
(付記10)
プロセッサは、さらに、
ピクセルの共役を確定する第1のパラメータの第1の値と第2の値との差分を符号化し、差分は光線図パラメータに関連付けられ、ピクセルビームを表すデータを提供する、
付記9に記載のデバイス。
(付記11)
規則的な格子構造で構成されたマイクロレンズアレイと、
マイクロレンズアレイから投影された光をキャプチャするように構成されたフォトセンサであって、複数のピクセルのセットを有し、各ピクセルセットはマイクロレンズアレイのそれぞれのマイクロレンズに光学的に関連付けられている、フォトセンサと、
付記9に記載のメタデータを提供するデバイスとを有する、
ライトフィールドイメージングデバイス。
(付記12)
付記1ないし8いずれか一項に記載の方法により取得されたライトフィールドデータから画像をレンダリングするデバイス。
(付記13)
光学的撮像システムのオブジェクト空間において、光学的撮像システムの瞳と、光学的撮像システムのセンサの少なくとも1つのピクセルの共役とを通る光線のセットにより占められるボリュームを表すデータを含むデジタルファイルであって、光線のセットにより占められるボリュームはピクセルビームと呼ばれ、データは、
ピクセルビームを表す光線の交点データの2次元光線図における図式的表現を確定する光線図パラメータであって、交点データはピクセルビームを表すライトフィールド光線の、複数の基準面との交点を確定し、基準面は互いに平行であり、オブジェクト空間における異なる深度に対応する、光線図パラメータと、
ピクセルビームを表すライトフィールド光線の色を確定する色データと、
光学的撮像システムのオブジェクト空間におけるピクセルの共役の位置とサイズを確定するパラメータとを含む、
デジタルファイル。
(付記14)
付記1ないし8いずれか一項に記載の方法により得られた、付記13に記載のデジタルファイル。
(付記15)
プログラマブル装置のコンピュータプログラムであって、プログラマブル装置にロードされ実行されたとき、付記1ないし8いずれか一項に記載の方法を実施する命令シーケンスを含む、コンピュータプログラム。

Claims (15)

  1. 光学的撮像システムのオブジェクト空間において、光学的撮像システムの瞳と、前記光学的撮像システムのセンサの少なくとも1つのピクセルの共役とを通る光線のセットにより占められるボリュームを表すデータを生成する、コンピュータにより実施される方法であって、前記光線のセットにより占められるボリュームはピクセルビームと呼ばれ、前記方法は、
    光線の集まりを取得することであって、前記集まりの各光線はピクセルビームを表し、少なくとも第1のパラメータが前記ピクセルの共役を確定する、ことと、
    前記ピクセルビームを表す光線の、複数の基準面との交点を確定する交点データを取得することであって、前記基準面は互いに平行であり、前記オブジェクト空間における異なる深度に対応する、ことと、
    2次元光線図において前記交点データの図式的表現を規定する光線図パラメータを取得することと、
    前記光線図パラメータを、ピクセルの共役を確定する前記少なくとも第1のパラメータと関連付け、前記ピクセルビームを表すデータを提供することとを含む、
    方法。
  2. 前記ピクセルの共役を確定する第1のパラメータの第1の値と第2の値との差分を符号化することであって、前記差分は前記光線図パラメータに関連付けられ、前記ピクセルビームを表すデータを提供する、ことをさらに含む、
    請求項1に記載の方法。
  3. 前記ピクセルビームを表す光線に対応する交点データは、光線図においてデータラインとして図式的に表現され、前記光線図パラメータは、
    データラインの傾斜、及び
    データラインの、前記光線図の軸との切片
    のうち少なくとも1つを表すデータを含む、
    請求項2に記載の方法。
  4. 前記データラインは、ラドン変換を適用することにより、前記2次元光線図において検出される、
    請求項3に記載の方法。
  5. 前記図式的表現はデジタルデータラインを提供するセルのマトリックスとして提供され、各デジタルデータラインフォーマットは、前記データラインの軸との交点を表す少なくとも1つの第1のセルと、前記データラインの傾斜を決定する少なくとも1つの第2のセルとである複数のセルにより確定される、
    請求項3または4に記載の方法。
  6. 各デジタルデータラインはBresenhamアルゴリズムの適用により生成される、 請求項5に記載の方法。
  7. 前記ピクセルビームを表すデータは、さらに、前記ピクセルビームを表す対応する光線の色を表す色データを含む、
    請求項1ないし6のうち何れか一項に記載の方法。
  8. 前記ピクセルビームを表すデータはメタデータとして提供され、前記メタデータのヘッダは、2次元光線図における交点データの図式的表現を確定する光線図パラメータを含み、前記メタデータのボディは、光線の色を表すデータと、前記オブジェクト空間におけるピクセルの共役の位置とサイズを確定するパラメータとを含む、
    請求項7に記載の方法。
  9. 光学的撮像システムのオブジェクト空間において、光学的撮像システムの瞳と、前記光学的撮像システムのセンサの少なくとも1つのピクセルの共役とを通る光線のセットにより占められるボリュームを表すデータを生成するデバイスであって、前記光線のセットにより占められるボリュームはピクセルビームと呼ばれ、前記デバイスはプロセッサを有し、該プロセッサは、
    光線の集まりを取得し、前記集まりの各光線はピクセルビームを表し、少なくとも第1のパラメータが前記ピクセルの共役を確定し、
    前記ピクセルビームを表す光線の、複数の基準面との交点を確定する交点データを取得し、前記基準面は互いに平行であり、前記オブジェクト空間における異なる深度に対応し、
    2次元光線図において前記交点データの図式的表現を規定する光線図パラメータを取得し、
    前記光線図パラメータを、ピクセルの共役を確定する前記少なくとも第1のパラメータと関連付け、前記ピクセルビームを表すデータを提供する、
    デバイス。
  10. 前記プロセッサは、さらに、
    前記ピクセルの共役を確定する第1のパラメータの第1の値と第2の値との差分を符号化し、前記差分は前記光線図パラメータに関連付けられ、前記ピクセルビームを表すデータを提供する、
    請求項9に記載のデバイス。
  11. 規則的な格子構造で構成されたマイクロレンズアレイと、
    前記マイクロレンズアレイから投影された光をキャプチャするように構成されたフォトセンサであって、複数のピクセルのセットを有し、各ピクセルセットは前記マイクロレンズアレイのそれぞれのマイクロレンズに光学的に関連付けられている、フォトセンサと、
    請求項9に記載のメタデータを提供するデバイスと、を有する、
    ライトフィールドイメージングデバイス。
  12. 請求項1ないし8のうち何れか一項に記載の方法により取得されたライトフィールドデータから画像をレンダリングするデバイス。
  13. 光学的撮像システムのオブジェクト空間において、光学的撮像システムの瞳と、前記光学的撮像システムのセンサの少なくとも1つのピクセルの共役とを通る光線のセットにより占められるボリュームを表すデータを含むデジタルファイルを生成するように構成されたデバイスであって、前記光線のセットにより占められるボリュームはピクセルビームと呼ばれ、前記デバイスは、
    ピクセルビームを表す光線の交点データの2次元光線図における図式的表現を確定する光線図パラメータであって、前記交点データは前記ピクセルビームを表すライトフィールド光線の、複数の基準面との交点を確定し、前記基準面は互いに平行であり、前記オブジェクト空間における異なる深度に対応する、光線図パラメータと、
    前記ピクセルビームを表すライトフィールド光線の色を確定する色データと、
    前記光学的撮像システムのオブジェクト空間におけるピクセルの共役の位置とサイズを確定するパラメータとを生成するように構成されているデバイス
  14. 請求項1ないし8のうち何れか一項に記載の方法により前記デジタルファイルを生成するように構成されている、請求項13に記載のデバイス
  15. プログラマブル装置のコンピュータプログラムであって、前記プログラマブル装置にロードされ実行されたとき、請求項1ないし8のうち何れか一項に記載の方法を実施する命令シーケンスを含む、コンピュータプログラム。
JP2018514443A 2015-09-17 2016-09-16 ピクセルビームを表すデータを生成する装置および方法 Active JP6832919B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15306449.8 2015-09-17
EP15306449.8A EP3144888A1 (en) 2015-09-17 2015-09-17 An apparatus and a method for generating data representing a pixel beam
PCT/EP2016/072071 WO2017046396A1 (en) 2015-09-17 2016-09-16 An apparatus and a method for generating data representing a pixel beam

Publications (3)

Publication Number Publication Date
JP2019502277A JP2019502277A (ja) 2019-01-24
JP2019502277A5 JP2019502277A5 (ja) 2019-10-10
JP6832919B2 true JP6832919B2 (ja) 2021-02-24

Family

ID=54293195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018514443A Active JP6832919B2 (ja) 2015-09-17 2016-09-16 ピクセルビームを表すデータを生成する装置および方法

Country Status (7)

Country Link
US (1) US10909704B2 (ja)
EP (2) EP3144888A1 (ja)
JP (1) JP6832919B2 (ja)
KR (1) KR102585129B1 (ja)
CN (1) CN108352061B (ja)
TW (1) TWI709108B (ja)
WO (1) WO2017046396A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3145168A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing An apparatus and a method for generating data representing a pixel beam
CN108353188B (zh) * 2015-09-17 2022-09-06 交互数字Vc控股公司 用于编码光场内容的方法
EP3270589A1 (en) * 2016-07-11 2018-01-17 Thomson Licensing An apparatus and a method for generating data representative of a pixel beam
US20230010620A1 (en) * 2021-07-06 2023-01-12 3D Patents, Llc Bowtie processing for radiance image rendering

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020014533A1 (en) * 1995-12-18 2002-02-07 Xiaxun Zhu Automated object dimensioning system employing contour tracing, vertice detection, and forner point detection and reduction methods on 2-d range data maps
US6097394A (en) 1997-04-28 2000-08-01 Board Of Trustees, Leland Stanford, Jr. University Method and system for light field rendering
US7128266B2 (en) * 2003-11-13 2006-10-31 Metrologic Instruments. Inc. Hand-supportable digital imaging-based bar code symbol reader supporting narrow-area and wide-area modes of illumination and image capture
JP2006501469A (ja) * 2002-09-30 2006-01-12 アプライド マテリアルズ イスラエル リミテッド 斜めのビュー角度をもつ検査システム
US7841533B2 (en) * 2003-11-13 2010-11-30 Metrologic Instruments, Inc. Method of capturing and processing digital images of an object within the field of view (FOV) of a hand-supportable digitial image capture and processing system
US7407105B2 (en) * 2004-08-30 2008-08-05 Intermec Ip Corp. Apparatus for diagonal progressive scanning video and method of improving aiming visibility, reducing tilt dependence and improving read range
JP2006113371A (ja) * 2004-10-15 2006-04-27 Seiko Epson Corp 画像表示装置
JP4826152B2 (ja) * 2005-06-23 2011-11-30 株式会社ニコン 画像合成方法及び撮像装置
WO2007081628A2 (en) * 2005-12-08 2007-07-19 Advanced Scientific Concepts Inc. Laser ranging, tracking and designation using 3-d focal planes
US7768652B2 (en) * 2006-03-16 2010-08-03 Carl Zeiss Meditec, Inc. Methods for mapping tissue with optical coherence tomography data
US7609906B2 (en) 2006-04-04 2009-10-27 Mitsubishi Electric Research Laboratories, Inc. Method and system for acquiring and displaying 3D light fields
CN100549871C (zh) * 2007-07-31 2009-10-14 哈尔滨师范大学 将三维数字信息记录在全息底片上的记录方法
US20110031418A1 (en) * 2007-10-31 2011-02-10 Ben Gurion Univesity of the Negev Research and Development Authority Optical sensor measurement and crosstalk evaluation
CN100501773C (zh) * 2007-11-20 2009-06-17 中交第二公路勘察设计研究院有限公司 基于三维机载lidar的公路测设方法
JP5552214B2 (ja) * 2008-03-11 2014-07-16 キヤノン株式会社 焦点検出装置
KR101483714B1 (ko) * 2008-06-18 2015-01-16 삼성전자 주식회사 디지털 촬상 장치 및 방법
JP2010165423A (ja) * 2009-01-16 2010-07-29 Sony Corp 記録再生方法、ホログラム記録媒体
JP5529568B2 (ja) * 2010-02-05 2014-06-25 キヤノン株式会社 画像処理装置、撮像装置、制御方法及びプログラム
JP5499778B2 (ja) * 2010-03-03 2014-05-21 株式会社ニコン 撮像装置
CN101968625B (zh) * 2010-04-20 2013-01-16 中山大学 一种基于非共轴多透镜光路的三维图像显示方法及系统
HU1000640D0 (en) 2010-11-29 2011-02-28 Holografika Hologrameloeallito Fejlesztoe Es Forgalmazo Kft Image coding and decoding method and apparatus for efficient encoding and decoding of 3d field content
JP5623356B2 (ja) * 2011-08-29 2014-11-12 キヤノン株式会社 撮像装置
US9599805B2 (en) * 2011-10-19 2017-03-21 National Synchrotron Radiation Research Center Optical imaging system using structured illumination
CN104303493A (zh) * 2012-05-09 2015-01-21 莱特洛公司 用于改进的光场捕获和操作的光学系统的优化
JP6055332B2 (ja) * 2013-02-12 2016-12-27 キヤノン株式会社 画像処理装置、撮像装置、制御方法、及びプログラム
US9412172B2 (en) * 2013-05-06 2016-08-09 Disney Enterprises, Inc. Sparse light field representation
CN104349096B (zh) * 2013-08-09 2017-12-29 联想(北京)有限公司 一种图像标定方法、装置及电子设备
KR101670808B1 (ko) * 2013-09-03 2016-10-31 삼성전자주식회사 알림을 제공하는 방법 및 그 전자 장치
CN103472457B (zh) * 2013-09-13 2015-06-10 中国科学院空间科学与应用研究中心 稀疏孔径压缩计算关联飞行时间的三维成像系统及方法
EP3072289A1 (en) 2013-11-22 2016-09-28 Vidinoti SA A light field processing method
JP6223169B2 (ja) 2013-12-19 2017-11-01 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
CN104159094B (zh) * 2014-07-09 2016-04-06 四川大学 一种改善光学扫描全息层析成像效果的方法
EP3144879A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing A method and an apparatus for generating data representative of a light field

Also Published As

Publication number Publication date
CN108352061B (zh) 2022-11-25
CN108352061A (zh) 2018-07-31
TW201727578A (zh) 2017-08-01
US20180260968A1 (en) 2018-09-13
KR20180054737A (ko) 2018-05-24
JP2019502277A (ja) 2019-01-24
EP3350770B1 (en) 2022-01-05
WO2017046396A1 (en) 2017-03-23
EP3350770A1 (en) 2018-07-25
EP3144888A1 (en) 2017-03-22
TWI709108B (zh) 2020-11-01
US10909704B2 (en) 2021-02-02
KR102585129B1 (ko) 2023-10-06

Similar Documents

Publication Publication Date Title
KR102583723B1 (ko) 라이트 필드를 나타내는 데이터를 생성하기 위한 방법 및 장치
JP2018538709A (ja) ピクセルビームを表すデータを生成する方法及び装置
JP6832919B2 (ja) ピクセルビームを表すデータを生成する装置および方法
EP3398161B1 (en) A method and an apparatus for generating data representative of a pixel beam
JP2019505901A (ja) ピクセルビームを表すデータを生成する方法及び装置
KR20180053718A (ko) 픽셀 빔을 나타내는 데이터를 생성하기 위한 장치 및 방법

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181220

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190902

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190902

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210202

R150 Certificate of patent or registration of utility model

Ref document number: 6832919

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250