JP2016537901A - ライトフィールド処理方法 - Google Patents
ライトフィールド処理方法 Download PDFInfo
- Publication number
- JP2016537901A JP2016537901A JP2016533663A JP2016533663A JP2016537901A JP 2016537901 A JP2016537901 A JP 2016537901A JP 2016533663 A JP2016533663 A JP 2016533663A JP 2016533663 A JP2016533663 A JP 2016533663A JP 2016537901 A JP2016537901 A JP 2016537901A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- ray
- light field
- plane
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
- H04N5/2226—Determination of depth image, e.g. for foreground/background separation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
Abstract
ライトフィールドに対応するデータを処理するためのライトフィールド処理方法において、プレノプティックカメラを用いて、前記プレノプティックカメラに依存するフォーマットでライトフィールドを表わす初期データをキャプチャするステップと;前記初期データを、カメラ非依存フォーマットで前記ライトフィールドを表わす変換済みデータへと変換するステップと;前記変換済みデータを処理して、異なるライトフィールドを表わす処理済みデータを生成するステップと、を含む方法。【選択図】図1a
Description
本発明は、ライトフィールド処理方法に関する。
ライトフィールドをキャプチャするデバイスは、益々一般的なものになってきている。ライトフィールドは多くの場合、プレノプティックカメラを用いてキャプチャされる。プレノプティックカメラの一般的な例としては、例えばライトロカメラ(Lytro camera)がある。
各プレノプティックカメラは、キャプチャしたライトフィールドをカメラ依存フォーマットで表わすデータを生成する。例えば、ライトロカメラは、ライトフィールドを一連の行列によって表わし;各行列は、さまざまな方向からマイクロレンズ(micro lens)に到達する光の強度を示す複数のセルを含む。セルの数はマイクロレンズの数に対応する。
キャプチャされた情報のフォーマットは各デバイス毎に異なっていることから、1組の異なるプレノプティックカメラによりキャプチャされたライトフィールドデータに対して処理を適用するのは面倒なことである。
したがって、本発明の目的は、情報をキャプチャするために使用されたプレノプティックカメラの如何に関わらずさまざまな後処理方法を適用できるデバイス非依存プレノプティック表現を定義することにある。
本発明によると、これらの目的は、ライトフィールドに対応するデータを処理するためのライトフィールド処理方法において、
− プレノプティックカメラを用いて、前記プレノプティックカメラに依存するフォーマットでライトフィールドを表わす初期データをキャプチャするステップと;
− 前記初期データを、カメラ非依存フォーマットで前記ライトフィールドを表わす変換済みデータへと変換するステップと;
− 前記変換済みデータを処理して、異なるライトフィールドを表わす処理済みデータを生成するステップと、
を含む方法を用いることで達成される。
− プレノプティックカメラを用いて、前記プレノプティックカメラに依存するフォーマットでライトフィールドを表わす初期データをキャプチャするステップと;
− 前記初期データを、カメラ非依存フォーマットで前記ライトフィールドを表わす変換済みデータへと変換するステップと;
− 前記変換済みデータを処理して、異なるライトフィールドを表わす処理済みデータを生成するステップと、
を含む方法を用いることで達成される。
ライトフィールドを表わすデータのためのカメラ非依存表現の使用には、単一の方法をさまざまなプレノプティックカメラのためにプログラミングできるという、データ処理ソフトウェアのプログラマにとっての利点がある。
本発明は、例として提供されかつ図により示されている一実施形態の説明を用いることでより良く理解されるものであろう。
定義
・ オブジェクト焦平面:カメラの主レンズ(main lens)に対し平行で、その上にプレノプティックカメラが焦点合せされる、シーン内の平面。
・ 画像焦平面:カメラの主レンズに対し平行で、オブジェクト焦平面上にある物理的点が、画像焦平面上に焦点が合った状態で投影される、カメラ内部の平面。
・ 焦平面:「オブジェクト」または「画像」の記載がない場合、それは、オブジェクト焦平面か画像焦平面のいずれかを意味する。
・ オブジェクト焦平面:カメラの主レンズ(main lens)に対し平行で、その上にプレノプティックカメラが焦点合せされる、シーン内の平面。
・ 画像焦平面:カメラの主レンズに対し平行で、オブジェクト焦平面上にある物理的点が、画像焦平面上に焦点が合った状態で投影される、カメラ内部の平面。
・ 焦平面:「オブジェクト」または「画像」の記載がない場合、それは、オブジェクト焦平面か画像焦平面のいずれかを意味する。
表現
プレノプティック関数は、多数のパラメータを伴うライトフィールドをその独立変数として記述する関数である。
プレノプティック関数は、多数のパラメータを伴うライトフィールドをその独立変数として記述する関数である。
典型的なプレノプティック関数は、3D空間内の所与の位置(x、y、z)から発出され、所与の時間および波長で2D平面上の所与の位置(u、v)で観察された光の放射輝度を表わす。光線の強度を表わすプレノプティック関数Pは、以下の形態をとる:
P=P(x、y、z、u、v、t、λ)
式中tおよびλは、それぞれ観察時間および波長である。
P=P(x、y、z、u、v、t、λ)
式中tおよびλは、それぞれ観察時間および波長である。
代替的には、所与の角度(θ、ψ)で(x、y、z)から発出された状態の光線を考えてみることができる。このとき、光線は以下のようにパラメータ化される:
P=P(x、y、z、ψ、θ、t、λ)
P=P(x、y、z、ψ、θ、t、λ)
4Dプレノプティック関数
7個のパラメータ全てが義務的であるわけではない。例えば、シーン内の全ての光線が変化せず(すなわちtは、スチールプレノプティック写真の場合のように恒常である)、そして単一の波長λを有する場合、上述の7Dプレノプティック関数を5D関数に縮小することができた。その上、光線がいかなるオブジェクトにも遮断されずに透明な空気の中を走行できると仮定すると、光線の放射輝度は、その線形経路に沿って恒常にとどまる。その帰結として、光線を、4つのパラメータにより完全にパラメータ化することが可能である。例えば、2つの予め定義された表面上の2つの交差する点の位置を用いて、光線を表わすことができる。例えば、出発点(x、y、z)および別の表面上のビューイング/観察位置(u、v)の代りに、光線が中を通過する或る表面上の位置(x’、y’)および(u、v)を考慮する必要しかない。
7個のパラメータ全てが義務的であるわけではない。例えば、シーン内の全ての光線が変化せず(すなわちtは、スチールプレノプティック写真の場合のように恒常である)、そして単一の波長λを有する場合、上述の7Dプレノプティック関数を5D関数に縮小することができた。その上、光線がいかなるオブジェクトにも遮断されずに透明な空気の中を走行できると仮定すると、光線の放射輝度は、その線形経路に沿って恒常にとどまる。その帰結として、光線を、4つのパラメータにより完全にパラメータ化することが可能である。例えば、2つの予め定義された表面上の2つの交差する点の位置を用いて、光線を表わすことができる。例えば、出発点(x、y、z)および別の表面上のビューイング/観察位置(u、v)の代りに、光線が中を通過する或る表面上の位置(x’、y’)および(u、v)を考慮する必要しかない。
4D関数プレノプティック関数は、以下のように公式化することができる:
P=P(x’、y’、u、v)
式中、(x’、y’)は、表面の座標(coordinate)内の第1の予め決められた表面と光線との交点であり、そして(u、v)は、第2の予め決められた表面と光線との交点である。
P=P(x’、y’、u、v)
式中、(x’、y’)は、表面の座標(coordinate)内の第1の予め決められた表面と光線との交点であり、そして(u、v)は、第2の予め決められた表面と光線との交点である。
4つのパラメータ(必要な場合にはこれに加えて時間および/または波長)を用いてライトフィールドの各光線を特徴付けるためのパラメータ化方法は、好ましくは、キャプチャされたライトフィールドを有意義に表わし容易に処理されるようにするためプレノプティックカメラの設計を考慮に入れる。例えば、ライトフィールドを平行な平面を用いて表わすことは、互いに平行に配置された主レンズ、マイクロレンズアレイおよびセンサー平面を含む一般的なプレノプティックカメラにとっては簡単なことであり得る。一方、1つの球上に多数のカメラが配置されている球面プレノプティックカメラにとっては、球座標系内でライトフィールドを表わすことは有意義であり得る。
好ましくは、特定のカメラ設計には依存しないパラメータ化方法が、ライトフィールドの各光線を表わすために選択される。このようにして、異なるタイプまたは設計のカメラを用いてキャプチャされたライトフィールドを表わすために一般的パラメータ化方法を使用することができる。
ここで、図1A〜1Eすなわち2平面、球面、球面−球面、球面−平面および極にそれぞれ関連してライトフィールドの5つのカメラ非依存パラメータ化方法について説明する。
図1Aは、2つの平面を用いたライトフィールドのパラメータ化方法を示す。光線ri、rjが互いに平行な2つの平面U−V、Rx−Ryと交わる位置によって、光線ri、rjが特徴付けされる。平面上の位置は、例えばデカルト座標系、または極座標系に基づいている。第1および第2の平面は、それぞれz=0、z=1に置かれ、ここでz軸は2つの平面に直交する。(Ui、Vi)は、光線riが第1の平面U−Vと交わる位置であり、(Rxi、Ryi)は、この光線riが第2の平面Rx、Ryと交わる位置である。放射輝度Pは、4つのパラメータUi、Vi、Rxi、Ryiから一意的に決定される。z軸を考慮に入れて、対応する光線x、y、zは、
として得られる。式中、kは、任意の正の実数値をとることのできるパラメータである。
この方法は、互いに平行なマイクロレンズアレイとセンサー平面とを有するプレノプティックカメラに好適である。この表現の1つの欠点は、それが平面U−V、Rx−Ryに平行に通過する光線を表わすことができないという点にある。
図1Bは、互いに外接する2つの球s1、s2を用いたライトフィールドのパラメータ化方法を示す。二つの球s1、s2は互いに接している。光線ri、rjは、第1の球s1を用いて外向き交点(ψ1、θ1)によって、そして第1の交点(ψ1、θ1)で第1の球と外接する第2の球s2を用いて外向き交点(ψ2、θ2)によってパラメータ化される。(ψ1、θ1)は、第1の球との関係における球座標であり、(ψ2、θ2)は第2の球との関係における球座標である。光線rは、2点を通過する線として得られる:
この表現は、球上に配置されたカメラアレイによりキャプチャされるプレノプティック画像の場合に有用である。このタイプのカメラは典型的には、ストリートビューのキャプチャに使用される。この表現のもう1つの利点は、球と交差する全ての光線を、この表現を用いて記述できるという点にある。しかしながら、この球と交差しない光線は表わすことができない。
図1Cは、1つの単一球sを用いたライトフィールドのパラメータ化方法を示す。これは球sと各光線の2つの交点(ψ1、θ1)、(ψ2、θ2)を使用する。球sの半径がライトフィールドにとって充分大きいものであると仮定すると、全ての光線を4つの角度パラメータ(ψ1、θ1)、(ψ2、θ2)によって特徴付けることができる。光線は次のものとして得られる。
この表現は、図1Bの球表現と全単射であり、したがって両方の表現共、いかなる情報損失も無く相互に変換可能である。したがって、その利点および欠点は、球表現のものと同等である。
図1Dは、1つの球sと1つの平面Pを用いたライトフィールドのパラメータ化方法を示す。光線riが、平面Pとの交点(x、y)および球座標との関係における光線の角度(ψ、θ)を用いて表わされる。平面Pは、光線riに直交するよう選択され、球の中心を通過し、こうしてその法線をディレクショナルスフィアの位置によって表わすことができるようになっている。
この球−平面表現は、上述の表現とは対照的に、球と交わるか否かとは無関係に、任意の位置から任意の方向に向かう光線を表わすことができる。しかしながら、球−平面表現からデカルト座標への変換は、先の表現に比べてさらに複雑である。
図1Eの極表現では、光線riは、r、ψ、θ、ωという4つのパラメータを用いて表わされる。rは、座標の原点と光線上の最接近点Aとの間の距離である。(ψ、θ)は、球座標内の最接近点Aの座標である。ωは、光線が中に存在する平面p内の光線の角度であり、ここでこの平面は原点から最接近点Aまでのベクトルに直交する。
極表現は、球−平面表現と全単射であり、こうして全ての方向にフェアリングし球と交差するかまたは交差しない全ての光線を表わすことができる。それでも、この表現は、1つのパラメータが距離であり、他の3つのパラメータが異なる中心点からの角度であることから、比較的直観性が低いことがあり得る。球平面表現と同様、デカルト座標への変換は複雑である。
これらのパラメータ化表現またはフォーマットは全て、これらの表現のうちのいずれか1つへの変換が、カメラ設計に依存しておらず、任意のプレノプティックカメラでキャプチャされた任意のプレノプティックデータから可能であるという意味合いにおいて、カメラ非依存である。しかしながら、指摘された通り、一部の表現は、一部のカメラにさらに適応されており、変換のために必要な処理が少ない。
プレノプティックデータ変換
上述の表現は全て、同じ条件でキャプチャされた光線情報をパラメータ化することから、プレノプティックデータの1つの表現を別の表現に変換することができる。
上述の表現は全て、同じ条件でキャプチャされた光線情報をパラメータ化することから、プレノプティックデータの1つの表現を別の表現に変換することができる。
1つの表現から別の表現へのデータ変換は、データ処理を容易にするために使用可能である。例えば、球表現でのプレノプティックデータに対して深度再構成アルゴリズムを適用することは難しいかもしれないが、一方2つの平面表現ではさほど複雑ではない。したがって、球表現で記憶されたプレノプティックデータから深度を計算したい場合には、最初に球表現から2つの平面表現に変換し、その後に2つの平面表現の内部で深度再構成アルゴリズムを適用することができる。より一般的には、ライトフィールドの処理には、第1のカメラ非依存表現から、処理のためにより良く適応されている異なるカメラ非依存表現へとライトフィールド表現を変換するステップが含まれていてよい。
プレノプティックデータは、線として表現された1組の光線であるため、1つの表現から別の表現への変換は、1つの座標系内の線のパラメータを別の座標系内の対応するパラメータに変換することと等価である。
変換のための一般的アプローチ
表現フォーマットアルゴリズムの変換は、入力および出力データ表現によって左右される。しかしながら、アプローチは、概して次の変換方法に要約することができる。
表現フォーマットアルゴリズムの変換は、入力および出力データ表現によって左右される。しかしながら、アプローチは、概して次の変換方法に要約することができる。
変換方法
元座標内で4つのパラメータp1、p2、p3、p4として表わされた各光線について;
1.線パラメータp1、p2、p3、p4をデカルト座標内の対応する線Lに変換する。
2.移動先座標に関する線Lのフィーチャを抽出する(例えば、1つの球との交点を見出す)。
3.フィーチャを、移動先座標内の対応する4つのパラメータq1、q2、q3、q4に変換する。
4.P(p1、p2、p3、p4)をP(q1、q2、q3、q4)に割当てる。
元座標内で4つのパラメータp1、p2、p3、p4として表わされた各光線について;
1.線パラメータp1、p2、p3、p4をデカルト座標内の対応する線Lに変換する。
2.移動先座標に関する線Lのフィーチャを抽出する(例えば、1つの球との交点を見出す)。
3.フィーチャを、移動先座標内の対応する4つのパラメータq1、q2、q3、q4に変換する。
4.P(p1、p2、p3、p4)をP(q1、q2、q3、q4)に割当てる。
一例として、2つの平面表現と球−球表現の間の変換方法についてここで説明するだろう。
2つの平面表現(Rx、Ry、U、V)内の各光線について、以下のことを行なう:
1.4つのパラメータを3Dデカルト座標内の2つの点、(Rx、Ry、1)および(U、V、O)に変換し、2つの点を通る線を、以下の通り計算する:
式中、kは、任意の実数をとることのできるパラメータである。
2.線と球の交点を計算する。1という半径を有する球を考慮する。こうして以下の式が得られる:
式中、k1およびk2は、ステップb内のx、y、zを球x∧2+y∧2+z∧2=1という公式に代入することによって得られる以下の等式の解である:
3.2つの交点を、
として球座標に変換する。
4.結果として、以下の通りの各光線P(Rx、Ry、U、V)から変換された光線L(ψ1、θ2、ψ2、θ2)が得られる:
P(φ1、θ1、φ2、θ2)=P(Rx、Ry、U、V)
1.4つのパラメータを3Dデカルト座標内の2つの点、(Rx、Ry、1)および(U、V、O)に変換し、2つの点を通る線を、以下の通り計算する:
2.線と球の交点を計算する。1という半径を有する球を考慮する。こうして以下の式が得られる:
4.結果として、以下の通りの各光線P(Rx、Ry、U、V)から変換された光線L(ψ1、θ2、ψ2、θ2)が得られる:
P(φ1、θ1、φ2、θ2)=P(Rx、Ry、U、V)
カメラ依存表現からカメラ非依存表現への変換
ここで、プレノプティックカメラデバイスでキャプチャしたプレノプティックデータを、デバイスに依存しないプレノプティックデータに変換する方法についての異なる例を説明するだろう。今日市販されている複数のプレノプティックカメラの例について説明する。考慮されるプレノプティックカメラは、Lytro、RaytrixおよびPelican Imaging(全て登録商標)のものである。各カメラは異なる光学的設計を使用する。
ここで、プレノプティックカメラデバイスでキャプチャしたプレノプティックデータを、デバイスに依存しないプレノプティックデータに変換する方法についての異なる例を説明するだろう。今日市販されている複数のプレノプティックカメラの例について説明する。考慮されるプレノプティックカメラは、Lytro、RaytrixおよびPelican Imaging(全て登録商標)のものである。各カメラは異なる光学的設計を使用する。
この例において、我々は、デバイス非依存2つの平面表現への変換について説明するだろう。別の表現への変換も同様に可能である。2つの平面表現は、光線をキャプチャするための平行な平面を伴って設計されたプレノプティックキャプチャデバイスにさらに好適である。
ターゲット表現の2つの平面をRx−RyおよびU−Vと呼ぶだろう。U−V平面は、プレノプティックカメラデバイス1の主レンズ10の平面(すなわちPelican Imagingカメラの場合のマイクロカメラの主レンズ平面)に対応し得る。Rx−Ry平面はU−V平面に平行である;これは、キャプチャの瞬間におけるプレノプティックカメラのオブジェクト焦平面(単複)14の正規化バージョンである。U−V平面がZ=0にあり、Rx−Ry平面がZ=1にあるような形で、座標系を定義してよい。
図2は、(図の左側の)同じ物理的点Aに由来し、そして(図の右側の)2つの平面表現を用いて再計算された2つの光線ri、rjを示す。U−V平面は、正規化されたカメラデバイスの主レンズ10の平面を表わす。Rx−Ry平面は、正規化されたシーン(現実世界)14を表わす。
オブジェクトAの焦平面14からRx−Ry平面に向かう正規化プロセスは、カメラ1のオブジェクト焦平面14をZ=1まで移動させ、その後、この新しい平面(すなわちRx−Ry)とキャプチャされた光線ri、rjの新しい交差を再計算することに対応する。マイクロレンズまたはマイクロカメラ用として複数の焦点距離が使用されるRaytrixまたはPelican Imagingの場合、正規化は、(異なるレンズの各々の焦点距離によって提供される)各オブジェクト焦平面について行なわれる。これは、各々の異なるオブジェクト焦平面をZ=1まで移動させ、その後、この新しい平面(すなわちRx−Ry)と光線の交差を再計算することに対応する。
ライトフィールドが離散的プレノプティックカメラ1を用いてキャプチャされるという事実にも関わらず、2つの平面U−V、Rx−Ryは、連続する空間内で考慮される。実際、こうして、異なるカメラ(すなわち異なる固有パラメータを有する)によりキャプチャされた光線ri、rjを全て、情報の損失無く同じ連続的表現上で表わし得ることが保証される。これによって、例えば一部の処理またはレンダリングのためにこの空間の離散化決定が制限されないことは明らかである。
図2は、物理的点Aに由来する2本の光線ri、rjを示す。レジスターに格納されたライトフィールドデータは、全ての光線の強度および方向を含む。この記憶されたライトフィールドデータには、いずれにせよ、デバイス依存性であるという不都合がある。焦平面上の物理的点Aは、この物理的点が視野角に応じて異なる光線を反射する場合に強度が異なる可能性のある2本の光線ri、rjによって、プレノプティックカメラデバイス1により見られる(非ランバート面の原理(principle of a non−lambertian surface))。両方の光線ri、rjは焦平面14に由来し、その各々が特定の強度および方向を有する。それらが同じ物理的点Aに由来しているという事実はもはや分からない。物理的点と光線をマッチさせ、ひいては深度情報を導出するための一部のアルゴリズムについては、後述するだろう。
これらの記録された光線ri、rjは、前述した2つの平面表現を用いて表わすことができる。デバイス1の主レンズはU−V平面によって表わされる。シーンはRx−Ry平面により表わされる。記録された光線は、それらがこれら両方の平面と交わる位置を用いて、記述される。Rx−Ry平面は、距離Z=1のところで、U−V平面に対し相対的に位置づけされる。焦平面14およびU−V平面と光線方向との間の距離は分かっていることから、2本の光線と平面との間の交わる位置を計算することができる。Rx(またはRy)は、1本の光線が平面と交差するx(またはy)方向におけるRx−Ry平面上の座標である。同様にしてUとVは、U−V平面と1本の光線の交差に対応する。
図3は、それぞれ焦平面14の前後にある2つの異なる物理的点B、Cに由来する(左側の図)そして2つの平面表現を用いて再計算された(右側の図)2つの光線値を示す。キャプチャデバイス1は、物理的点がどこにあるか知らない。1つの点は、例えば焦平面の前、上または後にあってよく、なおもカメラ上に同じ光線を生成する。
ここで、Lytro(登録商標)によって販売されている1つのプレノプティックカメラに対応する設計を有するデバイス1の一例について図4と共に説明するだろう。
このプレノプティックカメラデバイス1は、カメラセンサー平面13の直正面でマイクロレンズアレイ12上に光線ri、rjを焦点合せされる主レンズ10を含む。参照番号14は、オブジェクト焦平面であり、主レンズ平面はU−Vで呼称されている。Rx−Ry平面はカメラ主レンズ平面U−Vから距離1のところにおけるシーンを表わす。主レンズ10はマイクロレンズアレイ12上に焦点合せすることから、マイクロレンズアレイ12上で交差する光線ri、rjは同様に、カメラの焦平面14上でも交差する。各マイクロレンズは、センサー13上に、隣接するマイクロ像と重複しないマイクロ像を形成する。全てのマイクロレンズの焦点距離は同じである。マイクロレンズ12は、主レンズと比べて著しく小さく(例えば約300分の1)、主レンズ10がマイクロレンズの光学的無限遠にくるような距離のところに設置される。この設計は、同じマイクロレンズに到達する光線の方向が、シーン内の焦点合せされたオブジェクトに属する物理的点の異なる視野角に対応するという興味深い特性を提供する。換言すると、焦点合せされたオブジェクトの各々の物理的点は、その光線の全てが単一のマイクロレンズによりキャプチャされ、したがって単一のマイクロ像内でセンサー13上に記憶されることになり、ここでマイクロ像の各画素はその物理的点の異なる光線方向に対応している。
センサー13平面上の各マイクロ像は、1つのマイクロレンズに対応し座標XおよびYを有する。マイクロ像内部の各画素は、座標PおよびQを有する。各マイクロ像は、光学軸との関係において指標付けされる。所与のマイクロ像中の画素は、マイクロレンズの光学軸との関係において指標付けされる。Nx(またはNy)が、x(またはy)方向におけるマイクロ像の数に対応し、Np(またはNy)がx(またはy)方向におけるマイクロ像内部の画素の数に対応すると仮定する。さらに、このときパラメータを以下の通りに公式化することができる:
光線riは、その(X;Y)座標で識別されるマイクロレンズ120に衝突する。光線riが衝突するマイクロ像の内部の選択された画素(selected pixel)130は、その(Pi;Qi)座標を用いて記述される。主レンズ10内部の光線が通過する部域は、その(U;V)座標で識別される。Rx−Ry平面と、特定の方向を有する(U;V)においてデバイスの主レンズ10に衝突する光線riとの交差は、(Rx;Ry)座標を用いて記述される。各光線について、Rx−Ry平面上の座標(Rx;Ry)および主レンズ上の座標(U;V)は、光線が通過しているマイクロレンズ座標(X;Y)およびマイクロ像内の画素座標(P;Q)である公知のデバイスパラメータを用いて決定されなければならない。
デバイス依存型パラメータを用いて表わされたキャプチャされた光線を、デバイス非依存平面−平面表現へと変換するための変換は、以下の通りに公式化することができる:
ここで、図5および6を用いて、Pelican(登録商標)により提案されているものと類似のプレノプティックカメラ設計の例について説明するだろう。
図5のプレノプティックキャプチャデバイス1は、同じ平面U−V上で整列され好ましくは互いに等距離に置かれたレンズを有するマイクロカメラ16のアレイを含む。これらのマイクロカメラ16は、薄型であり、したがって、ポータブルコンピュータ、パームトップ型コンピュータ、スマートフォンまたは類似のデバイスなどのモバイルデバイスの内部に内蔵可能である。例えば図示された例では4つである、異なる焦点距離f1、f2を伴う複数の異なるカメラタイプを使用して、このプレノプティックカメラがより多くの角度情報をキャプチャするようにすることができ得る。各マイクロカメラは、わずかに異なる位置および焦点距離からシーンのサブビューをキャプチャする。したがって、ライトフィールドは、異なるマイクロカメラの画像を組合わせることによって作り出される。
参照番号19は、公式内で全ての位置がそこから計算される合成光学軸を呼称する。
各マイクロカメラ16は、シーンのサブビューをキャプチャする。マイクロカメラ平面160をU−V平面と整列させることにより、各マイクロカメラは、特定のU−V座標に衝突する光線をキャプチャする。これは、考えられる全てのRx−Ry座標に由来するものの、特定のU−V座標に衝突する光線のみを考慮すること、すなわちU−V平面上の特定の位置からシーンを見ることに対応する。
全てのマイクロカメラ16は異なる焦点距離f1、f2…を有することから、焦平面14は、Rx−Ry平面を形成するために個別に正規化される必要がある。
各々のマイクロカメラ16は、その座標XおよびYによって定義され得、マイクロカメラ内部の各画素は、PおよびQを用いて記述される。さらに、
であり、式中、Nx(またはNy)は、x(またはy)方向のマイクロカメラの数に対応し、Np(またはNy)は、x(またはy)方向のマイクロカメラ内の画素の数に対応する。
各マイクロカメラ16は、合成光学軸19との関係において指標付けされる。各マイクロカメラについての画素位置は同様に、この合成光学軸との関係において変換される。Rx−Ry平面上の計算されたRxRy位置およびU−V平面上のUV位置は同様に、この軸との関係におけるものである。
図6に示されている通り、キャプチャされた各光線ri、rjは、両方の平面上で、U−V平面内では一対の座標(U;V)を用いて、そしてRx−Ry平面内では(Rx;Ry)座標を用いて、表わされることができる。光線は最初に、(U;V)座標を用いて記述されるマイクロカメラU−V平面に衝突する。その後、この光線は、選択されたマイクロ像の内部の光線の位置を記述する特定の座標(P;Q)でセンサー13に衝突する。座標(Rx;Ry)は、実際には、記録された(P;Q)座標を用いかつ以下の通りのマイクロカメラの相対的オフセット(offset)を考慮に入れて得られる:
図7は、Raytrix(登録商標)により提案されているプレノプティックカメラに対応し得るプレノプティックカメラ1設計の例を示す。このカメラ1は、カメラ内部の画像焦平面15上に光線ri、rj、rkを焦点合せする主レンズ10を含む。マイクロレンズアレイ12が、焦平面15上に焦点合せされ、この焦平面の後ろに位置設定される。マイクロレンズ12は次に、カメラセンサー13上に光線を収束させる。各マイクロレンズは異なる視野角で画像焦平面15のシーンを見る。したがってオブジェクト画像平面14上に焦点合せされた状態の点Aは、画像焦平面15上に画像形成され、これをマイクロレンズ12が異なるビュー位置から観察する。例えば3つといった複数の異なるタイプの焦点距離がマイクロレンズのために使用される。したがって、これらのマイクロレンズは、3つの異なる画像焦平面15上に焦点合せし、その結果、キャプチャされる角度情報は増大する。
センサー平面13上の各マイクロ像は、その座標XおよびYにより識別されてよく、マイクロ像内部の各画素はPおよびQとして識別されてよい。さらに、
であり、式中、Nx(またはNy)は、x(またはy)方向におけるマイクロ像の数に対応し、Np(またはNy)はx(またはy)方向におけるマイクロ像内部の画素数に対応する。
各マイクロ像は、主レンズ光学軸との関係において指標付けされ、所与のマイクロレンズ内の画素はマイクロレンズ光学軸との関係において指標付けされる。
キャプチャされた各光線ri、rj、rkは、両方の平面上で、U−V平面内では一対の座標(U;V)を用いて、Rx−Ry平面内では(Rx;Ry)座標を用いて、表わされなければならない。この光線は最初にデバイスパラメータを用いてキャプチャされる。光線は最初に、(U;V)座標を用いて記述されるU−V平面と見なされる主レンズ平面10に衝突する。次にこの光線は(X;Y)を用いて記述される特定のマイクロレンズ12に衝突する。その後この光線は、選択されたマイクロ像の内部の光線の位置を記述する特定の座標(P;Q)でセンサー13に衝突する。
座標(Rx;Ry)は、記録された(P;Q)および(X;Y)座標を用いて以下の通りに得ることができ得る:
未知のまたは過度に複雑なカメラ構造に起因して理論的にカメラ変換関数を導出することが不可能である一般的なプレノプティックカメラの場合でも、カメラシステムの特性を測定することによって変換関数を獲得することがなおも可能である。例えば、パラメータが完全に公知である基準シーンを使用することによって、プレノプティックカメラ内でいかにシーンがキャプチャされ記憶されるかを測定することができる。
例として、少なくとも一部のパラメータが未知であるカメラ1のための変換関数を決定したい場合、カメラ較正と類似の要領で未知のパラメータを推論することによりカメラ変換関数Fを識別することができる。図8に示されている通り、未知のプレノプティックカメラ1でキャプチャされた市松模様20のプレノプティック画像21を使用して、カメラ1のパラメータを決定することができる。例えば、カメラ1モデルの設計が公知のカメラの設計と同一であるもののその焦点距離のみが未知であることが分かっている場合、光学軸に沿って基準画像を移動させることにより焦点距離を推論し、同じ物理的点に由来する全ての光線が1つの単一マイクロ像を構成している位置を発見することができる。
別のアプローチとして、カメラ設計もそのパラメータも未知であると仮定した場合に、一定の方向に向かって単一の光線を発出できるデバイス(例えばシャープレーザーポインタ)を使用して、プレノプティックデータの画素との対応を発見することができる。この単一光線は次に、プレノプティックカメラによりキャプチャされる。このアプローチは、以前のものでは同じ物理的点からフェアリングする複数の光線を記録していたものの、発出デバイスに由来する唯1つの単一光線をプレノプティックカメラが記録するという事実により、以前のものと異なっている。キャプチャされた光線は、プレノプティックカメラ内に進み、最終的には単一の画素に衝突する。シーンの他の強度値と異なる強度値を有する画素を観察することができる。複数の発出された光線の方向とそれらに対応する画素との間の対応を測定することにより、我々は変換マップを定義することができ、これにより変換関数が導かれる。複数の光線を異なる波長および/または変調で連続的におよび/または同時に発出して、各光線が衝突するプレノプティックカメラの画素を決定し、こうして変換関数を決定することが可能である。
標準からライトフィールドへの変換
標準的1D、2Dまたは3D画像データまたは立体データをカメラ非依存プレノプティック表現に変換して、これらの変換済み表現を処理し、場合によってはこれらを、プレノプティックカメラでキャプチャされ同じカメラ非依存プレノプティックフォーマットへと変換されたプレノプティック表現とマージすることも同様に可能である。
標準的1D、2Dまたは3D画像データまたは立体データをカメラ非依存プレノプティック表現に変換して、これらの変換済み表現を処理し、場合によってはこれらを、プレノプティックカメラでキャプチャされ同じカメラ非依存プレノプティックフォーマットへと変換されたプレノプティック表現とマージすることも同様に可能である。
標準的2D画像および3Dモデルを扱う場合、プレノプティックキャプチャデータの場合に行なうはずのものと同じ要領でそれらをマージまたはそれらを処理することができるように、非依存性プレノプティック表現へとそれらを変換できる必要がある。
以上の場合がそうであったように、我々は、単純さおよび明確さを期して、2つの平面表現への変換を考慮する。
1Dまたは2D画像データの変換
特定の幅(W)および高さ(H)を有する2D画像は、W*H個の数の画素で構成される。各画素を、一対の2D座標Ix−Iyを用いて表わすことができ、Rx−Ry平面上の特定の座標Rx−Ryとマッチさせることができる。Rx−Ry平面上でこれらの座標に衝突する光線の強度は、2D画像の画素値で置換されるだろう。より厳密には、Ix−IyとRx−Ryとの間のマッチングは、Ry−Ry平面上で(すなわちZ=1)、XおよびY上の所望の場所に2D画像を置くことによって行なわれる。U−V上の異なる点からフェアリングする多数の光線が、特定の座標でRx−Ry平面と交差していることから、そのRx−Ry座標上に置かれた2D画像の画素の強度値は、その座標を通過する全ての光線にコピーされる。したがって、2D画像の各画素は、異なる方向でフェアリングするものの同じ強度をもつ光線を有する物理的点へと変換される。
特定の幅(W)および高さ(H)を有する2D画像は、W*H個の数の画素で構成される。各画素を、一対の2D座標Ix−Iyを用いて表わすことができ、Rx−Ry平面上の特定の座標Rx−Ryとマッチさせることができる。Rx−Ry平面上でこれらの座標に衝突する光線の強度は、2D画像の画素値で置換されるだろう。より厳密には、Ix−IyとRx−Ryとの間のマッチングは、Ry−Ry平面上で(すなわちZ=1)、XおよびY上の所望の場所に2D画像を置くことによって行なわれる。U−V上の異なる点からフェアリングする多数の光線が、特定の座標でRx−Ry平面と交差していることから、そのRx−Ry座標上に置かれた2D画像の画素の強度値は、その座標を通過する全ての光線にコピーされる。したがって、2D画像の各画素は、異なる方向でフェアリングするものの同じ強度をもつ光線を有する物理的点へと変換される。
アプローチは、合成画像のためにも同様に利用可能である。特定の幅(W)および高さ(H)を仮定すると、これらは、標準的画像と同様にW*H個の数の画素で構成され、各画素は、上述のものと同じプロセスにしたがって、特定の座標Rx−Ryとマッチされる。
1D画像も同様に、ライトフィールドに変換可能である。プロセスは、2つの次元(例えばIx−Iy)ではなく1つの次元(例えばIx)のみを考慮するという点を除いて、上述のものと同じである。
ビデオを一続きの2Dフレームと見なすと、各フレームも同様に、上述のものと全く同じ原理にしたがって、ライトフィールドに変換させることができる。
カメラ非依存フォーマットでのプレノプティックデータへの3Dモデルの変換
3Dモデルをライトフィールドに変換することもできる。1つの最初のアプローチは、非依存表現内に3D点として3Dモデルを統合することである。上述の1Dまたは2D画像の場合と同様に、光線は、異なる方向で3Dモデルの各々の3D点からフェアリングする。異なる方向での光線強度は、3Dモデルパラメータにより定義される。単純な場合には、全ての光線強度は、全ての方向で同じと考えられる(ランバートモデル)が、いつでもそうであるとはかぎらない。空間内の各々の3D点からフェアリングする全ての光線がひとたび分かったならば、Rx−RyおよびU−V平面とこれらの光線との交差を計算して、非依存表現のための交差を計算する必要がある。我々には3Dモデルがあることから、閉塞を処理することができ、したがってU−V平面から直接見ることのできる光線のみが保持されるという点に留意されたい。U−V平面と交差するこれらの光線は次に、Rx−Ry平面まで拡張され、ここでそれらの交差が計算される。このようにして、プレノプティックカメラにより3Dモデルのビューをシミュレートする。このアプローチには、3Dモデルの考えられる各々のビューイング条件を考慮に入れ非依存表現でこの条件を表わす必要があり、それにはあるメモリー空間が必要となる可能性があるという欠点がある。しかしながら、考えられる全てのビューが予め非依存表現に変換されてしまっているため、これらのビューを使用したい場合に追加の処理時間は全く求められない。
3Dモデルをライトフィールドに変換することもできる。1つの最初のアプローチは、非依存表現内に3D点として3Dモデルを統合することである。上述の1Dまたは2D画像の場合と同様に、光線は、異なる方向で3Dモデルの各々の3D点からフェアリングする。異なる方向での光線強度は、3Dモデルパラメータにより定義される。単純な場合には、全ての光線強度は、全ての方向で同じと考えられる(ランバートモデル)が、いつでもそうであるとはかぎらない。空間内の各々の3D点からフェアリングする全ての光線がひとたび分かったならば、Rx−RyおよびU−V平面とこれらの光線との交差を計算して、非依存表現のための交差を計算する必要がある。我々には3Dモデルがあることから、閉塞を処理することができ、したがってU−V平面から直接見ることのできる光線のみが保持されるという点に留意されたい。U−V平面と交差するこれらの光線は次に、Rx−Ry平面まで拡張され、ここでそれらの交差が計算される。このようにして、プレノプティックカメラにより3Dモデルのビューをシミュレートする。このアプローチには、3Dモデルの考えられる各々のビューイング条件を考慮に入れ非依存表現でこの条件を表わす必要があり、それにはあるメモリー空間が必要となる可能性があるという欠点がある。しかしながら、考えられる全てのビューが予め非依存表現に変換されてしまっているため、これらのビューを使用したい場合に追加の処理時間は全く求められない。
別の実施形態においては、使用したい場合にのみ3Dモデルをカメラ非依存表現に変換する。このシナリオでは、正に上述のものと全く同じ処理が行なわれるが、これは所望のビューイング条件についてだけである。その帰結として、所要メモリー空間はより少なくなるが、何らかの後処理のための3Dモデルのオンデマンド変換に起因して、何らかの待ち時間が導入されるかもしれない。
ライトフィールド処理
上述の変換プロセスの出力は、カメラ非依存でかつさらなる処理のために直接使用可能であるライトフィールド表現である。実際、さまざまなカメラがハードウェア上の根本的で大きな差異を有していることから、このカメラ生成データに直接適用される後処理のための方法およびアルゴリズムを維持するのは面倒なことであると思われる。本発明で提案されているように、カメラの特異性から後処理アルゴリズムを解放するために、提示された異なる変換を使用することができる。
上述の変換プロセスの出力は、カメラ非依存でかつさらなる処理のために直接使用可能であるライトフィールド表現である。実際、さまざまなカメラがハードウェア上の根本的で大きな差異を有していることから、このカメラ生成データに直接適用される後処理のための方法およびアルゴリズムを維持するのは面倒なことであると思われる。本発明で提案されているように、カメラの特異性から後処理アルゴリズムを解放するために、提示された異なる変換を使用することができる。
ここで、変換されたライトフィールドの修正を可能にするいくつかの後処理方法について説明するだろう。それは、拡張現実(augmented reality)を行なうこと、またはシーンの質を改善することのためであり得る。
シーンセントリック型表現
ライトフィールド表現は、カメラの位置に基づいて空間内の各光線を一意的に記述する。表現に応じて、キャプチャシステムが視野≧180°の内部の光を集めることができる場合、光線方向も同様に含み入れてよいと考えられる。
ライトフィールド表現は、カメラの位置に基づいて空間内の各光線を一意的に記述する。表現に応じて、キャプチャシステムが視野≧180°の内部の光を集めることができる場合、光線方向も同様に含み入れてよいと考えられる。
このカメラ中心型表現は、シーンの任意のオブジェクト上を中心にするように処理することができる。実際、光線は、光源などのシーンオブジェクトまたは直接または間接光源を反射する他のオブジェクトに由来する。キャプチャされたおよび変換されたライトフィールドを処理するためには、オブジェクトが付加、除去または修正された場合に光線を修正できるようにこのようなシーンセンタード型表現を有することが有用である。
例えば、拡張現実処理においては、多くの場合、キャプチャされたライトフィールドをいくつかの仮想/人工視覚情報で拡張する必要がある。本明細書において、拡張現実は同様に、時として減損現実(diminished reality)とも呼ばれる、シーンからオブジェクトを実際に除去する状況をも含んでいる。
次の節全体を通して、我々は、上述の2平面パラメータ化を用いたライトフィールド表現の実施例を使用するが、同じ方法は、例えば球−平面などの他の表現にも同等に適用可能である。
図9は、シーン20由来のライトフィールドの2つの平面表現を示す。4本の光線r1〜r4が示されている。最初の2本の光線r1、r2は、カメラ1の焦平面Rx、Ry内の焦点合せされた点Aに対応し、ここで最後の2本の光線r3、r4は、異なる距離で焦点合せされていない点Bに対応する。
先に説明した通り、この表現から光線r1〜r4のうちのどれが同じ物理的点を表わしているか否かを知ることは不可能である。ここでは、我々は、光線がシーン20から発出され、したがってシーン点から出発してカメラ平面U−Vに衝突した時に停止するシーンセントリック型表現へとこの表現を変換することを提案する。したがって、我々は、光線を表わす半直線ではなく、セグメントを扱う。これは、光線がカメラから出発しており、その長さまたは深度が未知であるため決して停止することのない前述の表現の2本立てである。
変換は、以下の方法で行なうことができる:
1.1つのシーンのシーンセントリック型プレノプティック表現から開始する。
2.カメラ非依存表現内の各光線について、以下のことを行なう:
2.1 光線の交点およびシーンの物理的点を推定する(考えられる方法の概要については次節を参照のこと)。これを知ることで、我々は、シーン点の深度を推論することができる。
2.2 カメラ平面(U−V平面)に平行な、カメラとの関係における物理的点の2D位置を演繹する。
2.3 最初の2つのステップにおいて計算された2D位置+深度情報により新規作成された3D点をサーチする。
2.3.1 この3D点がすでにシーンセントリック型表現内に存在する場合、3D点から出発しカメラ非依存表現内の現在の光線と同じ方向を有するシーンセントリック型表現に新しい光線を付加する。光線の他の特性(例えば色の強さ)も同様にコピーされる。
2.3.2 この3D点が、シーンセントリック型表現内に存在しない場合、シーンセントリック型表現内に新しい点を新規作成し、この点から発出されカメラ非依存表現内の現在の光線と同じ方向を有する新しい光線をそれに添付する。光線の他の特性(例えば強度)も同様にコピーされる。
1.1つのシーンのシーンセントリック型プレノプティック表現から開始する。
2.カメラ非依存表現内の各光線について、以下のことを行なう:
2.1 光線の交点およびシーンの物理的点を推定する(考えられる方法の概要については次節を参照のこと)。これを知ることで、我々は、シーン点の深度を推論することができる。
2.2 カメラ平面(U−V平面)に平行な、カメラとの関係における物理的点の2D位置を演繹する。
2.3 最初の2つのステップにおいて計算された2D位置+深度情報により新規作成された3D点をサーチする。
2.3.1 この3D点がすでにシーンセントリック型表現内に存在する場合、3D点から出発しカメラ非依存表現内の現在の光線と同じ方向を有するシーンセントリック型表現に新しい光線を付加する。光線の他の特性(例えば色の強さ)も同様にコピーされる。
2.3.2 この3D点が、シーンセントリック型表現内に存在しない場合、シーンセントリック型表現内に新しい点を新規作成し、この点から発出されカメラ非依存表現内の現在の光線と同じ方向を有する新しい光線をそれに添付する。光線の他の特性(例えば強度)も同様にコピーされる。
この変換の出力は、各点に添付された光線を有する点群である。各光線は、光線にセンタリングされた視点から見た現在の光で照らされた物理的オブジェクトの色を記述する特定の色の強さを有する。これは、シーンの幾何形状ならびにその視覚的外観を完全に記述する。
光線方向がシーンに左右されずキャプチャデバイスのみに左右されるということは指摘に値する。したがって、同じ固有パラメータを有する同じキャプチャデバイスについては、カメラ非依存表現内の光線の深度および色情報のみが変化するだろう。
この新しいシーンセンタード型表現では、光線の各修正が表現の中心にあるオブジェクトの視覚的外観を実際に修正するように、ライトフィールドを実際に修正することができる。これに反して、カメラ非依存表現はシーンについての情報を全く含まない。したがって、色の強さなどの光線の特性を変更することは、シーン自体との実際の関係無しに、キャプチャされたシーン内に変化を生み出し得る。
深度の推論
ライトフィールドをオブジェクトにまたはシーンセントリック型のものに変換するためには、上述の方法で言及した通り、各光線の深度情報を有する必要がある。
ライトフィールドをオブジェクトにまたはシーンセントリック型のものに変換するためには、上述の方法で言及した通り、各光線の深度情報を有する必要がある。
ここでは、深度を再構成するための2つの方法を簡単に紹介する。
図10に示されている第1の方法の背後にある主要な原理は、どの光線r1、r2…riが同じ物理的点Aに由来するかを識別することにある。2つの光線(ここではr1およびr2)が同じ物理的点Aに対応するものとして識別されると直ちに、三角測量を用いて深度を推論することが可能である。これにより、表現パラメータとの関係における深度推定値が得られる。絶対深度が必要である場合、ライトフィールド表現を物理的世界に関連づけるパラメータを有することも必要になる。
図10において、1つの物理的点Aは2本の光線r1およびr2を発出する。この点によって発出されない第3の光線r3も同様に示されている。
光線、例えば光線1の深度を推論するためには、以下の手順を使用でき得る:
1.r1以外のシーン内の各光線riについて、その光線が同じ物理的オブジェクトに属するかまたは同じ点Aに由来するかを識別する(異なる方法については、次の段落を参照)。
2.同じ物理的オブジェクトを表わす光線r2がひとたび識別された時点で、それを三角測量するためにライトフィールド表現パラメータを用いることによりカメラ平面U−Vまでの紫色点の距離を計算する。実際、カメラ平面U−Vとの関係における光線r1、r2の角度は、同じカメラ平面上のこれらの相対的距離と共に公知である。
3.三角方程式を用いて、カメラ平面U−Vおよび点Aからの距離、すなわちその深度を推論することができる。
1.r1以外のシーン内の各光線riについて、その光線が同じ物理的オブジェクトに属するかまたは同じ点Aに由来するかを識別する(異なる方法については、次の段落を参照)。
2.同じ物理的オブジェクトを表わす光線r2がひとたび識別された時点で、それを三角測量するためにライトフィールド表現パラメータを用いることによりカメラ平面U−Vまでの紫色点の距離を計算する。実際、カメラ平面U−Vとの関係における光線r1、r2の角度は、同じカメラ平面上のこれらの相対的距離と共に公知である。
3.三角方程式を用いて、カメラ平面U−Vおよび点Aからの距離、すなわちその深度を推論することができる。
光線−オブジェクト識別
2本の光線が同じ物理的オブジェクトまたは点に対応する(すなわちこれにより発出されている)か否かを査定するための方法は、物理的オブジェクトの表面が、完全にランバート面である、すなわち、オブジェクト上の所与の点について、オブジェクトにより反射された光が全ての方向で同じであるという仮定に基づくものであり得る。この制約を活用することにより、我々は、2本の光線がいかに正しく同じオブジェクトを表わしているかを定義する類似性測度(measure)を構築する。これは実際、各光線の視覚的外観、またはより厳密には強度(intensity)をアサートする(asserting)ものである。複数の測度が使用可能である。考えられる1つの測度は、以下のように定義される絶対差である:
2本の光線が同じ物理的オブジェクトまたは点に対応する(すなわちこれにより発出されている)か否かを査定するための方法は、物理的オブジェクトの表面が、完全にランバート面である、すなわち、オブジェクト上の所与の点について、オブジェクトにより反射された光が全ての方向で同じであるという仮定に基づくものであり得る。この制約を活用することにより、我々は、2本の光線がいかに正しく同じオブジェクトを表わしているかを定義する類似性測度(measure)を構築する。これは実際、各光線の視覚的外観、またはより厳密には強度(intensity)をアサートする(asserting)ものである。複数の測度が使用可能である。考えられる1つの測度は、以下のように定義される絶対差である:
この測度は、上述の手順のステップ1の中で、2本の所与の光線が同じオブジェクトを表わしているか否かを決定するために使用することができる。小さい方のAD値はこれらの場合を表す。
類似性の測度として光線強度のみを使用することにより、ノイズ発生の傾向があることは指摘に値する。したがって、深度を推論するために必要とされる情報として2本の光線のみを取上げる代りに、深度三角測量問題を満足のいく形で包括的に解決するために反復的プロセスまたはコンセンサス方法を適用することによりノイズ効果を削減することが望まれる。
第2の方法は、ライトフィールドのエピポーラ画像表現そしてより厳密にはエピポーラ線に基づくものである。我々は以下で、本明細書中で言及されている2つの平面表現をレバレッジする(leveraging)ことによるエピポーラ線深度再構成方法という方法を紹介する。
エピポーラ線を用いた深度再構成
ランバートモデルを仮定して、図11を参照して説明した方法を用いてRx−Ry−U−V座標系内で物理的点を抽出することができる。
ランバートモデルを仮定して、図11を参照して説明した方法を用いてRx−Ry−U−V座標系内で物理的点を抽出することができる。
ライトフィールドを、Rx−Ry−U−V表現で表わしてもよい。物理的点Aは、Rx軸に平行な方向へのオフセットhxを伴ってRx−Ry平面から距離dのところに置かれる。物理的点Aは、単純さを期してRy=0およびV=0とした平面内にあると仮定する。Rx平面とU平面との間の距離はδであり、これは、我々の2つの平面表現においては1に等しい。オブジェクトAは、光線riを発出する。光線がRx−RyおよびU−V平面の両方に交差するが、交差位置は光線の角度に応じてわずかに異なる。
これはすなわち、光源由来の光線が、いわゆるエピポーラ線と呼ばれるU−Rxプロット上の線Lを形成し、その勾配(gradient)が深度により左右されることを意味している。図12はU−Rxプロットを示す。
したがって、U−Rxプロット内の線を抽出しその勾配およびRx切片を計算することにより、深度dおよびオフセットhxを得ることができる。
エピポーラ線の抽出
2Dデータ(例えば画像)から線を抽出する複数の方法を考慮することができる。この最終目的を達成するためには、ラドン変換(Radon transform)が好適である。関数f(a、b)のラドン変換Rは、以下の通りに定義される:
2Dデータ(例えば画像)から線を抽出する複数の方法を考慮することができる。この最終目的を達成するためには、ラドン変換(Radon transform)が好適である。関数f(a、b)のラドン変換Rは、以下の通りに定義される:
ラドン変換では、原初の画像平面はθ−ρ平面に変換され、このθ−ρ平面では、各点(θ0、ρ0)は画像平面内の線xCosθ0+ySinθ0=ρ0に対応する。点の強度はこのとき、その対応する線の長さに正比例する。以下のアルゴリズム1は、ラドン変換の離散化されたバージョンを計算するためのアルゴリズムと見なすことのできるハフ変換のアルゴリズムを示す。
ハフ変換が、なじみのある傾き切片型ではなくむしろ極座標(すなわちθ−ρパラメータ化)を使用する理由は、傾きと切片の両方共が、有限x−y平面(すなわちデジタル画像)についてさえ非有界であるということにある。
ラドン(およびハフ)変換の1つの主要なキーは、画像平面内の回転(すなわちθの変化)がθ−ρ平面内の単純並進移動に変換されることにある。
アルゴリズム1:ハフ(ラドン)変換アルゴリズム
要件:画像を表わす2次元行列I
1.ベクトルΘ内のθ値の範囲を離散化する。
2.ρパラメータを全く異なるnρ値に離散化する。
3.長さ(Θ)×nρ出力行列Hを構築する。
4.Hの全ての要素を最初0に設定する。
5.I内の各フィーチャ点(x、y)について、以下を実行
6.各々のθ∈Θについて、以下を実行
7. ρ=xCosθ+ySinθ
8. H(θ、ρ)=H(θ、ρ)+1
9. 以上を終了
10.以上を終了
11.出力画像Hを戻す。
要件:画像を表わす2次元行列I
1.ベクトルΘ内のθ値の範囲を離散化する。
2.ρパラメータを全く異なるnρ値に離散化する。
3.長さ(Θ)×nρ出力行列Hを構築する。
4.Hの全ての要素を最初0に設定する。
5.I内の各フィーチャ点(x、y)について、以下を実行
6.各々のθ∈Θについて、以下を実行
7. ρ=xCosθ+ySinθ
8. H(θ、ρ)=H(θ、ρ)+1
9. 以上を終了
10.以上を終了
11.出力画像Hを戻す。
深度再構成アルゴリズム
現実世界では、オブジェクトを3D座標内の任意の位置に置くことができ、このことはすなわち深度推定方法が、Ry=0およびV=0の平面上の点についてのみならず、いかなる点においても機能する必要があるということを意味している。Ry(またはV)軸内の物理的点のオフセットhyを考慮に入れるために、我々は、考えられる全てのRy値についてU−V平面上の深度再構成を実施する。換言すると、V=0として、各RyにおいてU−Vスライス上でエピポーラ線を抽出する。
現実世界では、オブジェクトを3D座標内の任意の位置に置くことができ、このことはすなわち深度推定方法が、Ry=0およびV=0の平面上の点についてのみならず、いかなる点においても機能する必要があるということを意味している。Ry(またはV)軸内の物理的点のオフセットhyを考慮に入れるために、我々は、考えられる全てのRy値についてU−V平面上の深度再構成を実施する。換言すると、V=0として、各RyにおいてU−Vスライス上でエピポーラ線を抽出する。
以上の節で説明した原理にしたがって、我々は、キャプチャされたシーンの幾何形状を再構成するためのアルゴリズムを提案する。
要件:UVRxRy座標系で表わされたプレノプティックデータ
1.Ry’としての各Ryについて
2.(V、Ry)=(0、Ry’)においてU−Rx平面上でハフ変換を適用する
3.各々の抽出されたエピポーラ線について、深度di、xオフセットhxi、およびyオフセットhyiを計算する
4.全ての推論した3d点(hxi、hyi、di)を戻す
1.Ry’としての各Ryについて
2.(V、Ry)=(0、Ry’)においてU−Rx平面上でハフ変換を適用する
3.各々の抽出されたエピポーラ線について、深度di、xオフセットhxi、およびyオフセットhyiを計算する
拡張現実の適用
このシーンセントリック型表現は、シーンの物理特性と適合する形で、キャプチャされたライトフィールドに対する修正および/または改善を実施することを可能にする。
このシーンセントリック型表現は、シーンの物理特性と適合する形で、キャプチャされたライトフィールドに対する修正および/または改善を実施することを可能にする。
ここでは、2つの異なる実施例を示す。最初の実施例は、特定のシーン要素の画質の改善に関するものである。多くの場合、オブジェクトあるいはシーンの充分に画定された部分などの画像の要素を選択し、画像の特定の部分をより明るくする、より暗くする、よりコントラストを上げるまたは異なる露光設定にすることが望まれる。従来の画像形成システムにおいて所望の写真補正を適用するために、輝度を取上げてみれば、ユーザーは、どの画素を修正しなければならないかを手作業で選択し、これらの画素のみにフィルターが適用されるようにしなければならない。これは、多くの場合において実に煩わしいことであり得る(人間の毛髪の例を考えてみるとよい)。
本節において正に説明した通りに変換されたシーンのライトフィールドキャプチャを用いると、視覚的外観に基づいてだけではなくシーン空間内のそれらの物理的位置との関係においても、要素を選択することができる。このシステムでは、ユーザーは画素ではなく、空間内の点を選択する。このとき、システムは、各オブジェクトをセグメント化するためにシーン点群の深度不連続性を分析することによって、特定のオブジェクトに属する点全てをユーザーが選択するのを助けることができる。したがって、先の毛髪の例では、ユーザーは、人物の頭の上でクリックするだけで、その頭全体を、適用したフィルターにより補正することができる。人物の頭により「発出される」異なる光線は、この場合、各光線の色の強さを増大させ得る輝度フィルターであるフィルターにしたがって選択され補正され得る。
この2段階変換(カメラライトフィールド→カメラ非依存ライトフィールド→シーンセントリック型ライトフィールド)を有することによって、異なるフィルターは、完全にカメラ非依存性であり、幾何形状および照明情報の両方が公知であるため、シーンの異なる物理法則を遵守する形でシーン自体に容易に適用され得る。
第2の実施例は、ライトフィールド空間内での拡張現実の実行に関するものである。拡張現実は、追加の/他の情報によるシーンの変化に関するものである。したがって、シーン内の変化と追加すべきコンテンツとの間に直接的な「物理的」リンクが存在する。歩行者レベルで行なわれる、通りのライトフィールドキャプチャの例を取上げてみよう。ここで示される使用事例は、例えば既存の建物などのオブジェクトを別のオブジェクト、例えば建設すべきより新しい建物で置換するというものである。より新しいオブジェクトは、例えば反射性などのテクスチャおよび表面情報を伴うコンピュータが生成した仮想3Dモデルの形をとる。最終目的は、この3Dモデルを完全にライトフィールドキャプチャ内に置き、こうしてそれが現在のオブジェクトに置き換わるようにすることにある。
この目的のために、ライトフィールドのシーンセントリック型表現を得て、以下のプロセスを使用することができる:
1.ユーザーは、キャプチャされたライトフィールドシーン内で建物などのオブジェクトの主要正面を選択する。これにより、シーンの点群表現内にアンカー点が新規作成される
2.システムは、シーン内に仮想3Dモデルを置き、こうしてキャプチャされたライトフィールド内のオブジェクトの主要正面が仮想3Dモデルの主要正面と重複することになる
3.仮想3Dモデルの3D情報およびライトフィールド点群内に格納されている深度情報によって、システムは、どの光線がライトフィールドキャプチャにおいてオブジェクトを表わしているか、ひいてはどの光線を、仮想3Dモデルを表わす光線で置換しなければならないかを推論できる。
4.システムは、仮想3Dモデル光線をシーンの光線とマージさせて、人工的に中に入れられた新しいオブジェクトを用いてシーンの近現実表現を新規作成する。
1.ユーザーは、キャプチャされたライトフィールドシーン内で建物などのオブジェクトの主要正面を選択する。これにより、シーンの点群表現内にアンカー点が新規作成される
2.システムは、シーン内に仮想3Dモデルを置き、こうしてキャプチャされたライトフィールド内のオブジェクトの主要正面が仮想3Dモデルの主要正面と重複することになる
3.仮想3Dモデルの3D情報およびライトフィールド点群内に格納されている深度情報によって、システムは、どの光線がライトフィールドキャプチャにおいてオブジェクトを表わしているか、ひいてはどの光線を、仮想3Dモデルを表わす光線で置換しなければならないかを推論できる。
4.システムは、仮想3Dモデル光線をシーンの光線とマージさせて、人工的に中に入れられた新しいオブジェクトを用いてシーンの近現実表現を新規作成する。
前述の手順は、ライトフィールド内のオブジェクトを追加/変更するために使用することができる。拡張現実シナリオには、通常次の2つのステップが関与している:すなわち、1)単一のライトフィールドキャプチャに基づいて、ユーザーAが、要素を除去するかまたはシーンの物理特性と直接関連づけされる新しい要素を追加することによって、シーンを修正するステップと、2)ユーザーBが、別のライトフィールドキャプチャ(またはそのビデオまたは連続的リアルタイムキャプチャ)を取上げ、先行するユーザー入力に基づいてシーンが自動的に変更される(またはそれ自体アノテーションが付される)ようにするステップである。第1のステップは、上述の4段階手順を用いて行なうことができる。第2のステップには、ユーザーBによりキャプチャされたライトフィールドと共にユーザーAがキャプチャしたライトフィールドを登録することができることが関与している。登録後、我々にはシーンA光線とシーンB光線との間のマッピングが正確に分かる。したがって、上述の手順のステップ番号4を自動的に適用して、シーンのユーザーのA修正に基づくユーザーBのシーンの拡張バージョンを新規作成することができる。これを、ライトフィールドに基づく拡張現実と呼ぶ。
ライトフィールドに基づく減損現実
一部のシナリオでは、シーンを表わすキャプチャされたライトフィールドを修正してそこから現実のオブジェクトを除去することが所望されることが多い。
一部のシナリオでは、シーンを表わすキャプチャされたライトフィールドを修正してそこから現実のオブジェクトを除去することが所望されることが多い。
シーンからオブジェクトを除去するためには、そのシーンについての一定の知識が求められる。例えば、シーンから立方体を除去するには、(カメラの平面位置との関係において)立方体の背後で背景がどのように見えるかをこの方法が知っていることが求められる。
ライトフィールドが有用であり得るのはここにおいてである。実際、我々はシーンが異なる側からどのように見えるかについての情報をより多く有しており、したがって、「オブジェクトの背後」をより容易に再構成できると思われる。
したがって、オブジェクトを除去するには、次の2つの異なるステップが求められる:
1.除去すべきオブジェクトを識別する。これには、ライトフィールドのどの光線がオブジェクトに対応するかを正確に知る必要がある。このプロセスは、セグメンテーションと呼ばれる。
2.オブジェクトの背景をイミテートすると思われる光線により、オブジェクト光線を置換する。これはインペインティングと呼ばれる。
1.除去すべきオブジェクトを識別する。これには、ライトフィールドのどの光線がオブジェクトに対応するかを正確に知る必要がある。このプロセスは、セグメンテーションと呼ばれる。
2.オブジェクトの背景をイミテートすると思われる光線により、オブジェクト光線を置換する。これはインペインティングと呼ばれる。
ここで以下では、以上に説明されたライトフィールドの2つの平面表現における上述の2つのステップの達成方法を提示する。
セグメンテーション
シーンから除去したいオブジェクトにどの光線が属しているかを識別するために、シーンの「意味論的」理解レベルをより高くするように、オブジェクトセグメンテーションと呼ばれるタスクを実施する。そのことについては、先行する節の中で説明されたシーンセントリック型ライトフィールド表現から開始する。
シーンから除去したいオブジェクトにどの光線が属しているかを識別するために、シーンの「意味論的」理解レベルをより高くするように、オブジェクトセグメンテーションと呼ばれるタスクを実施する。そのことについては、先行する節の中で説明されたシーンセントリック型ライトフィールド表現から開始する。
この表現が手中にあることから、我々は、シーンのオブジェクトにより発出されたどの光線が同じオブジェクトに実際に属するかを識別しようとする。それを行なうためには、立体視野からのオブジェクトセグメンテーションに特に由来する複数の方法が存在する。これらの方法は同様に、このシーンセントリック型ライトフィールド事例においても適用可能であり、その主たる利点は、ライトフィールドキャプチャデバイスによってキャプチャされた追加量の情報に起因して、深度推定の質が通常より高いものであるという点にある。これにより、より優れたセグメンテーション結果が生み出される。
シーンセントリック型ライトフィールドについて機能する典型的なオブジェクトセグメンテーションアルゴリズムは、以下のように機能する:
1.3つの次元が点の位置を表わし、他の3つの次元がこの点から出ていく全ての光線の光の強度(または色)の平均である、6Dベクトルとして、各々の光線発出点を表わす。強度を平均する代りに、アルゴリズムは同様にこれらの強度を量子化して、1組の予め決められた方向のうち1つの光線発出方向あたり1つの強度を有するようにすることもできるということも指摘に値する。方向の数をNに設定すると、発出点を表わすN+3次元のベクトルが新規作成されるであろう。
2.色の非一貫性とは異なる幾何形状の非一貫性のコストに対して典型的にウェイトが置かれる距離に基づいて、この6D点セットをクラスタ化する。典型的に、幾何形状の非一貫性のコストにさらにウェイトが置かれる。
3.クラスタ化の結果は、各々がシーン上の異なるオブジェクトを表わすクラスタからなる。アルゴリズムの最後のステップは、シーンの各光線に対して、光線が属するクラスタに対応するオブジェクト識別子を割当てることにある。
1.3つの次元が点の位置を表わし、他の3つの次元がこの点から出ていく全ての光線の光の強度(または色)の平均である、6Dベクトルとして、各々の光線発出点を表わす。強度を平均する代りに、アルゴリズムは同様にこれらの強度を量子化して、1組の予め決められた方向のうち1つの光線発出方向あたり1つの強度を有するようにすることもできるということも指摘に値する。方向の数をNに設定すると、発出点を表わすN+3次元のベクトルが新規作成されるであろう。
2.色の非一貫性とは異なる幾何形状の非一貫性のコストに対して典型的にウェイトが置かれる距離に基づいて、この6D点セットをクラスタ化する。典型的に、幾何形状の非一貫性のコストにさらにウェイトが置かれる。
3.クラスタ化の結果は、各々がシーン上の異なるオブジェクトを表わすクラスタからなる。アルゴリズムの最後のステップは、シーンの各光線に対して、光線が属するクラスタに対応するオブジェクト識別子を割当てることにある。
全ての光線をオブジェクトに関連づけした後、除去すべきオブジェクトを選択しなければならない。これは、例えば、ユーザーに対してシーンの画像を提示し、ユーザーが1つの領域をクリックできるようにすることによって、行なうことができる。シーン上のクリックを背面投影することにより、どのオブジェクトにそのクリックが適用されたかを知り、ひいては、そのオブジェクトに属する光線を識別することができる。
ここで、シーンセントリック型ライトフィールド表現内でのオブジェクトセグメンテーションが有用であると考えられる典型的な使用−事例について説明するだろう:
プレノプティックカメラによりキャプチャされたライトフィールドシーンは特定の角度分解能および空間分解能を有する。両方の分解能共、主としてカメラの固有パラメータに起因する。2つの異なるプレノプティックカメラパラメータでとられた類似のシーンが、異なる角度分解能および空間分解能を有する場合もある。これらのシーンが同じ空間分解能を有すると仮定して、短焦点レンズおよび平均焦点レンズなどの異なるカメラパラメータでキャプチャされたシーン由来のパースペクティブが異なっている場合もある。
所与の短焦点レンズ(例えば24mm)で特定のプレノプティックカメラパラメータを用いて所与のパースペクティブでシーンをキャプチャするカメラマンを仮定する。100mmなどのより長い焦点の第2のレンズで、このカメラマンは再び、別のパースペクティブでシーンをキャプチャする。両方のキャプチャされたシーン上において、検討対象のオブジェクトは前景内に存在するが、2つの異なるパースペクティブビューで見られ得る。ここで、前景が第1の画像の場合と同じパースペクティブを有しているものの背景は第2の画像のパースペクティブを有している状態のシーンをキャプチャすることをカメラマンが望んだと仮定する。
それを達成するためには、1つの可能性は、両方の画像のためのキャプチャ位置を物理的に変更することにある。第1の画像は、複数のカメラパラメータで1つの位置からキャプチャされる。この画像上で、前景は、複数の特別なパースペクティブを有する。第2の画像上では、カメラマンは、前景が第1の画像の場合と類似のパースペクティブを有すること(したがって物理的なキャプチャ位置を調整しなければならない)、ただし背景は別のパースペクティブを有することを望む。そのために、カメラマンは、写真撮影において重要であるこのような視覚的効果をキャプチャできるように、物理的に動き回る必要がある。
このアプローチに対する1つの代替案は、キャプチャ後にシーンを処理することにある。プレノプティックカメラを用いてシーンをキャプチャすることにより、これが可能になる。実際、前景内のオブジェクトを、セグメンテーション技術を用いて背景から隔離することができる。このとき、画像の前景と背景を別個に処理することができ、したがって、フィルターを前景または背景に対して特定的に適用することができる。画像の前景のパースペクティブを変更しないものの背景の光線パラメータを変更して新しいパースペクティブを計算する第2のフィルターを有するフィルターの設計を想像することができる。したがって、計算された画像は、オリジナルのパースペクティブを有する前景と、別のパースペクティブを有する背景とを含む。
計算コストを削減するため、シーンセントリック型表現は、オブジェクトが位置設定されている画像の一部分の上にのみ適用されてもよい。このオブジェクトに関係する全ての光線は、フィルターが適用されるであろう他の光線と区別されるであろう。フィルターは、検討対象のオブジェクトを除いて、シーン上に適用される新しい角度および空間分解能を処理する、特定の焦点レンズなどのカメラパラメータをシミュレートしてよい。
ライトフィールドインペインティング
減損現実処理の最後のステップは、先行ステップにおいて識別された光線を変換して、これらの光線を、あたかも除去すべきオブジェクトの背景により発出されたかのように見せることにある。
減損現実処理の最後のステップは、先行ステップにおいて識別された光線を変換して、これらの光線を、あたかも除去すべきオブジェクトの背景により発出されたかのように見せることにある。
標準的な画像処理の分野においては、画素を、オブジェクトの背後にあると思われるテクスチャと同じように見せるべき画素と置換することを、インペインティングと呼ぶ。ここでは、方法の一般的概念と、それを我々のシーンセントリック型ライトフィールドにいかに適用できるかを提示する。さらなる詳細は、http://hci.iwr.uni−heidelberg.de/Staff/bgoldlue/papers/GW13_cvpr.pdfに見出すことができる(インペインティング実施例は論文の第6節に示されている)。
ライトフィールドのインペインティングの主たる考え方は、ライトフィールドの欠落した情報を回復するというものである。一つの事例において、欠落した情報は、選択されたオブジェクトの光線により表わされる部域である。これらのオブジェクト光線が欠落していると仮定することによって、これらの光線を除去することができ、ライトフィールドを再構成することができる。この問題については、欠落領域□が、Fという名前のキャプチャされたライトフィールドから前もって除去されたオブジェクトの光線に対応することを仮定して、以下でより正式に記載される。
第2の実施例として、光線空間に対するインペインティングについて論述する。
を、入力されたライトフィールドFが未知である光線空間の一領域とする。最終目的は、欠落した値を復元する関数Uを回復することにある。このため、以下の式が見出される:
この最適化/正則化の問題を解決することで、背景により発出された異なる光線がどのようなものであるかについての解答が得られる。したがってシーンは、以前と同じシーンに見えるもののオブジェクトは存在しない回復されたライトフィールドを用いて再度レンダリングされることができる。
クロッピング
プレノプティック画像のクロッピングは、4つのパラメータRx、Ry、U、Vの範囲を選択することに対応する。Rx−Ry平面上でクロッピングを実施することに類似している2D画像クロッピングに加えて、プレノプティッククロッピングは、U−V平面ならびにRx−Ry平面上で画像をクロッピングできるようにする。各パラメータRx、Ry、U、Vについての範囲を設定して、全ての光線セットから光線のサブセットを選択することができる。考えられるクロッピングの実装は、角度に基づくクロッピングであり、これはオブジェクトのビューイング角度を制限できるようにする。それは、ユーザーがプレノプティック画像上にプレノプティックアノテーションを添付して、このアノテーションが一定のビューイング部域のみから出現するようにする場合に使用されてよい。角度に基づくクロッピングは、添付されたオブジェクトの3D位置(x、y、z)および2つの角度(ψ、θ)の入力をとって、ビューイング部域を制限し、Rx−RyおよびU−Vの対応する範囲を出力する。
プレノプティック画像のクロッピングは、4つのパラメータRx、Ry、U、Vの範囲を選択することに対応する。Rx−Ry平面上でクロッピングを実施することに類似している2D画像クロッピングに加えて、プレノプティッククロッピングは、U−V平面ならびにRx−Ry平面上で画像をクロッピングできるようにする。各パラメータRx、Ry、U、Vについての範囲を設定して、全ての光線セットから光線のサブセットを選択することができる。考えられるクロッピングの実装は、角度に基づくクロッピングであり、これはオブジェクトのビューイング角度を制限できるようにする。それは、ユーザーがプレノプティック画像上にプレノプティックアノテーションを添付して、このアノテーションが一定のビューイング部域のみから出現するようにする場合に使用されてよい。角度に基づくクロッピングは、添付されたオブジェクトの3D位置(x、y、z)および2つの角度(ψ、θ)の入力をとって、ビューイング部域を制限し、Rx−RyおよびU−Vの対応する範囲を出力する。
光線強度の修正
プレノプティック画像の光線強度は、包括的および局所的に修正可能である。
プレノプティック画像の光線強度は、包括的および局所的に修正可能である。
包括的な光線強度修正は、ユーザーがプレノプティック画像の輝度、カラーバランス、コントラスト、飽和などを調整できるようにし、修正は全ての光線に対して均一に適用される。色ヒストグラムを分析し最適化することによる自動的画像増強などのより進歩した処理も同様に、プレノプティック画像に対して実施することができる。
局所的光線強度修正によって、ユーザーは、シーン(すなわちRx−Ry平面)および視点(すなわちU−V平面)の両方に関しプレノプティック画像の興味を引かれる領域を選択し、その後、選択された領域内で以上に列挙した修正を適用することができるようになる。
光線のフィルタリング
2D画像のフィルタリングと同様に、プレノプティックデータに対してフィルターを適用することも可能である。ガウシアンぼかしフィルターなどのローパスフィルターは、ライトフィールド内の光線の拡散として解釈される。2D画像のフィルタリングは、1つの画像および2Dフィルターエレメントの畳み込みとして表わされ、同様にプレノプティックデータのフィルタリングは、プレノプティック画像および4Dフィルターエレメントの畳み込みとして表わされる。
2D画像のフィルタリングと同様に、プレノプティックデータに対してフィルターを適用することも可能である。ガウシアンぼかしフィルターなどのローパスフィルターは、ライトフィールド内の光線の拡散として解釈される。2D画像のフィルタリングは、1つの画像および2Dフィルターエレメントの畳み込みとして表わされ、同様にプレノプティックデータのフィルタリングは、プレノプティック画像および4Dフィルターエレメントの畳み込みとして表わされる。
図13は、単一点(Rx、Ry)を通過しU−V平面に衝突する光線を拡散させる、U−V平面用のガウシアンフィルターの一例を示す。
結果として、フィルターFを用いてフィルタリングされたオブジェクトAは、図14でA’により描かれている通り、ぼやけて見える。この例では、図から認識できるように、Rx−Ry平面近くのオブジェクトはさほどぼやけなくなり、平面から遠いオブジェクトは、さらにぼやけた状態となる。その上、適切なフィルターエレメントを構築することにより、他の全てのオブジェクトをぼかしながら一定の深度にあるオブジェクトを鮮明に維持することが可能である。
サイズ変更
プレノプティック画像のサイズ変更は、パラメータの単位の大きさ変更として定義づけされる。2D画像のサイズ変更と同様に、図15に示されたオブジェクトAをサイズ変更するためのサイズ変更プロセスRは、1本の軸上の値を、この値と倍率の積へと変換する。
プレノプティック画像のサイズ変更は、パラメータの単位の大きさ変更として定義づけされる。2D画像のサイズ変更と同様に、図15に示されたオブジェクトAをサイズ変更するためのサイズ変更プロセスRは、1本の軸上の値を、この値と倍率の積へと変換する。
例えば、(σ1、σ2、σ3、σ4)=(0.5、1、0.5、1)である場合には、出力は全ての視点においてRx(またはU)方向に半分に収縮したように見える。図17は、Rx−RyおよびU−V平面を半分にサイズ変更する略図を示す。
平面の垂直方向並進移動
キャプチャされたシーンの光線は、2つの平面表現においてRx、Ry、U、Vによりパラメータ化され、U−V平面は、ビューイング位置を表わす。平面上で任意にビューイング位置を変動させ、対応するRx、Ry値を獲得することができる。しかしながら、平面内部を移動することだけでなく平面外を移動することが所望される可能性もある。このようなケースは、1つのオブジェクトに近づけるようにビューイング位置を移動させようとする場合に発生する。
キャプチャされたシーンの光線は、2つの平面表現においてRx、Ry、U、Vによりパラメータ化され、U−V平面は、ビューイング位置を表わす。平面上で任意にビューイング位置を変動させ、対応するRx、Ry値を獲得することができる。しかしながら、平面内部を移動することだけでなく平面外を移動することが所望される可能性もある。このようなケースは、1つのオブジェクトに近づけるようにビューイング位置を移動させようとする場合に発生する。
ビューイング位置をU−V平面の外の1点へと変更するためには2つの平面をその直交する軸に沿ってシフトさせる必要があることから、光線パラメータ全てを再計算することが必要になる。新しいパラメータの計算は、以下の通りに実施できると考えられる:
a)2つの平面をシフトさせて、新しい視点が、その直交する軸に沿ってU−V平面上に存在するようにする、
b)全ての光線について、2つの平面との新しい交点を計算する。
a)2つの平面をシフトさせて、新しい視点が、その直交する軸に沿ってU−V平面上に存在するようにする、
b)全ての光線について、2つの平面との新しい交点を計算する。
これは一次演算であることから、計算は、入力パラメータのベクトルに対する行列乗算として記述可能である。行列の値は、2つの平面間の距離δおよび並進移動係数zから計算される。図16は、略図および並進移動行列を簡単に示している。
再焦点合せ
キャプチャされたライトフィールドは、特定のオブジェクト焦平面を用いて取上げられてよい。同じ物理的点からの異なる方向に由来する光線がキャプチャされることから、光線を再配置して再焦点合せを再度作り出すことができる。
キャプチャされたライトフィールドは、特定のオブジェクト焦平面を用いて取上げられてよい。同じ物理的点からの異なる方向に由来する光線がキャプチャされることから、光線を再配置して再焦点合せを再度作り出すことができる。
デバイス非依存表現においては、これは、Rx−Ry平面を移動させこの新しい平面と光線との新しい交差を計算することによって行なうことができる。このプロセスは、非依存表現を構築する場合に必要である正規化プロセスと同等であることを指摘することができる。
プレノプティックデータの融合
以上の節で説明した通り、ライトフィールドは有限数のパラメータで構成されている。2つの平面表現の例では、光線は、U−V平面およびRx−Ry平面との交差についての4つのパラメータ、およびその光線強度によって記述される。4つの交差パラメータの座標値は、2つの平面表現または球表現のような異なる表現に対応し得る。こうして、2つのプレノプティック画像に対応するデータを融合させる場合には、それらの表現が異なっている場合を考慮に入れる必要がある。
以上の節で説明した通り、ライトフィールドは有限数のパラメータで構成されている。2つの平面表現の例では、光線は、U−V平面およびRx−Ry平面との交差についての4つのパラメータ、およびその光線強度によって記述される。4つの交差パラメータの座標値は、2つの平面表現または球表現のような異なる表現に対応し得る。こうして、2つのプレノプティック画像に対応するデータを融合させる場合には、それらの表現が異なっている場合を考慮に入れる必要がある。
第2の表現にある第2のプレノプティックデータを第1の表現にある等価のデータに変換し、第1の表現内で2つのデータを融合させることにより、異なる表現を有する2つのプレノプティックデータをマージまたは融合することができる。データ表現に応じて、変換済データのサンプリングは、第2のデータのサンプリングと同じでない場合がある。この場合、異なるサンプリングに対処するため、プレノプティックデータに対し量子化を適用する必要があり得る。
量子化プロセスにおいて、各パラメータは、座標内の2つのサンプリング点の距離に対応するサイズを有する小さい値域に割当てられる。例えば、Rx軸上のサンプル数が640であるならば、Rx軸上でマージすべき部域は640個の値域に分けられ、この部域に衝突する各光線のRx値は値域の1つに量子化される。2つの異なる光線が同じ値域へと量子化される場合が発生する可能性があり、これはすなわち、元来異なっている光線の全ての量子化済みパラメータが同一になることを意味している。この場合、融合プロセスについて決定を行なう必要があり、このプロセスは例えば、一定の基準に基づいて光線の1つを選択すること、またはそれらをマージして平均光線強度を得ることであり得る。別の問題として、全ての値域に強度値が充填されない場合もあり、一部は空のままにとどまる。この場合、空値域における値は、隣接する値域による補間を用いて充填されるか、または値無しのままとどまらせることができる。さまざまな補間方法が考えられる。双一次補間が一例である。
ライトフィールド記憶装置
2つの平面表現内の光線の強度値は、4つのパラメータ(例えばRx、Ry、U、V)を用いてパラメータ化されることから、全ての強度値およびその対応するパラメータを記憶することにより、キャプチャされたライトフィールド全体を記憶することができる。4つのパラメータは、任意の実数値をとることができる。赤色、緑色および青色の各々についての強度値、あるいはHSVまたはCMYKなどの他の表現での任意の他の値を定義することができる。したがって、行が各光線に対応し列がそれぞれ各パラメータまたは強度値に対応する行列様のフォーマットで、ライトフィールドを記憶することができる。光線が1つの強度値を有することを仮定すると、行列のサイズは記憶すべき光線の数の5(すなわち4パラメータ+1強度値)倍に等しい。
2つの平面表現内の光線の強度値は、4つのパラメータ(例えばRx、Ry、U、V)を用いてパラメータ化されることから、全ての強度値およびその対応するパラメータを記憶することにより、キャプチャされたライトフィールド全体を記憶することができる。4つのパラメータは、任意の実数値をとることができる。赤色、緑色および青色の各々についての強度値、あるいはHSVまたはCMYKなどの他の表現での任意の他の値を定義することができる。したがって、行が各光線に対応し列がそれぞれ各パラメータまたは強度値に対応する行列様のフォーマットで、ライトフィールドを記憶することができる。光線が1つの強度値を有することを仮定すると、行列のサイズは記憶すべき光線の数の5(すなわち4パラメータ+1強度値)倍に等しい。
しかしながら、プレノプティックデータは通常、恒常な間隔で並置された普通の画像形成センサーを用いてキャプチャされることから、カメラの構造についてのこの先験的知識を活用して、求められる記憶装置を最適化することができる。こうして、この条件の下で、キャプチャされたプレノプティックフィールドを記憶するために従来の画像フォーマットを使用することが有利であり得る。このフォーマットでは、本明細書の冒頭で提示された2つの平面表現が充分好適である。
画像様のフォーマットを用いてライトフィールドを記憶するためには、2つの平面表現パラメータが既知であることが必要である。これらのパラメータは同様に、メタデータを用いて画像内に記憶できるが、カメラ非依存表現が必要であることから、パラメータは通常先験的に既知である。これらのパラメータとしては、2つの平面間の距離および光線のサンプリングレート(マイクロレンズおよび画像形成センサーパラメータに対応する)が含まれる。
表現パラメータを固定させることにより、2つの平面間で表わされた異なる光線をシーンに全く依存しないものにすることになる。実際、シーンBとは異なるシーンAは、2つの平面により表わされる光線方向を有する。唯一の変化は光線強度にあり、この強度は異なるオブジェクトを表わしているため、明らかに変化するだろう。
このような2つの平面表現を記憶するためには、従来の画像フォーマットを使用できる。画像は画素で構成され、各画素は、U−V平面に衝突する光線を表わす。画像の2Dデカルト座標系は、U−V平面座標系に直接マッピングされ、U−V平面とこの画像記憶装置との間の関係を全く単純なものにする。画像の画素数は、U−V平面のサンプリングレートに直接対応し、このサンプリングレートはこのU−V平面に衝突する光線の数に等しい。
表現の特性を活用することにより、ライトフィールドを効率良く記憶するためのフォーマットを球表現などの別のタイプの表現のために構築することができる。
リアルタイムシステム内でこの記憶装置フォーマットを活用するためには、1本の光線に対応する画像内の画素とその光線方向とを対応させる予め計算されたルックアップテーブルを使用することができる。これにより、実行時に光線方向を得ることは、全てのキャプチャされたライトフィールドに共通の予め計算されたルックアップテーブルから値をリトリーブすることに帰着する。
プレノプティックデータの視覚化
記憶された光線の視覚化は、光線により表わされるシーンを人間が感知できるようにするために必要なステップである。視覚化は、例えばホログラフィによる視覚化などのさまざまな形で実施可能であるが、この節では、一般性を失なうことなく、単一の/多数の2D画像としてシーンを視覚化する普通の2D視覚化(すなわちレンダリング)を考慮する。2つの平面表現の我々の実施例における記憶されたライトフィールドは、2D表面上の一定のビューイング位置に衝突する4D光線を投射することによって視覚化することが可能である。表面と各光線の交点をサーチし2D画像の対応する画素内にその強度値を割当てることによって、2D画像が生成される。最も単純な例は、Rx−Ry、U−V表現に記憶されたライトフィールドのレンダリングである。この場合、Rx−Ry平面は、光線が投射される表面(すなわち画像平面)に対応し、UV平面上の点が、ビューイング位置に対応する。UV平面上の点(U、V)において交差する各光線の強度値を、画像平面上の点(Rx、Ry)へと割当てることにより、ビューイング位置(U、V)から見たキャプチャされたシーンのレンダリング済み画像が得られる。
記憶された光線の視覚化は、光線により表わされるシーンを人間が感知できるようにするために必要なステップである。視覚化は、例えばホログラフィによる視覚化などのさまざまな形で実施可能であるが、この節では、一般性を失なうことなく、単一の/多数の2D画像としてシーンを視覚化する普通の2D視覚化(すなわちレンダリング)を考慮する。2つの平面表現の我々の実施例における記憶されたライトフィールドは、2D表面上の一定のビューイング位置に衝突する4D光線を投射することによって視覚化することが可能である。表面と各光線の交点をサーチし2D画像の対応する画素内にその強度値を割当てることによって、2D画像が生成される。最も単純な例は、Rx−Ry、U−V表現に記憶されたライトフィールドのレンダリングである。この場合、Rx−Ry平面は、光線が投射される表面(すなわち画像平面)に対応し、UV平面上の点が、ビューイング位置に対応する。UV平面上の点(U、V)において交差する各光線の強度値を、画像平面上の点(Rx、Ry)へと割当てることにより、ビューイング位置(U、V)から見たキャプチャされたシーンのレンダリング済み画像が得られる。
ビューイング位置は、任意の位置に置くことができる。ビューイング位置の変更は、パースペクティブシフトと呼ばれる。例えば、Rx−Ry−U−V表現の場合、パースペクティブシフトは、ビューイング点(U、V)をU−V平面上の別のビューイング点(U’、V’)へと変更することによって行なわれる。パースペクティブシフトを用いてライトフィールドをレンダリングすることによって、カメラ位置が新しい位置に並進移動するという視覚的効果が誘発される。
スクリーン上にシーンの2D画像を表示するためと同時に、より進んだ使用事例のために、ライトフィールドレンダリングを使用することもできる。例えば、瞳孔間距離を離した状態で2つのビューイング位置から2つの画像を生成しそれぞれ右眼のために一方をそして左眼のために他方を表示することによって、1つのシーンの3Dビューがシミュレートされる。シャッター3Dシステムおよびオートステレオスコピーなどの、立体画像を表示するための技術がすでに存在している。
構図を変えた2D画像としてユーザーにデータを提示するために、プレノプティックビューワを使用することができる。プレノプティックシーンを特定の焦点に再度焦点合せするか、またはシーン視点を変更する可能性がユーザーに与えられる。プレノプティックビューワは、プレノプティックデバイスによりキャプチャされた光線を、解釈することなく直接使用し、したがって、3D再構成の場合のようなエラーを発生させない傾向にある。実際、光線のこの直接的使用は、シーンオブジェクトの反射性またはテクスチャについていかなる仮定も行なわない。
焦点の変更は、提示された2D画像内の1点を直接クリックしてその点に焦点を調整することにより行なうことができる。代替的には、ユーザーは、スクロールホイールを使用して、シーン内の焦点を変更することが考えられる。これは、焦点合せされた状態にある点が鮮明で、残りがぼやけている画像のスキャンと視覚的に類似している。1つの焦点距離において画像を再度焦点合せするこの能力には、閉塞によって隠されたオブジェクトの背後を見るという特性があることを指摘しておきたい。ユーザーから見ると、これは、閉塞が存在するか否かに関わらず異なる焦平面に沿ってシーンをスキャンすることに類似している。これは、このようなプレノプティックビューワを使用することで、繁みを貫通してまたは密度の高い粒子体積を貫通して見ることができる強力な特性である。
プレノプティックビューワは同様に、3D空間内で視点を変更することによって、異なるビューをレンダリングすることもできる。視点の変更は、例えばシーン上のユーザーのマウスのクリックアンドドラグ動作によりトリガーされ得る。このようにして、プレノプティックビューワは、マウスボタンが解放されるまで、マウスの新しい位置に応じてビューイング位置を変更する。代替的には、押圧されたキーに応じてビューイング位置を変更するためのトリガーとして、キーボードのキーを使用できると思われる。単純な実施例は、この動作のためにキーボードの矢印を使用することであると思われる。
ひとたびシーンの焦点およびビューイング位置について決定を下した時点で、ユーザーは、次にシーン要素をアノテートすることができる。ユーザーは、プレノプティックビューワの現在の2Dビュー内で焦点合せされた状態にあるシーン要素に対してのみアノテーションを添付してよく、これはユーザーにとってより意味あることである。ユーザーは同様に、2Dビューのぼやけた部分にもアノテートすることができると思われる。
シーンにアノテートするために、ユーザーは、2Dビューワ上でアノテーションをドラグアンドドロップしてよい。アノテーションは、考えられるアノテーションのリストから取上げるか、またはビューワにアップロードするか、またはオンザフライで新規作成することができる。選択されたアノテーションは、プレノプティックビューワ内に結合された状態で現われる。システムは光線をシーン光線と適正にマージした。その後ユーザーは、プレノプティックシーン環境内で直接それに対していくつかの変換を適用することができる。変換は、3D並進、回転またはスケーリングであり得る。これらの変換は例えば、ボタンまたはキーボードのキーによってトリガーされる。
プレノプティックビューワの場合には、アノテーションとシーンとの間の光線のマージは、ビューワが光線情報を用いて直接機能することから、アノテーションレベルにおいて直接行なわれる。
記録されたプレノプティックデータは、3Dビューワでも同様に視覚化可能である。記録されたシーンは、3つの次元でシフトされ操作され得る。それにより、ユーザーは、シーン空間内へ直感的にナビゲートすることができる。現実世界の一部分しかキャプチャされていないため、再構成された3Dシーンは、そのシーンの一部のデータが欠落していることからひび割れ状態(crackled)になる場合がある。
キャプチャされた光線の全てを用いて、この3Dマップを計算してよい。生成されたカラー画素の各々は、この3D空間内に位置づけされるだろう。プレノプティック画像は後で焦点合せ可能であるという重要なフィーチャを有する。換言すると、ユーザーは、どの部域を焦点合せしたいかを選択することができる。したがって、記憶されたデータも同様に、異なる最も鮮明な部域を伴う画像スタックとして見ることができるようになる。各々の画像焦点距離(image focal distance)を用いて、それらの相対的位置を知ることができる。このスタックからの画像を全て使用して、3Dマップを計算する。各画像について、最も鮮明な部域からの画素のみが考慮され、選択された画像焦点距離が知られていることから、これらの画素を3Dマップへと再度位置づけすることができると思われる。この計算されたマップは、複数の平面上に位置づけされた多数の画像からの画素で構成され得、深度の印象を与えている。現在、文献中では、プレノプティック画像を用いて高機能の3Dマップを計算するためのより進化した技術が存在している。この分野では、研究分野がかなり活発である。プレノプティックカメラの重要な利点は角度分解能にあることから、可能なかぎり部分的閉塞を削減して、進化したマップを構築することができる。
ARがプレノプティック空間において有利な適用
顕微鏡検査の分野
顕微鏡検査は、恐らく、プレノプティック技術の使用が現在最もふさわしい分野である。標準的な光学系は、光学的な制限(浅いフィールド深度、細胞またはニューロンにとって過度に長い露光…)に起因して効率の良い解決法を提示できないでいる。例えば、細胞の分析は、細心の注意を要するプロセスであることから、細胞の標識づけによってアノテーションが可能であるというのは、強力な利点である。
・ プレノプティックは、フィールド深度を(6倍)増大させる。
・ 閉塞がある場合、プレノプティックは、他の深度デバイスでは不可能である異なる層において情報を解像できる。
・ プレノプティックは、一度により多くの視野角をキャプチャすることから、細胞の露光を短縮する(生きたニューロンにとって良いことである)。
・ プレノプティックは画像の分解能を(8倍)増大させる。
・ 現実的なアノテーションの必要は全く無い。
顕微鏡検査の分野
顕微鏡検査は、恐らく、プレノプティック技術の使用が現在最もふさわしい分野である。標準的な光学系は、光学的な制限(浅いフィールド深度、細胞またはニューロンにとって過度に長い露光…)に起因して効率の良い解決法を提示できないでいる。例えば、細胞の分析は、細心の注意を要するプロセスであることから、細胞の標識づけによってアノテーションが可能であるというのは、強力な利点である。
・ プレノプティックは、フィールド深度を(6倍)増大させる。
・ 閉塞がある場合、プレノプティックは、他の深度デバイスでは不可能である異なる層において情報を解像できる。
・ プレノプティックは、一度により多くの視野角をキャプチャすることから、細胞の露光を短縮する(生きたニューロンにとって良いことである)。
・ プレノプティックは画像の分解能を(8倍)増大させる。
・ 現実的なアノテーションの必要は全く無い。
粒子速度測定
3D軌道の測定は、複数の分野において対処が困難な問題である。水などの同じ体積内で多数の粒子の軌道を追跡する場合、全ての異なる経路を分析することは冗長な作業となる。プレノプティックデバイスは、何千ものミクロアイでシーンを見て、したがって粒子運動中に出現する多数の閉塞を解像できるという強力な利点を有する。リアルタイム追跡のためにシーン内で粒子をアノテートする可能性を追加することには、強力な利点がある。
・ 閉塞がある場合、プレノプティックは、より良い3D軌道分析のため、異なる層において情報を解像することができる。
・ 多数の非常に正確に整列されたカメラを用いた複雑な較正の必要はもはや全く無い。ただひとつのカメラだけをセットアップする必要がある。
・ 現実的アノテーションの必要は全く無い。
・ 水族館の魚の水中分析。
3D軌道の測定は、複数の分野において対処が困難な問題である。水などの同じ体積内で多数の粒子の軌道を追跡する場合、全ての異なる経路を分析することは冗長な作業となる。プレノプティックデバイスは、何千ものミクロアイでシーンを見て、したがって粒子運動中に出現する多数の閉塞を解像できるという強力な利点を有する。リアルタイム追跡のためにシーン内で粒子をアノテートする可能性を追加することには、強力な利点がある。
・ 閉塞がある場合、プレノプティックは、より良い3D軌道分析のため、異なる層において情報を解像することができる。
・ 多数の非常に正確に整列されたカメラを用いた複雑な較正の必要はもはや全く無い。ただひとつのカメラだけをセットアップする必要がある。
・ 現実的アノテーションの必要は全く無い。
・ 水族館の魚の水中分析。
植物成長分析
研究者が植物の進化を分析し新しい解決法を調査する植物分析研究所のおかげで、新しい植物種の効率の良い創出が可能である。3D解析に対する必要性は強いものであるが、栽培は、例えば光が重要なパラメータである管理された環境内で行なわれる。プレノプティック技術は、押しつけがましくなく、ロバストな3Dモデルを再構成するために照明条件を修正する必要がないことから、このような管理された環境における3D解析のこの問題を充分解決してくれる。公知の特性として、プレノプティックデバイスは、同様にこの分野における主要な関心の的である多数の閉塞にもうまく対処する。
・ プレノプティックカメラは、シーンの現在の照明を用いて、3D情報を解像することができる。このようなシナリオでは、シーンに照明を追加することで、プランテーション開発は改変されるだろう。
・ 閉塞がある場合、プレノプティックは、より良い3D解析のため異なる層において情報を解像することができる。
・ 現実的アノテーションの必要が全くない。
研究者が植物の進化を分析し新しい解決法を調査する植物分析研究所のおかげで、新しい植物種の効率の良い創出が可能である。3D解析に対する必要性は強いものであるが、栽培は、例えば光が重要なパラメータである管理された環境内で行なわれる。プレノプティック技術は、押しつけがましくなく、ロバストな3Dモデルを再構成するために照明条件を修正する必要がないことから、このような管理された環境における3D解析のこの問題を充分解決してくれる。公知の特性として、プレノプティックデバイスは、同様にこの分野における主要な関心の的である多数の閉塞にもうまく対処する。
・ プレノプティックカメラは、シーンの現在の照明を用いて、3D情報を解像することができる。このようなシナリオでは、シーンに照明を追加することで、プランテーション開発は改変されるだろう。
・ 閉塞がある場合、プレノプティックは、より良い3D解析のため異なる層において情報を解像することができる。
・ 現実的アノテーションの必要が全くない。
ストリートビュー広告
以下の点は、さらに検討を行なう必要のある使用事例である。照明分析などの一部の技術的問題は、技術に関する我々の現在の理解によってはまだ対処できないと思われる。
以下の点は、さらに検討を行なう必要のある使用事例である。照明分析などの一部の技術的問題は、技術に関する我々の現在の理解によってはまだ対処できないと思われる。
商店のショーウィンドウの反射を除去するためにプレノプティック技術を使用すること。正確な位置づけのためVidinoti−1&Vidinoti−7の組合せを用いた商店のショーウィンドウ上の現実的広告(例えば、ストリートビュー)。
現実的な設計およびアーキテクチャ
アーキテクチャシミュレーション、シーンの照明の中での調度/壁の色など、アノテーションが適用されている表面のテクスチャをイミテートすることにより、現実的なアノテーションを創出すること。放送されるスポーツイベント中の、押しつけがましくない(うまく一体化されていることを意味する)広告(例えばホッケーの試合中の氷上の広告)。
アーキテクチャシミュレーション、シーンの照明の中での調度/壁の色など、アノテーションが適用されている表面のテクスチャをイミテートすることにより、現実的なアノテーションを創出すること。放送されるスポーツイベント中の、押しつけがましくない(うまく一体化されていることを意味する)広告(例えばホッケーの試合中の氷上の広告)。
電話呼出し用の3Dアバター
電話呼出し中のオンザフライ・クィック3Dアバター
電話呼出し中のオンザフライ・クィック3Dアバター
上述の方法のさまざまなオペレーションは、オペレーションを実施することのできる任意の好適な手段、例えばさまざまなハードウェアおよび/またはソフトウェアコンポーネント(単複)、回路および/またはモジュール(単複)によって、実施されてよい。概して、本願記載のいずれのオペレーションも、オペレーションを実施することのできる対応する機能的手段により実施されてよい。さまざまな手段、論理ブロックおよびモジュールは、回路、特定用途向け集積回路(ASIC)または汎用プロセッサ、デジタルシグナルプロセッサ(DSP)、特定要素向け集積回路(ASIC)、フィールドプログラマブルゲートアレーシグナル(FPGA)または他のプログラマブル論理デバイス(PLD)、離散的ゲートまたはトランジスタ論理、離散的ハードウェアコンポーネントまたは本明細書中に記載の機能を果たすように設計されたその任意の組合せを含めた(ただし、これらに限定されない)さまざまなハードウェアおよび/またはソフトウェアコンポーネント(単複)および/またはモジュール(単複)を含んでいてよい。
本明細書中で使用される「〜を決定する」という用語は、多様な動作を包含する。例えば、「〜を決定する」には、計算する(calculating、computing)、処理する、導出する、調査する、探索する(例えば表、データベースまたは別のデータ構造内を探索する)、確認する、推定することなどが含まれていてよい。同様に、「〜を決定する」には、受信する(例えば情報を受信する)、アクセスする(例えばメモリー内のデータにアクセスする)ことなども含まれていてよい。同様に、「〜を決定する」には、解像する、選択する(selecting、choosing)、立証することなども含まれていてよい。
本開示に関連して説明された方法またはアルゴリズムのステップは、ハードウェアにおいて直接、プロセッサにより実行されるソフトウェアモジュールにおいて、またはこれら2つの組合せにおいて具体化されてよい。ソフトウェアモジュールは、従来技術において知られている任意の形態の記憶媒体中に存在していてよい。使用され得る記憶媒体のいくつかの例としては、ランダムアクセスメモリー(RAM)、読取り専用メモリー(ROM)、フラッシュメモリー、EPROMメモリー、EEPROMメモリー、レジスター、ハードディスク、リム−バブルディスク、CD−ROM、などが含まれる。ソフトウェアモジュールは、単一の命令、または多くの命令を含んでいてよく、複数の異なるコードセグメント全体にわたり、異なるプログラム中で、および多数の記憶媒体を横断して、分布していてよい。ソフトウェアモジュールは、実行可能プログラム、完全なプログラム内で使用される一部分またはルーチンまたはライブラリ、複数の相互接続されたプログラム、多くのスマートフォン、タブレットまたはコンピュータにより実行される「apps」、ウィジェット、フラッシュアプリケーション、HTMCコードの一部分などで構成されていてよい。記憶媒体はプロセッサに結合されて、プロセッサが記憶媒体から情報を読取りかつそれに対し情報を書き込むことができるようにしている。代替案では、記憶媒体はプロセッサと一体化していてよい。データベースは、SQLデータベース、XMLドキュメントセット、セマンティックデータベース、またはIPネットワーク上で入手可能な情報セットを含む任意の構造化されたデータコレクション、または他の任意の好適な構造として実装されてよい。
こうして、一部の態様は、本明細書中で提示されたオペレーションを実施するためのコンピュータプログラム製品を含んでいてよい。例えば、このようなコンピュータプログラム製品は、命令が記憶された(および/またはコード化された)コンピュータ可読媒体を含んでいてよく、命令は本明細書中に記載のオペレーションを実施するために1つ以上のプロセッサにより実行可能である。一部の態様については、コンピュータプログラム製品は、パッケージング材料を含んでいてよい。
クレームは以上で例示された精確な機器構成および構成要素に限定されないということを理解すべきである。
クレームの範囲から逸脱することなく、上述の方法および装置の配置、オペレーションおよび詳細においてさまざまな修正、変更および変化がなされてよい。
1 プレノプティックカメラ
10 主レンズ
12 マイクロレンズアレイ
14 焦平面
16 マイクロカメラ
160 マイクロカメラ平面
19 合成光学軸
10 主レンズ
12 マイクロレンズアレイ
14 焦平面
16 マイクロカメラ
160 マイクロカメラ平面
19 合成光学軸
本発明は、ライトフィールド処理方法に関する。
ライトフィールドをキャプチャするデバイスは、益々一般的なものになってきている。ライトフィールドは多くの場合、プレノプティックカメラを用いてキャプチャされる。プレノプティックカメラの一般的な例としては、例えばライトロカメラ(Lytro camera)がある。
各プレノプティックカメラは、キャプチャしたライトフィールドをカメラ依存フォーマットで表わすデータを生成する。例えば、ライトロカメラは、ライトフィールドを一連の行列によって表わし;各行列は、さまざまな方向からマイクロレンズ(micro lens)に到達する光の強度を示す複数のセルを含む。セルの数はマイクロレンズの数に対応する。
キャプチャされた情報のフォーマットは各デバイス毎に異なっていることから、1組の異なるプレノプティックカメラによりキャプチャされたライトフィールドデータに対して処理を適用するのは面倒なことである。
Marc LevoyおよびPat Harahanによる刊行物「ライトフィールドレンダリング」は、利用可能な画像を単に組合せ再度サンプリングするだけで、深度情報もフィーチャ整合もなく任意のカメラ位置由来の新しいビューを生成するための方法を開示している。この技術の秘訣は、4D関数の2Dスライス(ライトフィールド)として入力画像を解釈するという点にある。この関数は、固定照明を伴う静的シーン内の閉塞されていない空間を通る光の流れを、完全に特徴付ける。ライトフィールドのためのサンプリングされた表現が説明されている。ライトフィールドは、レンダリングされると同時にデジタル化された画像の大きいアレイから創出される。これらの画像は、コンピュータ制御型ガントリ上に組付けられたビデオカメラを用いて獲得される。ひとたびライトフィールドが創出されると、適切な方向でスライスを抽出することによってリアルタイムで新しいビューを構築してよい。非常にわずかな忠実性損失で、生成されたライトフィールドを圧縮することのできる圧縮システムが記載されている。
Tomoyuki Yamamotoらによる刊行物「インテグラルフォトグラフィーを用いた3Dシーンのリアルタイム捕捉およびインタラクティブ合成」は、リアルタイムで動的3Dシーンを捕捉しその任意のビューを合成することのできるシステムを開示する。システムは、4つの構成要素すなわちフレネルレンズ、マイクロレンズアレイ、IEEE1394デジタルカメラ、およびレンダリングを目的とするPCで構成されている。マイクロレンズアレイは、基本的画像、換言するとシーンの多重視点画像の1つの組からなる1つの画像を形成する。フレネルレンズは、3Dシーンを縮小することにより、被写界深度を制御する。圧縮されたシーンからオリジナルシーンを回復する方法が提案されている。IEEE1394デジタルカメラは、毎秒15フレームの速度で多重視点画像を捕捉し、これらの画像をPCに転送する。PCは、画像に基づくレンダリング技術を用いて、多重視点画像から捕捉されたシーンの任意のパースペクティブを合成する。提案されたシステムは、捕捉されたシーンの1つのパースペクティブを1/15秒以内で合成する。これはすなわち、ユーザーがインタラクティブにその視点を移動させ、移動するオブジェクトでさえさまざまな方向から観察できることを意味する。
Insung Ihmらによる刊行物「球面ライトフィールドのレンダリング」は、球に基づく、プレノプティック関数の球面ライトフィールドと呼ばれる表現スキームについて開示している。光の流れを表現し再サンプリングする上で球を効率良く使用できることが示されている。従来の多角形レンダリングシステム内に容易に埋込むことのできる「オブジェクト空間」アルゴリズムであるという点において、先のシステム、ライトフィールドおよびルミグラフとは異なるものである、画像に基づくレンダリングアルゴリズムが開示されている。この方法は、ビューイングおよびスムーズシェーディングなどの原始的機能性を支援する3Dグラフィックスボードによって容易に加速可能である。球面ライトフィールドのサンプリングの結果もたらされる莫大なデータの圧縮のためのウェーブレットに基づくコード化スキームも同様に開示されている。
国際公開第2008134901号は、通信端末に付随するデジタルカメラを用いて第1の画像が撮影される、画像に基づく情報リトリーブ方法を開示している。第1の画像に関係する問合せデータが、通信網を介して遠隔認識サーバーに伝送される。遠隔認識サーバーでは、問合せデータに基づいて基準画像が識別される。その後、遠隔認識サーバー内で、基準画像および問合せデータに基づいてホモグラフィが計算され、ホモグラフィは第1の画像に対し基準画像をマッピングする。その上、遠隔認識サーバーでは、第2の画像が選択され、ホモグラフィを用いて第2の画像の投影画像が計算される。第1の画像の一部分を投影画像の少なくとも一部分と置換することにより、拡張画像が生成され、通信端末において表示される。平面空間内にとどまり2次元画像とオブジェクトのみを扱うことによって、カメラで撮影した第1の画像の効率の良い拡張が可能となる。
したがって、本発明の目的は、情報をキャプチャするために使用されたプレノプティックカメラの如何に関わらずさまざまな後処理方法を適用できるデバイス非依存プレノプティック表現を定義することにある。
本発明によると、これらの目的は、ライトフィールドに対応するデータを処理するためのライトフィールド処理方法において、
− プレノプティックカメラを用いて、前記プレノプティックカメラに依存するフォーマットでライトフィールドを表わす初期データをキャプチャするステップと;
− 前記初期データを、カメラ非依存フォーマットで前記ライトフィールドを表わす変換済みデータへと変換するステップと;
− 前記変換済みデータを処理して、異なるライトフィールドを表わす処理済みデータを生成するステップと、
を含む方法を用いることで達成される。
− プレノプティックカメラを用いて、前記プレノプティックカメラに依存するフォーマットでライトフィールドを表わす初期データをキャプチャするステップと;
− 前記初期データを、カメラ非依存フォーマットで前記ライトフィールドを表わす変換済みデータへと変換するステップと;
− 前記変換済みデータを処理して、異なるライトフィールドを表わす処理済みデータを生成するステップと、
を含む方法を用いることで達成される。
ライトフィールドを表わすデータのためのカメラ非依存表現の使用には、単一の方法をさまざまなプレノプティックカメラのためにプログラミングできるという、データ処理ソフトウェアのプログラマにとっての利点がある。
本発明は、例として提供されかつ図により示されている一実施形態の説明を用いることでより良く理解されるものであろう。
定義
・ オブジェクト焦平面:カメラの主レンズ(main lens)に対し平行で、その上にプレノプティックカメラが焦点合せされる、シーン内の平面。
・ 画像焦平面:カメラの主レンズに対し平行で、オブジェクト焦平面上にある物理的点が、画像焦平面上に焦点が合った状態で投影される、カメラ内部の平面。
・ 焦平面:「オブジェクト」または「画像」の記載がない場合、それは、オブジェクト焦平面か画像焦平面のいずれかを意味する。
・ オブジェクト焦平面:カメラの主レンズ(main lens)に対し平行で、その上にプレノプティックカメラが焦点合せされる、シーン内の平面。
・ 画像焦平面:カメラの主レンズに対し平行で、オブジェクト焦平面上にある物理的点が、画像焦平面上に焦点が合った状態で投影される、カメラ内部の平面。
・ 焦平面:「オブジェクト」または「画像」の記載がない場合、それは、オブジェクト焦平面か画像焦平面のいずれかを意味する。
表現
プレノプティック関数は、多数のパラメータを伴うライトフィールドをその独立変数として記述する関数である。
プレノプティック関数は、多数のパラメータを伴うライトフィールドをその独立変数として記述する関数である。
典型的なプレノプティック関数は、3D空間内の所与の位置(x、y、z)から発出され、所与の時間および波長で2D平面上の所与の位置(u、v)で観察された光の放射輝度を表わす。光線の強度を表わすプレノプティック関数Pは、以下の形態をとる:
P=P(x、y、z、u、v、t、λ)
式中tおよびλは、それぞれ観察時間および波長である。
P=P(x、y、z、u、v、t、λ)
式中tおよびλは、それぞれ観察時間および波長である。
代替的には、所与の角度(θ、ψ)で(x、y、z)から発出された状態の光線を考えてみることができる。このとき、光線は以下のようにパラメータ化される:
P=P(x、y、z、ψ、θ、t、λ)
P=P(x、y、z、ψ、θ、t、λ)
4Dプレノプティック関数
7個のパラメータ全てが義務的であるわけではない。例えば、シーン内の全ての光線が変化せず(すなわちtは、スチールプレノプティック写真の場合のように恒常である)、そして単一の波長λを有する場合、上述の7Dプレノプティック関数を5D関数に縮小することができた。その上、光線がいかなるオブジェクトにも遮断されずに透明な空気の中を走行できると仮定すると、光線の放射輝度は、その線形経路に沿って恒常にとどまる。その帰結として、光線を、4つのパラメータにより完全にパラメータ化することが可能である。例えば、2つの予め定義された表面上の2つの交差する点の位置を用いて、光線を表わすことができる。例えば、出発点(x、y、z)および別の表面上のビューイング/観察位置(u、v)の代りに、光線が中を通過する或る表面上の位置(x’、y’)および(u、v)を考慮する必要しかない。
7個のパラメータ全てが義務的であるわけではない。例えば、シーン内の全ての光線が変化せず(すなわちtは、スチールプレノプティック写真の場合のように恒常である)、そして単一の波長λを有する場合、上述の7Dプレノプティック関数を5D関数に縮小することができた。その上、光線がいかなるオブジェクトにも遮断されずに透明な空気の中を走行できると仮定すると、光線の放射輝度は、その線形経路に沿って恒常にとどまる。その帰結として、光線を、4つのパラメータにより完全にパラメータ化することが可能である。例えば、2つの予め定義された表面上の2つの交差する点の位置を用いて、光線を表わすことができる。例えば、出発点(x、y、z)および別の表面上のビューイング/観察位置(u、v)の代りに、光線が中を通過する或る表面上の位置(x’、y’)および(u、v)を考慮する必要しかない。
4D関数プレノプティック関数は、以下のように公式化することができる:
P=P(x’、y’、u、v)
式中、(x’、y’)は、表面の座標(coordinate)内の第1の予め決められた表面と光線との交点であり、そして(u、v)は、第2の予め決められた表面と光線との交点である。
P=P(x’、y’、u、v)
式中、(x’、y’)は、表面の座標(coordinate)内の第1の予め決められた表面と光線との交点であり、そして(u、v)は、第2の予め決められた表面と光線との交点である。
4つのパラメータ(必要な場合にはこれに加えて時間および/または波長)を用いてライトフィールドの各光線を特徴付けるためのパラメータ化方法は、好ましくは、キャプチャされたライトフィールドを有意義に表わし容易に処理されるようにするためプレノプティックカメラの設計を考慮に入れる。例えば、ライトフィールドを平行な平面を用いて表わすことは、互いに平行に配置された主レンズ、マイクロレンズアレイおよびセンサー平面を含む一般的なプレノプティックカメラにとっては簡単なことであり得る。一方、1つの球上に多数のカメラが配置されている球面プレノプティックカメラにとっては、球座標系内でライトフィールドを表わすことは有意義であり得る。
好ましくは、特定のカメラ設計には依存しないパラメータ化方法が、ライトフィールドの各光線を表わすために選択される。このようにして、異なるタイプまたは設計のカメラを用いてキャプチャされたライトフィールドを表わすために一般的パラメータ化方法を使用することができる。
ここで、図1A〜1Eすなわち2平面、球面、球面−球面、球面−平面および極にそれぞれ関連してライトフィールドの5つのカメラ非依存パラメータ化方法について説明する。
図1Aは、2つの平面を用いたライトフィールドのパラメータ化方法を示す。光線ri、rjが互いに平行な2つの平面U−V、Rx−Ryと交わる位置によって、光線ri、rjが特徴付けされる。平面上の位置は、例えばデカルト座標系、または極座標系に基づいている。第1および第2の平面は、それぞれz=0、z=1に置かれ、ここでz軸は2つの平面に直交する。(Ui、Vi)は、光線riが第1の平面U−Vと交わる位置であり、(Rxi、Ryi)は、この光線riが第2の平面Rx、Ryと交わる位置である。放射輝度Pは、4つのパラメータUi、Vi、Rxi、Ryiから一意的に決定される。z軸を考慮に入れて、対応する光線x、y、zは、
として得られる。式中、kは、任意の正の実数値をとることのできるパラメータである。
この方法は、互いに平行なマイクロレンズアレイとセンサー平面とを有するプレノプティックカメラに好適である。この表現の1つの欠点は、それが平面U−V、Rx−Ryに平行に通過する光線を表わすことができないという点にある。
図1Bは、互いに外接する2つの球s1、s2を用いたライトフィールドのパラメータ化方法を示す。二つの球s1、s2は互いに接している。光線ri、rjは、第1の球s1を用いて外向き交点(ψ1、θ1)によって、そして第1の交点(ψ1、θ1)で第1の球と外接する第2の球s2を用いて外向き交点(ψ2、θ2)によってパラメータ化される。(ψ1、θ1)は、第1の球との関係における球座標であり、(ψ2、θ2)は第2の球との関係における球座標である。光線rは、2点を通過する線として得られる:
この表現は、球上に配置されたカメラアレイによりキャプチャされるプレノプティック画像の場合に有用である。このタイプのカメラは典型的には、ストリートビューのキャプチャに使用される。この表現のもう1つの利点は、球と交差する全ての光線を、この表現を用いて記述できるという点にある。しかしながら、この球と交差しない光線は表わすことができない。
図1Cは、1つの単一球sを用いたライトフィールドのパラメータ化方法を示す。これは球sと各光線の2つの交点(ψ1、θ1)、(ψ2、θ2)を使用する。球sの半径がライトフィールドにとって充分大きいものであると仮定すると、全ての光線を4つの角度パラメータ(ψ1、θ1)、(ψ2、θ2)によって特徴付けることができる。光線は次のものとして得られる。
この表現は、図1Bの球表現と全単射であり、したがって両方の表現共、いかなる情報損失も無く相互に変換可能である。したがって、その利点および欠点は、球表現のものと同等である。
図1Dは、1つの球sと1つの平面Pを用いたライトフィールドのパラメータ化方法を示す。光線riが、平面Pとの交点(x、y)および球座標との関係における光線の角度(ψ、θ)を用いて表わされる。平面Pは、光線riに直交するよう選択され、球の中心を通過し、こうしてその法線をディレクショナルスフィアの位置によって表わすことができるようになっている。
この球−平面表現は、上述の表現とは対照的に、球と交わるか否かとは無関係に、任意の位置から任意の方向に向かう光線を表わすことができる。しかしながら、球−平面表現からデカルト座標への変換は、先の表現に比べてさらに複雑である。
図1Eの極表現では、光線riは、r、ψ、θ、ωという4つのパラメータを用いて表わされる。rは、座標の原点と光線上の最接近点Aとの間の距離である。(ψ、θ)は、球座標内の最接近点Aの座標である。ωは、光線が中に存在する平面p内の光線の角度であり、ここでこの平面は原点から最接近点Aまでのベクトルに直交する。
極表現は、球−平面表現と全単射であり、こうして全ての方向にフェアリングし球と交差するかまたは交差しない全ての光線を表わすことができる。それでも、この表現は、1つのパラメータが距離であり、他の3つのパラメータが異なる中心点からの角度であることから、比較的直観性が低いことがあり得る。球平面表現と同様、デカルト座標への変換は複雑である。
これらのパラメータ化表現またはフォーマットは全て、これらの表現のうちのいずれか1つへの変換が、カメラ設計に依存しておらず、任意のプレノプティックカメラでキャプチャされた任意のプレノプティックデータから可能であるという意味合いにおいて、カメラ非依存である。しかしながら、指摘された通り、一部の表現は、一部のカメラにさらに適応されており、変換のために必要な処理が少ない。
プレノプティックデータ変換
上述の表現は全て、同じ条件でキャプチャされた光線情報をパラメータ化することから、プレノプティックデータの1つの表現を別の表現に変換することができる。
上述の表現は全て、同じ条件でキャプチャされた光線情報をパラメータ化することから、プレノプティックデータの1つの表現を別の表現に変換することができる。
1つの表現から別の表現へのデータ変換は、データ処理を容易にするために使用可能である。例えば、球表現でのプレノプティックデータに対して深度再構成アルゴリズムを適用することは難しいかもしれないが、一方2つの平面表現ではさほど複雑ではない。したがって、球表現で記憶されたプレノプティックデータから深度を計算したい場合には、最初に球表現から2つの平面表現に変換し、その後に2つの平面表現の内部で深度再構成アルゴリズムを適用することができる。より一般的には、ライトフィールドの処理には、第1のカメラ非依存表現から、処理のためにより良く適応されている異なるカメラ非依存表現へとライトフィールド表現を変換するステップが含まれていてよい。
プレノプティックデータは、線として表現された1組の光線であるため、1つの表現から別の表現への変換は、1つの座標系内の線のパラメータを別の座標系内の対応するパラメータに変換することと等価である。
変換のための一般的アプローチ
表現フォーマットアルゴリズムの変換は、入力および出力データ表現によって左右される。しかしながら、アプローチは、概して次の変換方法に要約することができる。
表現フォーマットアルゴリズムの変換は、入力および出力データ表現によって左右される。しかしながら、アプローチは、概して次の変換方法に要約することができる。
変換方法
元座標内で4つのパラメータp1、p2、p3、p4として表わされた各光線について;
1.線パラメータp1、p2、p3、p4をデカルト座標内の対応する線Lに変換する。
2.移動先座標に関する線Lのフィーチャを抽出する(例えば、1つの球との交点を見出す)。
3.フィーチャを、移動先座標内の対応する4つのパラメータq1、q2、q3、q4に変換する。
4.P(p1、p2、p3、p4)をP(q1、q2、q3、q4)に割当てる。
元座標内で4つのパラメータp1、p2、p3、p4として表わされた各光線について;
1.線パラメータp1、p2、p3、p4をデカルト座標内の対応する線Lに変換する。
2.移動先座標に関する線Lのフィーチャを抽出する(例えば、1つの球との交点を見出す)。
3.フィーチャを、移動先座標内の対応する4つのパラメータq1、q2、q3、q4に変換する。
4.P(p1、p2、p3、p4)をP(q1、q2、q3、q4)に割当てる。
一例として、2つの平面表現と球−球表現の間の変換方法についてここで説明するだろう。
2つの平面表現(Rx、Ry、U、V)内の各光線について、以下のことを行なう:
1.4つのパラメータを3Dデカルト座標内の2つの点、(Rx、Ry、1)および(U、V、O)に変換し、2つの点を通る線を、以下の通り計算する:
式中、kは、任意の実数をとることのできるパラメータである。
2.線と球の交点を計算する。1という半径を有する球を考慮する。こうして以下の式が得られる:
式中、k1およびk2は、ステップb内のx、y、zを球x∧2+y∧2+z∧2=1という公式に代入することによって得られる以下の等式の解である:
3.2つの交点を、
として球座標に変換する。
4.結果として、以下の通りの各光線P(Rx、Ry、U、V)から変換された光線L(ψ1、θ2、ψ2、θ2)が得られる:
P(φ1、θ1、φ2、θ2)=P(Rx、Ry、U、V)
1.4つのパラメータを3Dデカルト座標内の2つの点、(Rx、Ry、1)および(U、V、O)に変換し、2つの点を通る線を、以下の通り計算する:
2.線と球の交点を計算する。1という半径を有する球を考慮する。こうして以下の式が得られる:
4.結果として、以下の通りの各光線P(Rx、Ry、U、V)から変換された光線L(ψ1、θ2、ψ2、θ2)が得られる:
P(φ1、θ1、φ2、θ2)=P(Rx、Ry、U、V)
カメラ依存表現からカメラ非依存表現への変換
ここで、プレノプティックカメラデバイスでキャプチャしたプレノプティックデータを、デバイスに依存しないプレノプティックデータに変換する方法についての異なる例を説明するだろう。今日市販されている複数のプレノプティックカメラの例について説明する。考慮されるプレノプティックカメラは、Lytro、RaytrixおよびPelican Imaging(全て登録商標)のものである。各カメラは異なる光学的設計を使用する。
ここで、プレノプティックカメラデバイスでキャプチャしたプレノプティックデータを、デバイスに依存しないプレノプティックデータに変換する方法についての異なる例を説明するだろう。今日市販されている複数のプレノプティックカメラの例について説明する。考慮されるプレノプティックカメラは、Lytro、RaytrixおよびPelican Imaging(全て登録商標)のものである。各カメラは異なる光学的設計を使用する。
この例において、我々は、デバイス非依存2つの平面表現への変換について説明するだろう。別の表現への変換も同様に可能である。2つの平面表現は、光線をキャプチャするための平行な平面を伴って設計されたプレノプティックキャプチャデバイスにさらに好適である。
ターゲット表現の2つの平面をRx−RyおよびU−Vと呼ぶだろう。U−V平面は、プレノプティックカメラデバイス1の主レンズ10の平面(すなわちPelican Imagingカメラの場合のマイクロカメラの主レンズ平面)に対応し得る。Rx−Ry平面はU−V平面に平行である;これは、キャプチャの瞬間におけるプレノプティックカメラのオブジェクト焦平面(単複)14の正規化バージョンである。U−V平面がZ=0にあり、Rx−Ry平面がZ=1にあるような形で、座標系を定義してよい。
図2は、(図の左側の)同じ物理的点Aに由来し、そして(図の右側の)2つの平面表現を用いて再計算された2つの光線ri、rjを示す。U−V平面は、正規化されたカメラデバイスの主レンズ10の平面を表わす。Rx−Ry平面は、正規化されたシーン(現実世界)14を表わす。
オブジェクトAの焦平面14からRx−Ry平面に向かう正規化プロセスは、カメラ1のオブジェクト焦平面14をZ=1まで移動させ、その後、この新しい平面(すなわちRx−Ry)とキャプチャされた光線ri、rjの新しい交差を再計算することに対応する。マイクロレンズまたはマイクロカメラ用として複数の焦点距離が使用されるRaytrixまたはPelican Imagingの場合、正規化は、(異なるレンズの各々の焦点距離によって提供される)各オブジェクト焦平面について行なわれる。これは、各々の異なるオブジェクト焦平面をZ=1まで移動させ、その後、この新しい平面(すなわちRx−Ry)と光線の交差を再計算することに対応する。
ライトフィールドが離散的プレノプティックカメラ1を用いてキャプチャされるという事実にも関わらず、2つの平面U−V、Rx−Ryは、連続する空間内で考慮される。実際、こうして、異なるカメラ(すなわち異なる固有パラメータを有する)によりキャプチャされた光線ri、rjを全て、情報の損失無く同じ連続的表現上で表わし得ることが保証される。これによって、例えば一部の処理またはレンダリングのためにこの空間の離散化決定が制限されないことは明らかである。
図2は、物理的点Aに由来する2本の光線ri、rjを示す。レジスターに格納されたライトフィールドデータは、全ての光線の強度および方向を含む。この記憶されたライトフィールドデータには、いずれにせよ、デバイス依存性であるという不都合がある。焦平面上の物理的点Aは、この物理的点が視野角に応じて異なる光線を反射する場合に強度が異なる可能性のある2本の光線ri、rjによって、プレノプティックカメラデバイス1により見られる(非ランバート面の原理(principle of a non−lambertian surface))。両方の光線ri、rjは焦平面14に由来し、その各々が特定の強度および方向を有する。それらが同じ物理的点Aに由来しているという事実はもはや分からない。物理的点と光線をマッチさせ、ひいては深度情報を導出するための一部のアルゴリズムについては、後述するだろう。
これらの記録された光線ri、rjは、前述した2つの平面表現を用いて表わすことができる。デバイス1の主レンズはU−V平面によって表わされる。シーンはRx−Ry平面により表わされる。記録された光線は、それらがこれら両方の平面と交わる位置を用いて、記述される。Rx−Ry平面は、距離Z=1のところで、U−V平面に対し相対的に位置づけされる。焦平面14およびU−V平面と光線方向との間の距離は分かっていることから、2本の光線と平面との間の交わる位置を計算することができる。Rx(またはRy)は、1本の光線が平面と交差するx(またはy)方向におけるRx−Ry平面上の座標である。同様にしてUとVは、U−V平面と1本の光線の交差に対応する。
図3は、それぞれ焦平面14の前後にある2つの異なる物理的点B、Cに由来する(左側の図)そして2つの平面表現を用いて再計算された(右側の図)2つの光線値を示す。キャプチャデバイス1は、物理的点がどこにあるか知らない。1つの点は、例えば焦平面の前、上または後にあってよく、なおもカメラ上に同じ光線を生成する。
ここで、Lytro(登録商標)によって販売されている1つのプレノプティックカメラに対応する設計を有するデバイス1の一例について図4と共に説明するだろう。
このプレノプティックカメラデバイス1は、カメラセンサー平面13の直正面でマイクロレンズアレイ12上に光線ri、rjを焦点合せされる主レンズ10を含む。参照番号14は、オブジェクト焦平面であり、主レンズ平面はU−Vで呼称されている。Rx−Ry平面はカメラ主レンズ平面U−Vから距離1のところにおけるシーンを表わす。主レンズ10はマイクロレンズアレイ12上に焦点合せすることから、マイクロレンズアレイ12上で交差する光線ri、rjは同様に、カメラの焦平面14上でも交差する。各マイクロレンズは、センサー13上に、隣接するマイクロ像と重複しないマイクロ像を形成する。全てのマイクロレンズの焦点距離は同じである。マイクロレンズ12は、主レンズと比べて著しく小さく(例えば約300分の1)、主レンズ10がマイクロレンズの光学的無限遠にくるような距離のところに設置される。この設計は、同じマイクロレンズに到達する光線の方向が、シーン内の焦点合せされたオブジェクトに属する物理的点の異なる視野角に対応するという興味深い特性を提供する。換言すると、焦点合せされたオブジェクトの各々の物理的点は、その光線の全てが単一のマイクロレンズによりキャプチャされ、したがって単一のマイクロ像内でセンサー13上に記憶されることになり、ここでマイクロ像の各画素はその物理的点の異なる光線方向に対応している。
センサー13平面上の各マイクロ像は、1つのマイクロレンズに対応し座標XおよびYを有する。マイクロ像内部の各画素は、座標PおよびQを有する。各マイクロ像は、光学軸との関係において指標付けされる。所与のマイクロ像中の画素は、マイクロレンズの光学軸との関係において指標付けされる。Nx(またはNy)が、x(またはy)方向におけるマイクロ像の数に対応し、Np(またはNy)がx(またはy)方向におけるマイクロ像内部の画素の数に対応すると仮定する。さらに、このときパラメータを以下の通りに公式化することができる:
光線riは、その(X;Y)座標で識別されるマイクロレンズ120に衝突する。光線riが衝突するマイクロ像の内部の選択された画素(selected pixel)130は、その(Pi;Qi)座標を用いて記述される。主レンズ10内部の光線が通過する部域は、その(U;V)座標で識別される。Rx−Ry平面と、特定の方向を有する(U;V)においてデバイスの主レンズ10に衝突する光線riとの交差は、(Rx;Ry)座標を用いて記述される。各光線について、Rx−Ry平面上の座標(Rx;Ry)および主レンズ上の座標(U;V)は、光線が通過しているマイクロレンズ座標(X;Y)およびマイクロ像内の画素座標(P;Q)である公知のデバイスパラメータを用いて決定されなければならない。
デバイス依存型パラメータを用いて表わされたキャプチャされた光線を、デバイス非依存平面−平面表現へと変換するための変換は、以下の通りに公式化することができる:
ここで、図5および6を用いて、Pelican(登録商標)により提案されているものと類似のプレノプティックカメラ設計の例について説明するだろう。
図5のプレノプティックキャプチャデバイス1は、同じ平面U−V上で整列され好ましくは互いに等距離に置かれたレンズを有するマイクロカメラ16のアレイを含む。これらのマイクロカメラ16は、薄型であり、したがって、ポータブルコンピュータ、パームトップ型コンピュータ、スマートフォンまたは類似のデバイスなどのモバイルデバイスの内部に内蔵可能である。例えば図示された例では4つである、異なる焦点距離f1、f2を伴う複数の異なるカメラタイプを使用して、このプレノプティックカメラがより多くの角度情報をキャプチャするようにすることができ得る。各マイクロカメラは、わずかに異なる位置および焦点距離からシーンのサブビューをキャプチャする。したがって、ライトフィールドは、異なるマイクロカメラの画像を組合わせることによって作り出される。
参照番号19は、公式内で全ての位置がそこから計算される合成光学軸を呼称する。
各マイクロカメラ16は、シーンのサブビューをキャプチャする。マイクロカメラ平面160をU−V平面と整列させることにより、各マイクロカメラは、特定のU−V座標に衝突する光線をキャプチャする。これは、考えられる全てのRx−Ry座標に由来するものの、特定のU−V座標に衝突する光線のみを考慮すること、すなわちU−V平面上の特定の位置からシーンを見ることに対応する。
全てのマイクロカメラ16は異なる焦点距離f1、f2…を有することから、焦平面14は、Rx−Ry平面を形成するために個別に正規化される必要がある。
各々のマイクロカメラ16は、その座標XおよびYによって定義され得、マイクロカメラ内部の各画素は、PおよびQを用いて記述される。さらに、
であり、式中、Nx(またはNy)は、x(またはy)方向のマイクロカメラの数に対応し、Np(またはNy)は、x(またはy)方向のマイクロカメラ内の画素の数に対応する。
各マイクロカメラ16は、合成光学軸19との関係において指標付けされる。各マイクロカメラについての画素位置は同様に、この合成光学軸との関係において変換される。Rx−Ry平面上の計算されたRxRy位置およびU−V平面上のUV位置は同様に、この軸との関係におけるものである。
図6に示されている通り、キャプチャされた各光線ri、rjは、両方の平面上で、U−V平面内では一対の座標(U;V)を用いて、そしてRx−Ry平面内では(Rx;Ry)座標を用いて、表わされることができる。光線は最初に、(U;V)座標を用いて記述されるマイクロカメラU−V平面に衝突する。その後、この光線は、選択されたマイクロ像の内部の光線の位置を記述する特定の座標(P;Q)でセンサー13に衝突する。座標(Rx;Ry)は、実際には、記録された(P;Q)座標を用いかつ以下の通りのマイクロカメラの相対的オフセット(offset)を考慮に入れて得られる:
図7は、Raytrix(登録商標)により提案されているプレノプティックカメラに対応し得るプレノプティックカメラ1設計の例を示す。このカメラ1は、カメラ内部の画像焦平面15上に光線ri、rj、rkを焦点合せする主レンズ10を含む。マイクロレンズアレイ12が、焦平面15上に焦点合せされ、この焦平面の後ろに位置設定される。マイクロレンズ12は次に、カメラセンサー13上に光線を収束させる。各マイクロレンズは異なる視野角で画像焦平面15のシーンを見る。したがってオブジェクト画像平面14上に焦点合せされた状態の点Aは、画像焦平面15上に画像形成され、これをマイクロレンズ12が異なるビュー位置から観察する。例えば3つといった複数の異なるタイプの焦点距離がマイクロレンズのために使用される。したがって、これらのマイクロレンズは、3つの異なる画像焦平面15上に焦点合せし、その結果、キャプチャされる角度情報は増大する。
センサー平面13上の各マイクロ像は、その座標XおよびYにより識別されてよく、マイクロ像内部の各画素はPおよびQとして識別されてよい。さらに、
であり、式中、Nx(またはNy)は、x(またはy)方向におけるマイクロ像の数に対応し、Np(またはNy)はx(またはy)方向におけるマイクロ像内部の画素数に対応する。
各マイクロ像は、主レンズ光学軸との関係において指標付けされ、所与のマイクロレンズ内の画素はマイクロレンズ光学軸との関係において指標付けされる。
キャプチャされた各光線ri、rj、rkは、両方の平面上で、U−V平面内では一対の座標(U;V)を用いて、Rx−Ry平面内では(Rx;Ry)座標を用いて、表わされなければならない。この光線は最初にデバイスパラメータを用いてキャプチャされる。光線は最初に、(U;V)座標を用いて記述されるU−V平面と見なされる主レンズ平面10に衝突する。次にこの光線は(X;Y)を用いて記述される特定のマイクロレンズ12に衝突する。その後この光線は、選択されたマイクロ像の内部の光線の位置を記述する特定の座標(P;Q)でセンサー13に衝突する。
座標(Rx;Ry)は、記録された(P;Q)および(X;Y)座標を用いて以下の通りに得ることができ得る:
未知のまたは過度に複雑なカメラ構造に起因して理論的にカメラ変換関数を導出することが不可能である一般的なプレノプティックカメラの場合でも、カメラシステムの特性を測定することによって変換関数を獲得することがなおも可能である。例えば、パラメータが完全に公知である基準シーンを使用することによって、プレノプティックカメラ内でいかにシーンがキャプチャされ記憶されるかを測定することができる。
例として、少なくとも一部のパラメータが未知であるカメラ1のための変換関数を決定したい場合、カメラ較正と類似の要領で未知のパラメータを推論することによりカメラ変換関数Fを識別することができる。図8に示されている通り、未知のプレノプティックカメラ1でキャプチャされた市松模様20のプレノプティック画像21を使用して、カメラ1のパラメータを決定することができる。例えば、カメラ1モデルの設計が公知のカメラの設計と同一であるもののその焦点距離のみが未知であることが分かっている場合、光学軸に沿って基準画像を移動させることにより焦点距離を推論し、同じ物理的点に由来する全ての光線が1つの単一マイクロ像を構成している位置を発見することができる。
別のアプローチとして、カメラ設計もそのパラメータも未知であると仮定した場合に、一定の方向に向かって単一の光線を発出できるデバイス(例えばシャープレーザーポインタ)を使用して、プレノプティックデータの画素との対応を発見することができる。この単一光線は次に、プレノプティックカメラによりキャプチャされる。このアプローチは、以前のものでは同じ物理的点からフェアリングする複数の光線を記録していたものの、発出デバイスに由来する唯1つの単一光線をプレノプティックカメラが記録するという事実により、以前のものと異なっている。キャプチャされた光線は、プレノプティックカメラ内に進み、最終的には単一の画素に衝突する。シーンの他の強度値と異なる強度値を有する画素を観察することができる。複数の発出された光線の方向とそれらに対応する画素との間の対応を測定することにより、我々は変換マップを定義することができ、これにより変換関数が導かれる。複数の光線を異なる波長および/または変調で連続的におよび/または同時に発出して、各光線が衝突するプレノプティックカメラの画素を決定し、こうして変換関数を決定することが可能である。
標準からライトフィールドへの変換
標準的1D、2Dまたは3D画像データまたは立体データをカメラ非依存プレノプティック表現に変換して、これらの変換済み表現を処理し、場合によってはこれらを、プレノプティックカメラでキャプチャされ同じカメラ非依存プレノプティックフォーマットへと変換されたプレノプティック表現とマージすることも同様に可能である。
標準的1D、2Dまたは3D画像データまたは立体データをカメラ非依存プレノプティック表現に変換して、これらの変換済み表現を処理し、場合によってはこれらを、プレノプティックカメラでキャプチャされ同じカメラ非依存プレノプティックフォーマットへと変換されたプレノプティック表現とマージすることも同様に可能である。
標準的2D画像および3Dモデルを扱う場合、プレノプティックキャプチャデータの場合に行なうはずのものと同じ要領でそれらをマージまたはそれらを処理することができるように、非依存性プレノプティック表現へとそれらを変換できる必要がある。
以上の場合がそうであったように、我々は、単純さおよび明確さを期して、2つの平面表現への変換を考慮する。
1Dまたは2D画像データの変換
特定の幅(W)および高さ(H)を有する2D画像は、W*H個の数の画素で構成される。各画素を、一対の2D座標Ix−Iyを用いて表わすことができ、Rx−Ry平面上の特定の座標Rx−Ryとマッチさせることができる。Rx−Ry平面上でこれらの座標に衝突する光線の強度は、2D画像の画素値で置換されるだろう。より厳密には、Ix−IyとRx−Ryとの間のマッチングは、Ry−Ry平面上で(すなわちZ=1)、XおよびY上の所望の場所に2D画像を置くことによって行なわれる。U−V上の異なる点からフェアリングする多数の光線が、特定の座標でRx−Ry平面と交差していることから、そのRx−Ry座標上に置かれた2D画像の画素の強度値は、その座標を通過する全ての光線にコピーされる。したがって、2D画像の各画素は、異なる方向でフェアリングするものの同じ強度をもつ光線を有する物理的点へと変換される。
特定の幅(W)および高さ(H)を有する2D画像は、W*H個の数の画素で構成される。各画素を、一対の2D座標Ix−Iyを用いて表わすことができ、Rx−Ry平面上の特定の座標Rx−Ryとマッチさせることができる。Rx−Ry平面上でこれらの座標に衝突する光線の強度は、2D画像の画素値で置換されるだろう。より厳密には、Ix−IyとRx−Ryとの間のマッチングは、Ry−Ry平面上で(すなわちZ=1)、XおよびY上の所望の場所に2D画像を置くことによって行なわれる。U−V上の異なる点からフェアリングする多数の光線が、特定の座標でRx−Ry平面と交差していることから、そのRx−Ry座標上に置かれた2D画像の画素の強度値は、その座標を通過する全ての光線にコピーされる。したがって、2D画像の各画素は、異なる方向でフェアリングするものの同じ強度をもつ光線を有する物理的点へと変換される。
アプローチは、合成画像のためにも同様に利用可能である。特定の幅(W)および高さ(H)を仮定すると、これらは、標準的画像と同様にW*H個の数の画素で構成され、各画素は、上述のものと同じプロセスにしたがって、特定の座標Rx−Ryとマッチされる。
1D画像も同様に、ライトフィールドに変換可能である。プロセスは、2つの次元(例えばIx−Iy)ではなく1つの次元(例えばIx)のみを考慮するという点を除いて、上述のものと同じである。
ビデオを一続きの2Dフレームと見なすと、各フレームも同様に、上述のものと全く同じ原理にしたがって、ライトフィールドに変換させることができる。
カメラ非依存フォーマットでのプレノプティックデータへの3Dモデルの変換
3Dモデルをライトフィールドに変換することもできる。1つの最初のアプローチは、非依存表現内に3D点として3Dモデルを統合することである。上述の1Dまたは2D画像の場合と同様に、光線は、異なる方向で3Dモデルの各々の3D点からフェアリングする。異なる方向での光線強度は、3Dモデルパラメータにより定義される。単純な場合には、全ての光線強度は、全ての方向で同じと考えられる(ランバートモデル)が、いつでもそうであるとはかぎらない。空間内の各々の3D点からフェアリングする全ての光線がひとたび分かったならば、Rx−RyおよびU−V平面とこれらの光線との交差を計算して、非依存表現のための交差を計算する必要がある。我々には3Dモデルがあることから、閉塞を処理することができ、したがってU−V平面から直接見ることのできる光線のみが保持されるという点に留意されたい。U−V平面と交差するこれらの光線は次に、Rx−Ry平面まで拡張され、ここでそれらの交差が計算される。このようにして、プレノプティックカメラにより3Dモデルのビューをシミュレートする。このアプローチには、3Dモデルの考えられる各々のビューイング条件を考慮に入れ非依存表現でこの条件を表わす必要があり、それにはあるメモリー空間が必要となる可能性があるという欠点がある。しかしながら、考えられる全てのビューが予め非依存表現に変換されてしまっているため、これらのビューを使用したい場合に追加の処理時間は全く求められない。
3Dモデルをライトフィールドに変換することもできる。1つの最初のアプローチは、非依存表現内に3D点として3Dモデルを統合することである。上述の1Dまたは2D画像の場合と同様に、光線は、異なる方向で3Dモデルの各々の3D点からフェアリングする。異なる方向での光線強度は、3Dモデルパラメータにより定義される。単純な場合には、全ての光線強度は、全ての方向で同じと考えられる(ランバートモデル)が、いつでもそうであるとはかぎらない。空間内の各々の3D点からフェアリングする全ての光線がひとたび分かったならば、Rx−RyおよびU−V平面とこれらの光線との交差を計算して、非依存表現のための交差を計算する必要がある。我々には3Dモデルがあることから、閉塞を処理することができ、したがってU−V平面から直接見ることのできる光線のみが保持されるという点に留意されたい。U−V平面と交差するこれらの光線は次に、Rx−Ry平面まで拡張され、ここでそれらの交差が計算される。このようにして、プレノプティックカメラにより3Dモデルのビューをシミュレートする。このアプローチには、3Dモデルの考えられる各々のビューイング条件を考慮に入れ非依存表現でこの条件を表わす必要があり、それにはあるメモリー空間が必要となる可能性があるという欠点がある。しかしながら、考えられる全てのビューが予め非依存表現に変換されてしまっているため、これらのビューを使用したい場合に追加の処理時間は全く求められない。
別の実施形態においては、使用したい場合にのみ3Dモデルをカメラ非依存表現に変換する。このシナリオでは、正に上述のものと全く同じ処理が行なわれるが、これは所望のビューイング条件についてだけである。その帰結として、所要メモリー空間はより少なくなるが、何らかの後処理のための3Dモデルのオンデマンド変換に起因して、何らかの待ち時間が導入されるかもしれない。
ライトフィールド処理
上述の変換プロセスの出力は、カメラ非依存でかつさらなる処理のために直接使用可能であるライトフィールド表現である。実際、さまざまなカメラがハードウェア上の根本的で大きな差異を有していることから、このカメラ生成データに直接適用される後処理のための方法およびアルゴリズムを維持するのは面倒なことであると思われる。本発明で提案されているように、カメラの特異性から後処理アルゴリズムを解放するために、提示された異なる変換を使用することができる。
上述の変換プロセスの出力は、カメラ非依存でかつさらなる処理のために直接使用可能であるライトフィールド表現である。実際、さまざまなカメラがハードウェア上の根本的で大きな差異を有していることから、このカメラ生成データに直接適用される後処理のための方法およびアルゴリズムを維持するのは面倒なことであると思われる。本発明で提案されているように、カメラの特異性から後処理アルゴリズムを解放するために、提示された異なる変換を使用することができる。
ここで、変換されたライトフィールドの修正を可能にするいくつかの後処理方法について説明するだろう。それは、拡張現実(augmented reality)を行なうこと、またはシーンの質を改善することのためであり得る。
シーンセントリック型表現
ライトフィールド表現は、カメラの位置に基づいて空間内の各光線を一意的に記述する。表現に応じて、キャプチャシステムが視野≧180°の内部の光を集めることができる場合、光線方向も同様に含み入れてよいと考えられる。
ライトフィールド表現は、カメラの位置に基づいて空間内の各光線を一意的に記述する。表現に応じて、キャプチャシステムが視野≧180°の内部の光を集めることができる場合、光線方向も同様に含み入れてよいと考えられる。
このカメラ中心型表現は、シーンの任意のオブジェクト上を中心にするように処理することができる。実際、光線は、光源などのシーンオブジェクトまたは直接または間接光源を反射する他のオブジェクトに由来する。キャプチャされたおよび変換されたライトフィールドを処理するためには、オブジェクトが付加、除去または修正された場合に光線を修正できるようにこのようなシーンセンタード型表現を有することが有用である。
例えば、拡張現実処理においては、多くの場合、キャプチャされたライトフィールドをいくつかの仮想/人工視覚情報で拡張する必要がある。本明細書において、拡張現実は同様に、時として減損現実(diminished reality)とも呼ばれる、シーンからオブジェクトを実際に除去する状況をも含んでいる。
次の節全体を通して、我々は、上述の2平面パラメータ化を用いたライトフィールド表現の実施例を使用するが、同じ方法は、例えば球−平面などの他の表現にも同等に適用可能である。
図9は、シーン20由来のライトフィールドの2つの平面表現を示す。4本の光線r1〜r4が示されている。最初の2本の光線r1、r2は、カメラ1の焦平面Rx、Ry内の焦点合せされた点Aに対応し、ここで最後の2本の光線r3、r4は、異なる距離で焦点合せされていない点Bに対応する。
先に説明した通り、この表現から光線r1〜r4のうちのどれが同じ物理的点を表わしているか否かを知ることは不可能である。ここでは、我々は、光線がシーン20から発出され、したがってシーン点から出発してカメラ平面U−Vに衝突した時に停止するシーンセントリック型表現へとこの表現を変換することを提案する。したがって、我々は、光線を表わす半直線ではなく、セグメントを扱う。これは、光線がカメラから出発しており、その長さまたは深度が未知であるため決して停止することのない前述の表現の2本立てである。
変換は、以下の方法で行なうことができる:
1.1つのシーンのシーンセントリック型プレノプティック表現から開始する。
2.カメラ非依存表現内の各光線について、以下のことを行なう:
2.1 光線の交点およびシーンの物理的点を推定する(考えられる方法の概要については次節を参照のこと)。これを知ることで、我々は、シーン点の深度を推論することができる。
2.2 カメラ平面(U−V平面)に平行な、カメラとの関係における物理的点の2D位置を演繹する。
2.3 最初の2つのステップにおいて計算された2D位置+深度情報により新規作成された3D点をサーチする。
2.3.1 この3D点がすでにシーンセントリック型表現内に存在する場合、3D点から出発しカメラ非依存表現内の現在の光線と同じ方向を有するシーンセントリック型表現に新しい光線を付加する。光線の他の特性(例えば色の強さ)も同様にコピーされる。
2.3.2 この3D点が、シーンセントリック型表現内に存在しない場合、シーンセントリック型表現内に新しい点を新規作成し、この点から発出されカメラ非依存表現内の現在の光線と同じ方向を有する新しい光線をそれに添付する。光線の他の特性(例えば強度)も同様にコピーされる。
1.1つのシーンのシーンセントリック型プレノプティック表現から開始する。
2.カメラ非依存表現内の各光線について、以下のことを行なう:
2.1 光線の交点およびシーンの物理的点を推定する(考えられる方法の概要については次節を参照のこと)。これを知ることで、我々は、シーン点の深度を推論することができる。
2.2 カメラ平面(U−V平面)に平行な、カメラとの関係における物理的点の2D位置を演繹する。
2.3 最初の2つのステップにおいて計算された2D位置+深度情報により新規作成された3D点をサーチする。
2.3.1 この3D点がすでにシーンセントリック型表現内に存在する場合、3D点から出発しカメラ非依存表現内の現在の光線と同じ方向を有するシーンセントリック型表現に新しい光線を付加する。光線の他の特性(例えば色の強さ)も同様にコピーされる。
2.3.2 この3D点が、シーンセントリック型表現内に存在しない場合、シーンセントリック型表現内に新しい点を新規作成し、この点から発出されカメラ非依存表現内の現在の光線と同じ方向を有する新しい光線をそれに添付する。光線の他の特性(例えば強度)も同様にコピーされる。
この変換の出力は、各点に添付された光線を有する点群である。各光線は、光線にセンタリングされた視点から見た現在の光で照らされた物理的オブジェクトの色を記述する特定の色の強さを有する。これは、シーンの幾何形状ならびにその視覚的外観を完全に記述する。
光線方向がシーンに左右されずキャプチャデバイスのみに左右されるということは指摘に値する。したがって、同じ固有パラメータを有する同じキャプチャデバイスについては、カメラ非依存表現内の光線の深度および色情報のみが変化するだろう。
この新しいシーンセンタード型表現では、光線の各修正が表現の中心にあるオブジェクトの視覚的外観を実際に修正するように、ライトフィールドを実際に修正することができる。これに反して、カメラ非依存表現はシーンについての情報を全く含まない。したがって、色の強さなどの光線の特性を変更することは、シーン自体との実際の関係無しに、キャプチャされたシーン内に変化を生み出し得る。
深度の推論
ライトフィールドをオブジェクトにまたはシーンセントリック型のものに変換するためには、上述の方法で言及した通り、各光線の深度情報を有する必要がある。
ライトフィールドをオブジェクトにまたはシーンセントリック型のものに変換するためには、上述の方法で言及した通り、各光線の深度情報を有する必要がある。
ここでは、深度を再構成するための2つの方法を簡単に紹介する。
図10に示されている第1の方法の背後にある主要な原理は、どの光線r1、r2…riが同じ物理的点Aに由来するかを識別することにある。2つの光線(ここではr1およびr2)が同じ物理的点Aに対応するものとして識別されると直ちに、三角測量を用いて深度を推論することが可能である。これにより、表現パラメータとの関係における深度推定値が得られる。絶対深度が必要である場合、ライトフィールド表現を物理的世界に関連づけるパラメータを有することも必要になる。
図10において、1つの物理的点Aは2本の光線r1およびr2を発出する。この点によって発出されない第3の光線r3も同様に示されている。
光線、例えば光線1の深度を推論するためには、以下の手順を使用でき得る:
1.r1以外のシーン内の各光線riについて、その光線が同じ物理的オブジェクトに属するかまたは同じ点Aに由来するかを識別する(異なる方法については、次の段落を参照)。
2.同じ物理的オブジェクトを表わす光線r2がひとたび識別された時点で、それを三角測量するためにライトフィールド表現パラメータを用いることによりカメラ平面U−Vまでの紫色点の距離を計算する。実際、カメラ平面U−Vとの関係における光線r1、r2の角度は、同じカメラ平面上のこれらの相対的距離と共に公知である。
3.三角方程式を用いて、カメラ平面U−Vおよび点Aからの距離、すなわちその深度を推論することができる。
1.r1以外のシーン内の各光線riについて、その光線が同じ物理的オブジェクトに属するかまたは同じ点Aに由来するかを識別する(異なる方法については、次の段落を参照)。
2.同じ物理的オブジェクトを表わす光線r2がひとたび識別された時点で、それを三角測量するためにライトフィールド表現パラメータを用いることによりカメラ平面U−Vまでの紫色点の距離を計算する。実際、カメラ平面U−Vとの関係における光線r1、r2の角度は、同じカメラ平面上のこれらの相対的距離と共に公知である。
3.三角方程式を用いて、カメラ平面U−Vおよび点Aからの距離、すなわちその深度を推論することができる。
光線−オブジェクト識別
2本の光線が同じ物理的オブジェクトまたは点に対応する(すなわちこれにより発出されている)か否かを査定するための方法は、物理的オブジェクトの表面が、完全にランバート面である、すなわち、オブジェクト上の所与の点について、オブジェクトにより反射された光が全ての方向で同じであるという仮定に基づくものであり得る。この制約を活用することにより、我々は、2本の光線がいかに正しく同じオブジェクトを表わしているかを定義する類似性測度(measure)を構築する。これは実際、各光線の視覚的外観、またはより厳密には強度(intensity)をアサートする(asserting)ものである。複数の測度が使用可能である。考えられる1つの測度は、以下のように定義される絶対差である:
2本の光線が同じ物理的オブジェクトまたは点に対応する(すなわちこれにより発出されている)か否かを査定するための方法は、物理的オブジェクトの表面が、完全にランバート面である、すなわち、オブジェクト上の所与の点について、オブジェクトにより反射された光が全ての方向で同じであるという仮定に基づくものであり得る。この制約を活用することにより、我々は、2本の光線がいかに正しく同じオブジェクトを表わしているかを定義する類似性測度(measure)を構築する。これは実際、各光線の視覚的外観、またはより厳密には強度(intensity)をアサートする(asserting)ものである。複数の測度が使用可能である。考えられる1つの測度は、以下のように定義される絶対差である:
この測度は、上述の手順のステップ1の中で、2本の所与の光線が同じオブジェクトを表わしているか否かを決定するために使用することができる。小さい方のAD値はこれらの場合を表す。
類似性の測度として光線強度のみを使用することにより、ノイズ発生の傾向があることは指摘に値する。したがって、深度を推論するために必要とされる情報として2本の光線のみを取上げる代りに、深度三角測量問題を満足のいく形で包括的に解決するために反復的プロセスまたはコンセンサス方法を適用することによりノイズ効果を削減することが望まれる。
第2の方法は、ライトフィールドのエピポーラ画像表現そしてより厳密にはエピポーラ線に基づくものである。我々は以下で、本明細書中で言及されている2つの平面表現をレバレッジする(leveraging)ことによるエピポーラ線深度再構成方法という方法を紹介する。
エピポーラ線を用いた深度再構成
ランバートモデルを仮定して、図11を参照して説明した方法を用いてRx−Ry−U−V座標系内で物理的点を抽出することができる。
ランバートモデルを仮定して、図11を参照して説明した方法を用いてRx−Ry−U−V座標系内で物理的点を抽出することができる。
ライトフィールドを、Rx−Ry−U−V表現で表わしてもよい。物理的点Aは、Rx軸に平行な方向へのオフセットhxを伴ってRx−Ry平面から距離dのところに置かれる。物理的点Aは、単純さを期してRy=0およびV=0とした平面内にあると仮定する。Rx平面とU平面との間の距離はδであり、これは、我々の2つの平面表現においては1に等しい。オブジェクトAは、光線riを発出する。光線がRx−RyおよびU−V平面の両方に交差するが、交差位置は光線の角度に応じてわずかに異なる。
これはすなわち、光源由来の光線が、いわゆるエピポーラ線と呼ばれるU−Rxプロット上の線Lを形成し、その勾配(gradient)が深度により左右されることを意味している。図12はU−Rxプロットを示す。
したがって、U−Rxプロット内の線を抽出しその勾配およびRx切片を計算することにより、深度dおよびオフセットhxを得ることができる。
エピポーラ線の抽出
2Dデータ(例えば画像)から線を抽出する複数の方法を考慮することができる。この最終目的を達成するためには、ラドン変換(Radon transform)が好適である。関数f(a、b)のラドン変換Rは、以下の通りに定義される:
2Dデータ(例えば画像)から線を抽出する複数の方法を考慮することができる。この最終目的を達成するためには、ラドン変換(Radon transform)が好適である。関数f(a、b)のラドン変換Rは、以下の通りに定義される:
ラドン変換では、原初の画像平面はθ−ρ平面に変換され、このθ−ρ平面では、各点(θ0、ρ0)は画像平面内の線xCosθ0+ySinθ0=ρ0に対応する。点の強度はこのとき、その対応する線の長さに正比例する。以下のアルゴリズム1は、ラドン変換の離散化されたバージョンを計算するためのアルゴリズムと見なすことのできるハフ変換のアルゴリズムを示す。
ハフ変換が、なじみのある傾き切片型ではなくむしろ極座標(すなわちθ−ρパラメータ化)を使用する理由は、傾きと切片の両方共が、有限x−y平面(すなわちデジタル画像)についてさえ非有界であるということにある。
ラドン(およびハフ)変換の1つの主要なキーは、画像平面内の回転(すなわちθの変化)がθ−ρ平面内の単純並進移動に変換されることにある。
アルゴリズム1:ハフ(ラドン)変換アルゴリズム
要件:画像を表わす2次元行列I
1.ベクトルΘ内のθ値の範囲を離散化する。
2.ρパラメータを全く異なるnρ値に離散化する。
3.長さ(Θ)×nρ出力行列Hを構築する。
4.Hの全ての要素を最初0に設定する。
5.I内の各フィーチャ点(x、y)について、以下を実行
6.各々のθ∈Θについて、以下を実行
7. ρ=xCosθ+ySinθ
8. H(θ、ρ)=H(θ、ρ)+1
9. 以上を終了
10.以上を終了
11.出力画像Hを戻す。
要件:画像を表わす2次元行列I
1.ベクトルΘ内のθ値の範囲を離散化する。
2.ρパラメータを全く異なるnρ値に離散化する。
3.長さ(Θ)×nρ出力行列Hを構築する。
4.Hの全ての要素を最初0に設定する。
5.I内の各フィーチャ点(x、y)について、以下を実行
6.各々のθ∈Θについて、以下を実行
7. ρ=xCosθ+ySinθ
8. H(θ、ρ)=H(θ、ρ)+1
9. 以上を終了
10.以上を終了
11.出力画像Hを戻す。
深度再構成アルゴリズム
現実世界では、オブジェクトを3D座標内の任意の位置に置くことができ、このことはすなわち深度推定方法が、Ry=0およびV=0の平面上の点についてのみならず、いかなる点においても機能する必要があるということを意味している。Ry(またはV)軸内の物理的点のオフセットhyを考慮に入れるために、我々は、考えられる全てのRy値についてU−V平面上の深度再構成を実施する。換言すると、V=0として、各RyにおいてU−Vスライス上でエピポーラ線を抽出する。
現実世界では、オブジェクトを3D座標内の任意の位置に置くことができ、このことはすなわち深度推定方法が、Ry=0およびV=0の平面上の点についてのみならず、いかなる点においても機能する必要があるということを意味している。Ry(またはV)軸内の物理的点のオフセットhyを考慮に入れるために、我々は、考えられる全てのRy値についてU−V平面上の深度再構成を実施する。換言すると、V=0として、各RyにおいてU−Vスライス上でエピポーラ線を抽出する。
以上の節で説明した原理にしたがって、我々は、キャプチャされたシーンの幾何形状を再構成するためのアルゴリズムを提案する。
要件:UVRxRy座標系で表わされたプレノプティックデータ
1.Ry’としての各Ryについて
2.(V、Ry)=(0、Ry’)においてU−Rx平面上でハフ変換を適用する
3.各々の抽出されたエピポーラ線について、深度di、xオフセットhxi、およびyオフセットhyiを計算する
4.全ての推論した3d点(hxi、hyi、di)を戻す
1.Ry’としての各Ryについて
2.(V、Ry)=(0、Ry’)においてU−Rx平面上でハフ変換を適用する
3.各々の抽出されたエピポーラ線について、深度di、xオフセットhxi、およびyオフセットhyiを計算する
拡張現実の適用
このシーンセントリック型表現は、シーンの物理特性と適合する形で、キャプチャされたライトフィールドに対する修正および/または改善を実施することを可能にする。
このシーンセントリック型表現は、シーンの物理特性と適合する形で、キャプチャされたライトフィールドに対する修正および/または改善を実施することを可能にする。
ここでは、2つの異なる実施例を示す。最初の実施例は、特定のシーン要素の画質の改善に関するものである。多くの場合、オブジェクトあるいはシーンの充分に画定された部分などの画像の要素を選択し、画像の特定の部分をより明るくする、より暗くする、よりコントラストを上げるまたは異なる露光設定にすることが望まれる。従来の画像形成システムにおいて所望の写真補正を適用するために、輝度を取上げてみれば、ユーザーは、どの画素を修正しなければならないかを手作業で選択し、これらの画素のみにフィルターが適用されるようにしなければならない。これは、多くの場合において実に煩わしいことであり得る(人間の毛髪の例を考えてみるとよい)。
本節において正に説明した通りに変換されたシーンのライトフィールドキャプチャを用いると、視覚的外観に基づいてだけではなくシーン空間内のそれらの物理的位置との関係においても、要素を選択することができる。このシステムでは、ユーザーは画素ではなく、空間内の点を選択する。このとき、システムは、各オブジェクトをセグメント化するためにシーン点群の深度不連続性を分析することによって、特定のオブジェクトに属する点全てをユーザーが選択するのを助けることができる。したがって、先の毛髪の例では、ユーザーは、人物の頭の上でクリックするだけで、その頭全体を、適用したフィルターにより補正することができる。人物の頭により「発出される」異なる光線は、この場合、各光線の色の強さを増大させ得る輝度フィルターであるフィルターにしたがって選択され補正され得る。
この2段階変換(カメラライトフィールド→カメラ非依存ライトフィールド→シーンセントリック型ライトフィールド)を有することによって、異なるフィルターは、完全にカメラ非依存性であり、幾何形状および照明情報の両方が公知であるため、シーンの異なる物理法則を遵守する形でシーン自体に容易に適用され得る。
第2の実施例は、ライトフィールド空間内での拡張現実の実行に関するものである。拡張現実は、追加の/他の情報によるシーンの変化に関するものである。したがって、シーン内の変化と追加すべきコンテンツとの間に直接的な「物理的」リンクが存在する。歩行者レベルで行なわれる、通りのライトフィールドキャプチャの例を取上げてみよう。ここで示される使用事例は、例えば既存の建物などのオブジェクトを別のオブジェクト、例えば建設すべきより新しい建物で置換するというものである。より新しいオブジェクトは、例えば反射性などのテクスチャおよび表面情報を伴うコンピュータが生成した仮想3Dモデルの形をとる。最終目的は、この3Dモデルを完全にライトフィールドキャプチャ内に置き、こうしてそれが現在のオブジェクトに置き換わるようにすることにある。
この目的のために、ライトフィールドのシーンセントリック型表現を得て、以下のプロセスを使用することができる:
1.ユーザーは、キャプチャされたライトフィールドシーン内で建物などのオブジェクトの主要正面を選択する。これにより、シーンの点群表現内にアンカー点が新規作成される
2.システムは、シーン内に仮想3Dモデルを置き、こうしてキャプチャされたライトフィールド内のオブジェクトの主要正面が仮想3Dモデルの主要正面と重複することになる
3.仮想3Dモデルの3D情報およびライトフィールド点群内に格納されている深度情報によって、システムは、どの光線がライトフィールドキャプチャにおいてオブジェクトを表わしているか、ひいてはどの光線を、仮想3Dモデルを表わす光線で置換しなければならないかを推論できる。
4.システムは、仮想3Dモデル光線をシーンの光線とマージさせて、人工的に中に入れられた新しいオブジェクトを用いてシーンの近現実表現を新規作成する。
1.ユーザーは、キャプチャされたライトフィールドシーン内で建物などのオブジェクトの主要正面を選択する。これにより、シーンの点群表現内にアンカー点が新規作成される
2.システムは、シーン内に仮想3Dモデルを置き、こうしてキャプチャされたライトフィールド内のオブジェクトの主要正面が仮想3Dモデルの主要正面と重複することになる
3.仮想3Dモデルの3D情報およびライトフィールド点群内に格納されている深度情報によって、システムは、どの光線がライトフィールドキャプチャにおいてオブジェクトを表わしているか、ひいてはどの光線を、仮想3Dモデルを表わす光線で置換しなければならないかを推論できる。
4.システムは、仮想3Dモデル光線をシーンの光線とマージさせて、人工的に中に入れられた新しいオブジェクトを用いてシーンの近現実表現を新規作成する。
前述の手順は、ライトフィールド内のオブジェクトを追加/変更するために使用することができる。拡張現実シナリオには、通常次の2つのステップが関与している:すなわち、1)単一のライトフィールドキャプチャに基づいて、ユーザーAが、要素を除去するかまたはシーンの物理特性と直接関連づけされる新しい要素を追加することによって、シーンを修正するステップと、2)ユーザーBが、別のライトフィールドキャプチャ(またはそのビデオまたは連続的リアルタイムキャプチャ)を取上げ、先行するユーザー入力に基づいてシーンが自動的に変更される(またはそれ自体アノテーションが付される)ようにするステップである。第1のステップは、上述の4段階手順を用いて行なうことができる。第2のステップには、ユーザーBによりキャプチャされたライトフィールドと共にユーザーAがキャプチャしたライトフィールドを登録することができることが関与している。登録後、我々にはシーンA光線とシーンB光線との間のマッピングが正確に分かる。したがって、上述の手順のステップ番号4を自動的に適用して、シーンのユーザーのA修正に基づくユーザーBのシーンの拡張バージョンを新規作成することができる。これを、ライトフィールドに基づく拡張現実と呼ぶ。
ライトフィールドに基づく減損現実
一部のシナリオでは、シーンを表わすキャプチャされたライトフィールドを修正してそこから現実のオブジェクトを除去することが所望されることが多い。
一部のシナリオでは、シーンを表わすキャプチャされたライトフィールドを修正してそこから現実のオブジェクトを除去することが所望されることが多い。
シーンからオブジェクトを除去するためには、そのシーンについての一定の知識が求められる。例えば、シーンから立方体を除去するには、(カメラの平面位置との関係において)立方体の背後で背景がどのように見えるかをこの方法が知っていることが求められる。
ライトフィールドが有用であり得るのはここにおいてである。実際、我々はシーンが異なる側からどのように見えるかについての情報をより多く有しており、したがって、「オブジェクトの背後」をより容易に再構成できると思われる。
したがって、オブジェクトを除去するには、次の2つの異なるステップが求められる:
1.除去すべきオブジェクトを識別する。これには、ライトフィールドのどの光線がオブジェクトに対応するかを正確に知る必要がある。このプロセスは、セグメンテーションと呼ばれる。
2.オブジェクトの背景をイミテートすると思われる光線により、オブジェクト光線を置換する。これはインペインティングと呼ばれる。
1.除去すべきオブジェクトを識別する。これには、ライトフィールドのどの光線がオブジェクトに対応するかを正確に知る必要がある。このプロセスは、セグメンテーションと呼ばれる。
2.オブジェクトの背景をイミテートすると思われる光線により、オブジェクト光線を置換する。これはインペインティングと呼ばれる。
ここで以下では、以上に説明されたライトフィールドの2つの平面表現における上述の2つのステップの達成方法を提示する。
セグメンテーション
シーンから除去したいオブジェクトにどの光線が属しているかを識別するために、シーンの「意味論的」理解レベルをより高くするように、オブジェクトセグメンテーションと呼ばれるタスクを実施する。そのことについては、先行する節の中で説明されたシーンセントリック型ライトフィールド表現から開始する。
シーンから除去したいオブジェクトにどの光線が属しているかを識別するために、シーンの「意味論的」理解レベルをより高くするように、オブジェクトセグメンテーションと呼ばれるタスクを実施する。そのことについては、先行する節の中で説明されたシーンセントリック型ライトフィールド表現から開始する。
この表現が手中にあることから、我々は、シーンのオブジェクトにより発出されたどの光線が同じオブジェクトに実際に属するかを識別しようとする。それを行なうためには、立体視野からのオブジェクトセグメンテーションに特に由来する複数の方法が存在する。これらの方法は同様に、このシーンセントリック型ライトフィールド事例においても適用可能であり、その主たる利点は、ライトフィールドキャプチャデバイスによってキャプチャされた追加量の情報に起因して、深度推定の質が通常より高いものであるという点にある。これにより、より優れたセグメンテーション結果が生み出される。
シーンセントリック型ライトフィールドについて機能する典型的なオブジェクトセグメンテーションアルゴリズムは、以下のように機能する:
1.3つの次元が点の位置を表わし、他の3つの次元がこの点から出ていく全ての光線の光の強度(または色)の平均である、6Dベクトルとして、各々の光線発出点を表わす。強度を平均する代りに、アルゴリズムは同様にこれらの強度を量子化して、1組の予め決められた方向のうち1つの光線発出方向あたり1つの強度を有するようにすることもできるということも指摘に値する。方向の数をNに設定すると、発出点を表わすN+3次元のベクトルが新規作成されるであろう。
2.色の非一貫性とは異なる幾何形状の非一貫性のコストに対して典型的にウェイトが置かれる距離に基づいて、この6D点セットをクラスタ化する。典型的に、幾何形状の非一貫性のコストにさらにウェイトが置かれる。
3.クラスタ化の結果は、各々がシーン上の異なるオブジェクトを表わすクラスタからなる。アルゴリズムの最後のステップは、シーンの各光線に対して、光線が属するクラスタに対応するオブジェクト識別子を割当てることにある。
1.3つの次元が点の位置を表わし、他の3つの次元がこの点から出ていく全ての光線の光の強度(または色)の平均である、6Dベクトルとして、各々の光線発出点を表わす。強度を平均する代りに、アルゴリズムは同様にこれらの強度を量子化して、1組の予め決められた方向のうち1つの光線発出方向あたり1つの強度を有するようにすることもできるということも指摘に値する。方向の数をNに設定すると、発出点を表わすN+3次元のベクトルが新規作成されるであろう。
2.色の非一貫性とは異なる幾何形状の非一貫性のコストに対して典型的にウェイトが置かれる距離に基づいて、この6D点セットをクラスタ化する。典型的に、幾何形状の非一貫性のコストにさらにウェイトが置かれる。
3.クラスタ化の結果は、各々がシーン上の異なるオブジェクトを表わすクラスタからなる。アルゴリズムの最後のステップは、シーンの各光線に対して、光線が属するクラスタに対応するオブジェクト識別子を割当てることにある。
全ての光線をオブジェクトに関連づけした後、除去すべきオブジェクトを選択しなければならない。これは、例えば、ユーザーに対してシーンの画像を提示し、ユーザーが1つの領域をクリックできるようにすることによって、行なうことができる。シーン上のクリックを背面投影することにより、どのオブジェクトにそのクリックが適用されたかを知り、ひいては、そのオブジェクトに属する光線を識別することができる。
ここで、シーンセントリック型ライトフィールド表現内でのオブジェクトセグメンテーションが有用であると考えられる典型的な使用−事例について説明するだろう:
プレノプティックカメラによりキャプチャされたライトフィールドシーンは特定の角度分解能および空間分解能を有する。両方の分解能共、主としてカメラの固有パラメータに起因する。2つの異なるプレノプティックカメラパラメータでとられた類似のシーンが、異なる角度分解能および空間分解能を有する場合もある。これらのシーンが同じ空間分解能を有すると仮定して、短焦点レンズおよび平均焦点レンズなどの異なるカメラパラメータでキャプチャされたシーン由来のパースペクティブが異なっている場合もある。
所与の短焦点レンズ(例えば24mm)で特定のプレノプティックカメラパラメータを用いて所与のパースペクティブでシーンをキャプチャするカメラマンを仮定する。100mmなどのより長い焦点の第2のレンズで、このカメラマンは再び、別のパースペクティブでシーンをキャプチャする。両方のキャプチャされたシーン上において、検討対象のオブジェクトは前景内に存在するが、2つの異なるパースペクティブビューで見られ得る。ここで、前景が第1の画像の場合と同じパースペクティブを有しているものの背景は第2の画像のパースペクティブを有している状態のシーンをキャプチャすることをカメラマンが望んだと仮定する。
それを達成するためには、1つの可能性は、両方の画像のためのキャプチャ位置を物理的に変更することにある。第1の画像は、複数のカメラパラメータで1つの位置からキャプチャされる。この画像上で、前景は、複数の特別なパースペクティブを有する。第2の画像上では、カメラマンは、前景が第1の画像の場合と類似のパースペクティブを有すること(したがって物理的なキャプチャ位置を調整しなければならない)、ただし背景は別のパースペクティブを有することを望む。そのために、カメラマンは、写真撮影において重要であるこのような視覚的効果をキャプチャできるように、物理的に動き回る必要がある。
このアプローチに対する1つの代替案は、キャプチャ後にシーンを処理することにある。プレノプティックカメラを用いてシーンをキャプチャすることにより、これが可能になる。実際、前景内のオブジェクトを、セグメンテーション技術を用いて背景から隔離することができる。このとき、画像の前景と背景を別個に処理することができ、したがって、フィルターを前景または背景に対して特定的に適用することができる。画像の前景のパースペクティブを変更しないものの背景の光線パラメータを変更して新しいパースペクティブを計算する第2のフィルターを有するフィルターの設計を想像することができる。したがって、計算された画像は、オリジナルのパースペクティブを有する前景と、別のパースペクティブを有する背景とを含む。
計算コストを削減するため、シーンセントリック型表現は、オブジェクトが位置設定されている画像の一部分の上にのみ適用されてもよい。このオブジェクトに関係する全ての光線は、フィルターが適用されるであろう他の光線と区別されるであろう。フィルターは、検討対象のオブジェクトを除いて、シーン上に適用される新しい角度および空間分解能を処理する、特定の焦点レンズなどのカメラパラメータをシミュレートしてよい。
ライトフィールドインペインティング
減損現実処理の最後のステップは、先行ステップにおいて識別された光線を変換して、これらの光線を、あたかも除去すべきオブジェクトの背景により発出されたかのように見せることにある。
減損現実処理の最後のステップは、先行ステップにおいて識別された光線を変換して、これらの光線を、あたかも除去すべきオブジェクトの背景により発出されたかのように見せることにある。
標準的な画像処理の分野においては、画素を、オブジェクトの背後にあると思われるテクスチャと同じように見せるべき画素と置換することを、インペインティングと呼ぶ。ここでは、方法の一般的概念と、それを我々のシーンセントリック型ライトフィールドにいかに適用できるかを提示する。さらなる詳細は、http://hci.iwr.uni−heidelberg.de/Staff/bgoldlue/papers/GW13_cvpr.pdfに見出すことができる(インペインティング実施例は論文の第6節に示されている)。
ライトフィールドのインペインティングの主たる考え方は、ライトフィールドの欠落した情報を回復するというものである。一つの事例において、欠落した情報は、選択されたオブジェクトの光線により表わされる部域である。これらのオブジェクト光線が欠落していると仮定することによって、これらの光線を除去することができ、ライトフィールドを再構成することができる。この問題については、欠落領域□が、Fという名前のキャプチャされたライトフィールドから前もって除去されたオブジェクトの光線に対応することを仮定して、以下でより正式に記載される。
第2の実施例として、光線空間に対するインペインティングについて論述する。
を、入力されたライトフィールドFが未知である光線空間の一領域とする。最終目的は、欠落した値を復元する関数Uを回復することにある。このため、以下の式が見出される:
この最適化/正則化の問題を解決することで、背景により発出された異なる光線がどのようなものであるかについての解答が得られる。したがってシーンは、以前と同じシーンに見えるもののオブジェクトは存在しない回復されたライトフィールドを用いて再度レンダリングされることができる。
クロッピング
プレノプティック画像のクロッピングは、4つのパラメータRx、Ry、U、Vの範囲を選択することに対応する。Rx−Ry平面上でクロッピングを実施することに類似している2D画像クロッピングに加えて、プレノプティッククロッピングは、U−V平面ならびにRx−Ry平面上で画像をクロッピングできるようにする。各パラメータRx、Ry、U、Vについての範囲を設定して、全ての光線セットから光線のサブセットを選択することができる。考えられるクロッピングの実装は、角度に基づくクロッピングであり、これはオブジェクトのビューイング角度を制限できるようにする。それは、ユーザーがプレノプティック画像上にプレノプティックアノテーションを添付して、このアノテーションが一定のビューイング部域のみから出現するようにする場合に使用されてよい。角度に基づくクロッピングは、添付されたオブジェクトの3D位置(x、y、z)および2つの角度(ψ、θ)の入力をとって、ビューイング部域を制限し、Rx−RyおよびU−Vの対応する範囲を出力する。
プレノプティック画像のクロッピングは、4つのパラメータRx、Ry、U、Vの範囲を選択することに対応する。Rx−Ry平面上でクロッピングを実施することに類似している2D画像クロッピングに加えて、プレノプティッククロッピングは、U−V平面ならびにRx−Ry平面上で画像をクロッピングできるようにする。各パラメータRx、Ry、U、Vについての範囲を設定して、全ての光線セットから光線のサブセットを選択することができる。考えられるクロッピングの実装は、角度に基づくクロッピングであり、これはオブジェクトのビューイング角度を制限できるようにする。それは、ユーザーがプレノプティック画像上にプレノプティックアノテーションを添付して、このアノテーションが一定のビューイング部域のみから出現するようにする場合に使用されてよい。角度に基づくクロッピングは、添付されたオブジェクトの3D位置(x、y、z)および2つの角度(ψ、θ)の入力をとって、ビューイング部域を制限し、Rx−RyおよびU−Vの対応する範囲を出力する。
光線強度の修正
プレノプティック画像の光線強度は、包括的および局所的に修正可能である。
プレノプティック画像の光線強度は、包括的および局所的に修正可能である。
包括的な光線強度修正は、ユーザーがプレノプティック画像の輝度、カラーバランス、コントラスト、飽和などを調整できるようにし、修正は全ての光線に対して均一に適用される。色ヒストグラムを分析し最適化することによる自動的画像増強などのより進歩した処理も同様に、プレノプティック画像に対して実施することができる。
局所的光線強度修正によって、ユーザーは、シーン(すなわちRx−Ry平面)および視点(すなわちU−V平面)の両方に関しプレノプティック画像の興味を引かれる領域を選択し、その後、選択された領域内で以上に列挙した修正を適用することができるようになる。
光線のフィルタリング
2D画像のフィルタリングと同様に、プレノプティックデータに対してフィルターを適用することも可能である。ガウシアンぼかしフィルターなどのローパスフィルターは、ライトフィールド内の光線の拡散として解釈される。2D画像のフィルタリングは、1つの画像および2Dフィルターエレメントの畳み込みとして表わされ、同様にプレノプティックデータのフィルタリングは、プレノプティック画像および4Dフィルターエレメントの畳み込みとして表わされる。
2D画像のフィルタリングと同様に、プレノプティックデータに対してフィルターを適用することも可能である。ガウシアンぼかしフィルターなどのローパスフィルターは、ライトフィールド内の光線の拡散として解釈される。2D画像のフィルタリングは、1つの画像および2Dフィルターエレメントの畳み込みとして表わされ、同様にプレノプティックデータのフィルタリングは、プレノプティック画像および4Dフィルターエレメントの畳み込みとして表わされる。
図13は、単一点(Rx、Ry)を通過しU−V平面に衝突する光線を拡散させる、U−V平面用のガウシアンフィルターの一例を示す。
結果として、フィルターFを用いてフィルタリングされたオブジェクトAは、図14でA’により描かれている通り、ぼやけて見える。この例では、図から認識できるように、Rx−Ry平面近くのオブジェクトはさほどぼやけなくなり、平面から遠いオブジェクトは、さらにぼやけた状態となる。その上、適切なフィルターエレメントを構築することにより、他の全てのオブジェクトをぼかしながら一定の深度にあるオブジェクトを鮮明に維持することが可能である。
サイズ変更
プレノプティック画像のサイズ変更は、パラメータの単位の大きさ変更として定義づけされる。2D画像のサイズ変更と同様に、図15に示されたオブジェクトAをサイズ変更するためのサイズ変更プロセスRは、1本の軸上の値を、この値と倍率の積へと変換する。
プレノプティック画像のサイズ変更は、パラメータの単位の大きさ変更として定義づけされる。2D画像のサイズ変更と同様に、図15に示されたオブジェクトAをサイズ変更するためのサイズ変更プロセスRは、1本の軸上の値を、この値と倍率の積へと変換する。
例えば、(σ1、σ2、σ3、σ4)=(0.5、1、0.5、1)である場合には、出力は全ての視点においてRx(またはU)方向に半分に収縮したように見える。図17は、Rx−RyおよびU−V平面を半分にサイズ変更する略図を示す。
平面の垂直方向並進移動
キャプチャされたシーンの光線は、2つの平面表現においてRx、Ry、U、Vによりパラメータ化され、U−V平面は、ビューイング位置を表わす。平面上で任意にビューイング位置を変動させ、対応するRx、Ry値を獲得することができる。しかしながら、平面内部を移動することだけでなく平面外を移動することが所望される可能性もある。このようなケースは、1つのオブジェクトに近づけるようにビューイング位置を移動させようとする場合に発生する。
キャプチャされたシーンの光線は、2つの平面表現においてRx、Ry、U、Vによりパラメータ化され、U−V平面は、ビューイング位置を表わす。平面上で任意にビューイング位置を変動させ、対応するRx、Ry値を獲得することができる。しかしながら、平面内部を移動することだけでなく平面外を移動することが所望される可能性もある。このようなケースは、1つのオブジェクトに近づけるようにビューイング位置を移動させようとする場合に発生する。
ビューイング位置をU−V平面の外の1点へと変更するためには2つの平面をその直交する軸に沿ってシフトさせる必要があることから、光線パラメータ全てを再計算することが必要になる。新しいパラメータの計算は、以下の通りに実施できると考えられる:
a)2つの平面をシフトさせて、新しい視点が、その直交する軸に沿ってU−V平面上に存在するようにする、
b)全ての光線について、2つの平面との新しい交点を計算する。
a)2つの平面をシフトさせて、新しい視点が、その直交する軸に沿ってU−V平面上に存在するようにする、
b)全ての光線について、2つの平面との新しい交点を計算する。
これは一次演算であることから、計算は、入力パラメータのベクトルに対する行列乗算として記述可能である。行列の値は、2つの平面間の距離δおよび並進移動係数zから計算される。図16は、略図および並進移動行列を簡単に示している。
再焦点合せ
キャプチャされたライトフィールドは、特定のオブジェクト焦平面を用いて取上げられてよい。同じ物理的点からの異なる方向に由来する光線がキャプチャされることから、光線を再配置して再焦点合せを再度作り出すことができる。
キャプチャされたライトフィールドは、特定のオブジェクト焦平面を用いて取上げられてよい。同じ物理的点からの異なる方向に由来する光線がキャプチャされることから、光線を再配置して再焦点合せを再度作り出すことができる。
デバイス非依存表現においては、これは、Rx−Ry平面を移動させこの新しい平面と光線との新しい交差を計算することによって行なうことができる。このプロセスは、非依存表現を構築する場合に必要である正規化プロセスと同等であることを指摘することができる。
プレノプティックデータの融合
以上の節で説明した通り、ライトフィールドは有限数のパラメータで構成されている。2つの平面表現の例では、光線は、U−V平面およびRx−Ry平面との交差についての4つのパラメータ、およびその光線強度によって記述される。4つの交差パラメータの座標値は、2つの平面表現または球表現のような異なる表現に対応し得る。こうして、2つのプレノプティック画像に対応するデータを融合させる場合には、それらの表現が異なっている場合を考慮に入れる必要がある。
以上の節で説明した通り、ライトフィールドは有限数のパラメータで構成されている。2つの平面表現の例では、光線は、U−V平面およびRx−Ry平面との交差についての4つのパラメータ、およびその光線強度によって記述される。4つの交差パラメータの座標値は、2つの平面表現または球表現のような異なる表現に対応し得る。こうして、2つのプレノプティック画像に対応するデータを融合させる場合には、それらの表現が異なっている場合を考慮に入れる必要がある。
第2の表現にある第2のプレノプティックデータを第1の表現にある等価のデータに変換し、第1の表現内で2つのデータを融合させることにより、異なる表現を有する2つのプレノプティックデータをマージまたは融合することができる。データ表現に応じて、変換済データのサンプリングは、第2のデータのサンプリングと同じでない場合がある。この場合、異なるサンプリングに対処するため、プレノプティックデータに対し量子化を適用する必要があり得る。
量子化プロセスにおいて、各パラメータは、座標内の2つのサンプリング点の距離に対応するサイズを有する小さい値域に割当てられる。例えば、Rx軸上のサンプル数が640であるならば、Rx軸上でマージすべき部域は640個の値域に分けられ、この部域に衝突する各光線のRx値は値域の1つに量子化される。2つの異なる光線が同じ値域へと量子化される場合が発生する可能性があり、これはすなわち、元来異なっている光線の全ての量子化済みパラメータが同一になることを意味している。この場合、融合プロセスについて決定を行なう必要があり、このプロセスは例えば、一定の基準に基づいて光線の1つを選択すること、またはそれらをマージして平均光線強度を得ることであり得る。別の問題として、全ての値域に強度値が充填されない場合もあり、一部は空のままにとどまる。この場合、空値域における値は、隣接する値域による補間を用いて充填されるか、または値無しのままとどまらせることができる。さまざまな補間方法が考えられる。双一次補間が一例である。
ライトフィールド記憶装置
2つの平面表現内の光線の強度値は、4つのパラメータ(例えばRx、Ry、U、V)を用いてパラメータ化されることから、全ての強度値およびその対応するパラメータを記憶することにより、キャプチャされたライトフィールド全体を記憶することができる。4つのパラメータは、任意の実数値をとることができる。赤色、緑色および青色の各々についての強度値、あるいはHSVまたはCMYKなどの他の表現での任意の他の値を定義することができる。したがって、行が各光線に対応し列がそれぞれ各パラメータまたは強度値に対応する行列様のフォーマットで、ライトフィールドを記憶することができる。光線が1つの強度値を有することを仮定すると、行列のサイズは記憶すべき光線の数の5(すなわち4パラメータ+1強度値)倍に等しい。
2つの平面表現内の光線の強度値は、4つのパラメータ(例えばRx、Ry、U、V)を用いてパラメータ化されることから、全ての強度値およびその対応するパラメータを記憶することにより、キャプチャされたライトフィールド全体を記憶することができる。4つのパラメータは、任意の実数値をとることができる。赤色、緑色および青色の各々についての強度値、あるいはHSVまたはCMYKなどの他の表現での任意の他の値を定義することができる。したがって、行が各光線に対応し列がそれぞれ各パラメータまたは強度値に対応する行列様のフォーマットで、ライトフィールドを記憶することができる。光線が1つの強度値を有することを仮定すると、行列のサイズは記憶すべき光線の数の5(すなわち4パラメータ+1強度値)倍に等しい。
しかしながら、プレノプティックデータは通常、恒常な間隔で並置された普通の画像形成センサーを用いてキャプチャされることから、カメラの構造についてのこの先験的知識を活用して、求められる記憶装置を最適化することができる。こうして、この条件の下で、キャプチャされたプレノプティックフィールドを記憶するために従来の画像フォーマットを使用することが有利であり得る。このフォーマットでは、本明細書の冒頭で提示された2つの平面表現が充分好適である。
画像様のフォーマットを用いてライトフィールドを記憶するためには、2つの平面表現パラメータが既知であることが必要である。これらのパラメータは同様に、メタデータを用いて画像内に記憶できるが、カメラ非依存表現が必要であることから、パラメータは通常先験的に既知である。これらのパラメータとしては、2つの平面間の距離および光線のサンプリングレート(マイクロレンズおよび画像形成センサーパラメータに対応する)が含まれる。
表現パラメータを固定させることにより、2つの平面間で表わされた異なる光線をシーンに全く依存しないものにすることになる。実際、シーンBとは異なるシーンAは、2つの平面により表わされる光線方向を有する。唯一の変化は光線強度にあり、この強度は異なるオブジェクトを表わしているため、明らかに変化するだろう。
このような2つの平面表現を記憶するためには、従来の画像フォーマットを使用できる。画像は画素で構成され、各画素は、U−V平面に衝突する光線を表わす。画像の2Dデカルト座標系は、U−V平面座標系に直接マッピングされ、U−V平面とこの画像記憶装置との間の関係を全く単純なものにする。画像の画素数は、U−V平面のサンプリングレートに直接対応し、このサンプリングレートはこのU−V平面に衝突する光線の数に等しい。
表現の特性を活用することにより、ライトフィールドを効率良く記憶するためのフォーマットを球表現などの別のタイプの表現のために構築することができる。
リアルタイムシステム内でこの記憶装置フォーマットを活用するためには、1本の光線に対応する画像内の画素とその光線方向とを対応させる予め計算されたルックアップテーブルを使用することができる。これにより、実行時に光線方向を得ることは、全てのキャプチャされたライトフィールドに共通の予め計算されたルックアップテーブルから値をリトリーブすることに帰着する。
プレノプティックデータの視覚化
記憶された光線の視覚化は、光線により表わされるシーンを人間が感知できるようにするために必要なステップである。視覚化は、例えばホログラフィによる視覚化などのさまざまな形で実施可能であるが、この節では、一般性を失なうことなく、単一の/多数の2D画像としてシーンを視覚化する普通の2D視覚化(すなわちレンダリング)を考慮する。2つの平面表現の我々の実施例における記憶されたライトフィールドは、2D表面上の一定のビューイング位置に衝突する4D光線を投射することによって視覚化することが可能である。表面と各光線の交点をサーチし2D画像の対応する画素内にその強度値を割当てることによって、2D画像が生成される。最も単純な例は、Rx−Ry、U−V表現に記憶されたライトフィールドのレンダリングである。この場合、Rx−Ry平面は、光線が投射される表面(すなわち画像平面)に対応し、UV平面上の点が、ビューイング位置に対応する。UV平面上の点(U、V)において交差する各光線の強度値を、画像平面上の点(Rx、Ry)へと割当てることにより、ビューイング位置(U、V)から見たキャプチャされたシーンのレンダリング済み画像が得られる。
記憶された光線の視覚化は、光線により表わされるシーンを人間が感知できるようにするために必要なステップである。視覚化は、例えばホログラフィによる視覚化などのさまざまな形で実施可能であるが、この節では、一般性を失なうことなく、単一の/多数の2D画像としてシーンを視覚化する普通の2D視覚化(すなわちレンダリング)を考慮する。2つの平面表現の我々の実施例における記憶されたライトフィールドは、2D表面上の一定のビューイング位置に衝突する4D光線を投射することによって視覚化することが可能である。表面と各光線の交点をサーチし2D画像の対応する画素内にその強度値を割当てることによって、2D画像が生成される。最も単純な例は、Rx−Ry、U−V表現に記憶されたライトフィールドのレンダリングである。この場合、Rx−Ry平面は、光線が投射される表面(すなわち画像平面)に対応し、UV平面上の点が、ビューイング位置に対応する。UV平面上の点(U、V)において交差する各光線の強度値を、画像平面上の点(Rx、Ry)へと割当てることにより、ビューイング位置(U、V)から見たキャプチャされたシーンのレンダリング済み画像が得られる。
ビューイング位置は、任意の位置に置くことができる。ビューイング位置の変更は、パースペクティブシフトと呼ばれる。例えば、Rx−Ry−U−V表現の場合、パースペクティブシフトは、ビューイング点(U、V)をU−V平面上の別のビューイング点(U’、V’)へと変更することによって行なわれる。パースペクティブシフトを用いてライトフィールドをレンダリングすることによって、カメラ位置が新しい位置に並進移動するという視覚的効果が誘発される。
スクリーン上にシーンの2D画像を表示するためと同時に、より進んだ使用事例のために、ライトフィールドレンダリングを使用することもできる。例えば、瞳孔間距離を離した状態で2つのビューイング位置から2つの画像を生成しそれぞれ右眼のために一方をそして左眼のために他方を表示することによって、1つのシーンの3Dビューがシミュレートされる。シャッター3Dシステムおよびオートステレオスコピーなどの、立体画像を表示するための技術がすでに存在している。
構図を変えた2D画像としてユーザーにデータを提示するために、プレノプティックビューワを使用することができる。プレノプティックシーンを特定の焦点に再度焦点合せするか、またはシーン視点を変更する可能性がユーザーに与えられる。プレノプティックビューワは、プレノプティックデバイスによりキャプチャされた光線を、解釈することなく直接使用し、したがって、3D再構成の場合のようなエラーを発生させない傾向にある。実際、光線のこの直接的使用は、シーンオブジェクトの反射性またはテクスチャについていかなる仮定も行なわない。
焦点の変更は、提示された2D画像内の1点を直接クリックしてその点に焦点を調整することにより行なうことができる。代替的には、ユーザーは、スクロールホイールを使用して、シーン内の焦点を変更することが考えられる。これは、焦点合せされた状態にある点が鮮明で、残りがぼやけている画像のスキャンと視覚的に類似している。1つの焦点距離において画像を再度焦点合せするこの能力には、閉塞によって隠されたオブジェクトの背後を見るという特性があることを指摘しておきたい。ユーザーから見ると、これは、閉塞が存在するか否かに関わらず異なる焦平面に沿ってシーンをスキャンすることに類似している。これは、このようなプレノプティックビューワを使用することで、繁みを貫通してまたは密度の高い粒子体積を貫通して見ることができる強力な特性である。
プレノプティックビューワは同様に、3D空間内で視点を変更することによって、異なるビューをレンダリングすることもできる。視点の変更は、例えばシーン上のユーザーのマウスのクリックアンドドラグ動作によりトリガーされ得る。このようにして、プレノプティックビューワは、マウスボタンが解放されるまで、マウスの新しい位置に応じてビューイング位置を変更する。代替的には、押圧されたキーに応じてビューイング位置を変更するためのトリガーとして、キーボードのキーを使用できると思われる。単純な実施例は、この動作のためにキーボードの矢印を使用することであると思われる。
ひとたびシーンの焦点およびビューイング位置について決定を下した時点で、ユーザーは、次にシーン要素をアノテートすることができる。ユーザーは、プレノプティックビューワの現在の2Dビュー内で焦点合せされた状態にあるシーン要素に対してのみアノテーションを添付してよく、これはユーザーにとってより意味あることである。ユーザーは同様に、2Dビューのぼやけた部分にもアノテートすることができると思われる。
シーンにアノテートするために、ユーザーは、2Dビューワ上でアノテーションをドラグアンドドロップしてよい。アノテーションは、考えられるアノテーションのリストから取上げるか、またはビューワにアップロードするか、またはオンザフライで新規作成することができる。選択されたアノテーションは、プレノプティックビューワ内に結合された状態で現われる。システムは光線をシーン光線と適正にマージした。その後ユーザーは、プレノプティックシーン環境内で直接それに対していくつかの変換を適用することができる。変換は、3D並進、回転またはスケーリングであり得る。これらの変換は例えば、ボタンまたはキーボードのキーによってトリガーされる。
プレノプティックビューワの場合には、アノテーションとシーンとの間の光線のマージは、ビューワが光線情報を用いて直接機能することから、アノテーションレベルにおいて直接行なわれる。
記録されたプレノプティックデータは、3Dビューワでも同様に視覚化可能である。記録されたシーンは、3つの次元でシフトされ操作され得る。それにより、ユーザーは、シーン空間内へ直感的にナビゲートすることができる。現実世界の一部分しかキャプチャされていないため、再構成された3Dシーンは、そのシーンの一部のデータが欠落していることからひび割れ状態(crackled)になる場合がある。
キャプチャされた光線の全てを用いて、この3Dマップを計算してよい。生成されたカラー画素の各々は、この3D空間内に位置づけされるだろう。プレノプティック画像は後で焦点合せ可能であるという重要なフィーチャを有する。換言すると、ユーザーは、どの部域を焦点合せしたいかを選択することができる。したがって、記憶されたデータも同様に、異なる最も鮮明な部域を伴う画像スタックとして見ることができるようになる。各々の画像焦点距離(image focal distance)を用いて、それらの相対的位置を知ることができる。このスタックからの画像を全て使用して、3Dマップを計算する。各画像について、最も鮮明な部域からの画素のみが考慮され、選択された画像焦点距離が知られていることから、これらの画素を3Dマップへと再度位置づけすることができると思われる。この計算されたマップは、複数の平面上に位置づけされた多数の画像からの画素で構成され得、深度の印象を与えている。現在、文献中では、プレノプティック画像を用いて高機能の3Dマップを計算するためのより進化した技術が存在している。この分野では、研究分野がかなり活発である。プレノプティックカメラの重要な利点は角度分解能にあることから、可能なかぎり部分的閉塞を削減して、進化したマップを構築することができる。
ARがプレノプティック空間において有利な適用
顕微鏡検査の分野
顕微鏡検査は、恐らく、プレノプティック技術の使用が現在最もふさわしい分野である。標準的な光学系は、光学的な制限(浅いフィールド深度、細胞またはニューロンにとって過度に長い露光…)に起因して効率の良い解決法を提示できないでいる。例えば、細胞の分析は、細心の注意を要するプロセスであることから、細胞の標識づけによってアノテーションが可能であるというのは、強力な利点である。
・ プレノプティックは、フィールド深度を(6倍)増大させる。
・ 閉塞がある場合、プレノプティックは、他の深度デバイスでは不可能である異なる層において情報を解像できる。
・ プレノプティックは、一度により多くの視野角をキャプチャすることから、細胞の露光を短縮する(生きたニューロンにとって良いことである)。
・ プレノプティックは画像の分解能を(8倍)増大させる。
・ 現実的なアノテーションの必要は全く無い。
顕微鏡検査の分野
顕微鏡検査は、恐らく、プレノプティック技術の使用が現在最もふさわしい分野である。標準的な光学系は、光学的な制限(浅いフィールド深度、細胞またはニューロンにとって過度に長い露光…)に起因して効率の良い解決法を提示できないでいる。例えば、細胞の分析は、細心の注意を要するプロセスであることから、細胞の標識づけによってアノテーションが可能であるというのは、強力な利点である。
・ プレノプティックは、フィールド深度を(6倍)増大させる。
・ 閉塞がある場合、プレノプティックは、他の深度デバイスでは不可能である異なる層において情報を解像できる。
・ プレノプティックは、一度により多くの視野角をキャプチャすることから、細胞の露光を短縮する(生きたニューロンにとって良いことである)。
・ プレノプティックは画像の分解能を(8倍)増大させる。
・ 現実的なアノテーションの必要は全く無い。
粒子速度測定
3D軌道の測定は、複数の分野において対処が困難な問題である。水などの同じ体積内で多数の粒子の軌道を追跡する場合、全ての異なる経路を分析することは冗長な作業となる。プレノプティックデバイスは、何千ものミクロアイでシーンを見て、したがって粒子運動中に出現する多数の閉塞を解像できるという強力な利点を有する。リアルタイム追跡のためにシーン内で粒子をアノテートする可能性を追加することには、強力な利点がある。
・ 閉塞がある場合、プレノプティックは、より良い3D軌道分析のため、異なる層において情報を解像することができる。
・ 多数の非常に正確に整列されたカメラを用いた複雑な較正の必要はもはや全く無い。ただひとつのカメラだけをセットアップする必要がある。
・ 現実的アノテーションの必要は全く無い。
・ 水族館の魚の水中分析。
3D軌道の測定は、複数の分野において対処が困難な問題である。水などの同じ体積内で多数の粒子の軌道を追跡する場合、全ての異なる経路を分析することは冗長な作業となる。プレノプティックデバイスは、何千ものミクロアイでシーンを見て、したがって粒子運動中に出現する多数の閉塞を解像できるという強力な利点を有する。リアルタイム追跡のためにシーン内で粒子をアノテートする可能性を追加することには、強力な利点がある。
・ 閉塞がある場合、プレノプティックは、より良い3D軌道分析のため、異なる層において情報を解像することができる。
・ 多数の非常に正確に整列されたカメラを用いた複雑な較正の必要はもはや全く無い。ただひとつのカメラだけをセットアップする必要がある。
・ 現実的アノテーションの必要は全く無い。
・ 水族館の魚の水中分析。
植物成長分析
研究者が植物の進化を分析し新しい解決法を調査する植物分析研究所のおかげで、新しい植物種の効率の良い創出が可能である。3D解析に対する必要性は強いものであるが、栽培は、例えば光が重要なパラメータである管理された環境内で行なわれる。プレノプティック技術は、押しつけがましくなく、ロバストな3Dモデルを再構成するために照明条件を修正する必要がないことから、このような管理された環境における3D解析のこの問題を充分解決してくれる。公知の特性として、プレノプティックデバイスは、同様にこの分野における主要な関心の的である多数の閉塞にもうまく対処する。
・ プレノプティックカメラは、シーンの現在の照明を用いて、3D情報を解像することができる。このようなシナリオでは、シーンに照明を追加することで、プランテーション開発は改変されるだろう。
・ 閉塞がある場合、プレノプティックは、より良い3D解析のため異なる層において情報を解像することができる。
・ 現実的アノテーションの必要が全くない。
研究者が植物の進化を分析し新しい解決法を調査する植物分析研究所のおかげで、新しい植物種の効率の良い創出が可能である。3D解析に対する必要性は強いものであるが、栽培は、例えば光が重要なパラメータである管理された環境内で行なわれる。プレノプティック技術は、押しつけがましくなく、ロバストな3Dモデルを再構成するために照明条件を修正する必要がないことから、このような管理された環境における3D解析のこの問題を充分解決してくれる。公知の特性として、プレノプティックデバイスは、同様にこの分野における主要な関心の的である多数の閉塞にもうまく対処する。
・ プレノプティックカメラは、シーンの現在の照明を用いて、3D情報を解像することができる。このようなシナリオでは、シーンに照明を追加することで、プランテーション開発は改変されるだろう。
・ 閉塞がある場合、プレノプティックは、より良い3D解析のため異なる層において情報を解像することができる。
・ 現実的アノテーションの必要が全くない。
ストリートビュー広告
以下の点は、さらに検討を行なう必要のある使用事例である。照明分析などの一部の技術的問題は、技術に関する我々の現在の理解によってはまだ対処できないと思われる。
以下の点は、さらに検討を行なう必要のある使用事例である。照明分析などの一部の技術的問題は、技術に関する我々の現在の理解によってはまだ対処できないと思われる。
商店のショーウィンドウの反射を除去するためにプレノプティック技術を使用すること。正確な位置づけのためVidinoti−1&Vidinoti−7の組合せを用いた商店のショーウィンドウ上の現実的広告(例えば、ストリートビュー)。
現実的な設計およびアーキテクチャ
アーキテクチャシミュレーション、シーンの照明の中での調度/壁の色など、アノテーションが適用されている表面のテクスチャをイミテートすることにより、現実的なアノテーションを創出すること。放送されるスポーツイベント中の、押しつけがましくない(うまく一体化されていることを意味する)広告(例えばホッケーの試合中の氷上の広告)。
アーキテクチャシミュレーション、シーンの照明の中での調度/壁の色など、アノテーションが適用されている表面のテクスチャをイミテートすることにより、現実的なアノテーションを創出すること。放送されるスポーツイベント中の、押しつけがましくない(うまく一体化されていることを意味する)広告(例えばホッケーの試合中の氷上の広告)。
電話呼出し用の3Dアバター
電話呼出し中のオンザフライ・クィック3Dアバター
電話呼出し中のオンザフライ・クィック3Dアバター
上述の方法のさまざまなオペレーションは、オペレーションを実施することのできる任意の好適な手段、例えばさまざまなハードウェアおよび/またはソフトウェアコンポーネント(単複)、回路および/またはモジュール(単複)によって、実施されてよい。概して、本願記載のいずれのオペレーションも、オペレーションを実施することのできる対応する機能的手段により実施されてよい。さまざまな手段、論理ブロックおよびモジュールは、回路、特定用途向け集積回路(ASIC)または汎用プロセッサ、デジタルシグナルプロセッサ(DSP)、特定要素向け集積回路(ASIC)、フィールドプログラマブルゲートアレーシグナル(FPGA)または他のプログラマブル論理デバイス(PLD)、離散的ゲートまたはトランジスタ論理、離散的ハードウェアコンポーネントまたは本明細書中に記載の機能を果たすように設計されたその任意の組合せを含めた(ただし、これらに限定されない)さまざまなハードウェアおよび/またはソフトウェアコンポーネント(単複)および/またはモジュール(単複)を含んでいてよい。
本明細書中で使用される「〜を決定する」という用語は、多様な動作を包含する。例えば、「〜を決定する」には、計算する(calculating、computing)、処理する、導出する、調査する、探索する(例えば表、データベースまたは別のデータ構造内を探索する)、確認する、推定することなどが含まれていてよい。同様に、「〜を決定する」には、受信する(例えば情報を受信する)、アクセスする(例えばメモリー内のデータにアクセスする)ことなども含まれていてよい。同様に、「〜を決定する」には、解像する、選択する(selecting、choosing)、立証することなども含まれていてよい。
本開示に関連して説明された方法またはアルゴリズムのステップは、ハードウェアにおいて直接、プロセッサにより実行されるソフトウェアモジュールにおいて、またはこれら2つの組合せにおいて具体化されてよい。ソフトウェアモジュールは、従来技術において知られている任意の形態の記憶媒体中に存在していてよい。使用され得る記憶媒体のいくつかの例としては、ランダムアクセスメモリー(RAM)、読取り専用メモリー(ROM)、フラッシュメモリー、EPROMメモリー、EEPROMメモリー、レジスター、ハードディスク、リム−バブルディスク、CD−ROM、などが含まれる。ソフトウェアモジュールは、単一の命令、または多くの命令を含んでいてよく、複数の異なるコードセグメント全体にわたり、異なるプログラム中で、および多数の記憶媒体を横断して、分布していてよい。ソフトウェアモジュールは、実行可能プログラム、完全なプログラム内で使用される一部分またはルーチンまたはライブラリ、複数の相互接続されたプログラム、多くのスマートフォン、タブレットまたはコンピュータにより実行される「apps」、ウィジェット、フラッシュアプリケーション、HTMCコードの一部分などで構成されていてよい。記憶媒体はプロセッサに結合されて、プロセッサが記憶媒体から情報を読取りかつそれに対し情報を書き込むことができるようにしている。代替案では、記憶媒体はプロセッサと一体化していてよい。データベースは、SQLデータベース、XMLドキュメントセット、セマンティックデータベース、またはIPネットワーク上で入手可能な情報セットを含む任意の構造化されたデータコレクション、または他の任意の好適な構造として実装されてよい。
こうして、一部の態様は、本明細書中で提示されたオペレーションを実施するためのコンピュータプログラム製品を含んでいてよい。例えば、このようなコンピュータプログラム製品は、命令が記憶された(および/またはコード化された)コンピュータ可読媒体を含んでいてよく、命令は本明細書中に記載のオペレーションを実施するために1つ以上のプロセッサにより実行可能である。一部の態様については、コンピュータプログラム製品は、パッケージング材料を含んでいてよい。
クレームは以上で例示された精確な機器構成および構成要素に限定されないということを理解すべきである。
クレームの範囲から逸脱することなく、上述の方法および装置の配置、オペレーションおよび詳細においてさまざまな修正、変更および変化がなされてよい。
1 プレノプティックカメラ
10 主レンズ
12 マイクロレンズアレイ
14 焦平面
16 マイクロカメラ
160 マイクロカメラ平面
19 合成光学軸
10 主レンズ
12 マイクロレンズアレイ
14 焦平面
16 マイクロカメラ
160 マイクロカメラ平面
19 合成光学軸
Claims (27)
- ライトフィールドに対応するデータを処理するためのライトフィールド処理方法において、
プレノプティックカメラ(1)を用いて、前記プレノプティックカメラに依存するフォーマットでライトフィールドを表わす初期データをキャプチャするステップと;
前記初期データを、カメラ非依存フォーマットで前記ライトフィールドを表わす変換済みデータへと変換するステップと;
前記変換済みデータを処理して、異なるライトフィールドを表わす処理済みデータを生成するステップと、
を含む方法。 - 前記ライトフィールド内の各光線の方向が、まさしく4つのパラメータにより前記カメラ非依存フォーマットでパラメータ化される、請求項1に記載の方法。
- 前記ライトフィールド内の各光線の方向は、前記光線が2つの予め決められた平面と交差する位置を用いて前記カメラ非依存フォーマットでパラメータ化される、請求項2に記載の方法。
- 前記ライトフィールド内の各光線の方向は、それが互いに一点で接する2つの球と交わる位置を用いて前記カメラ非依存フォーマットでパラメータ化され、前記位置の1つが接点である、請求項2に記載の方法。
- 前記ライトフィールド内の各光線の方向は、それが1つの単一球と交わる2つの位置を用いて前記カメラ非依存フォーマットでパラメータ化される、請求項2に記載の方法。
- 前記ライトフィールド内の各光線の方向が、1つの平面と1つの球の交差を用いて前記カメラ非依存フォーマットでパラメータ化される、請求項2に記載の方法。
- 前記ライトフィールド内の各光線が、球の中心からの光線上における最接近点(A)の距離(r)、球座標との関係におけるこの最接近点の極座標(ψ、θ)、および前記最接近点における球と一点で接する平面と光線との間の角度(ω)を用いて、前記カメラ非依存フォーマットでパラメータ化される、請求項2に記載の方法。
- 1つの前記カメラ非依存表現から、異なる前記カメラ非依存表現へと、前記ライトフィールドの各光線を変換するステップを含む、請求項1〜7のいずれか一つに記載の方法。
- 前記初期データを変換する前記ステップが、カメラのモデルに応じた変換関数を使用する、請求項1〜8のいずれか一つに記載の方法。
- 既知のシーンのプレノプティック表現を使用して前記変換関数を決定するステップを含む、請求項9に記載の方法。
- 前記カメラ非依存フォーマットでライトフィールド表現を処理して、同じライトフィールドのシーンセンタード型表現を生成するステップを含む、請求項1〜10のいずれか一つに記載の方法。
- 前記シーンセンタード型表現の光線を修正して、その表現の中心にあるオブジェクトの視覚的外観を修正するステップを含む、請求項11に記載の方法。
- 点が発出する複数の光線(r1、r2)を識別することによりその点の深度を決定するステップと、三角測量によりこの点までの距離を計算するステップとをさらに含む、請求項11または12に記載の方法。
- エピポーラ線を抽出することにより点の深度を決定するステップをさらに含む、請求項11または12に記載の方法。
- 前記処理ステップには、カメラ非依存フォーマットで前記ライトフィールドを表わす変換済みデータに対しフィルターを適用するステップが含まれる、請求項1〜14のいずれか一つに記載の方法。
- 前記処理ステップには、前記変換済みデータ内の少なくとも1つの画像フィーチャを認識するステップ、および前記フィーチャに応じて少なくとも1つの拡張現実要素を表わすデータを前記変換済データに付加するステップが含まれ、少なくとも1つの拡張現実要素を表わす前記データが前記カメラ非依存フォーマットにある、請求項1〜15のいずれか一つに記載の方法。
- 前記処理ステップには、前記変換済データから決定される空間内の自らの位置に基づいてシーンのオブジェクトを選択するステップが含まれる、請求項1〜16のいずれか一つに記載の方法。
- 前記処理ステップには、選択されたオブジェクトから発出される光線を置換するステップがさらに含まれる、請求項17に記載の方法。
- 前記処理ステップには、前記シーンセンタード型表現から開始することによりオブジェクトセグメント化を実施するステップ、および同じオブジェクトにどの光線が現在属しているかを識別するステップが含まれる、請求項11〜18のいずれか一つに記載の方法。
- 前記処理ステップには、オブジェクトをサイズ変更するステップが含まれる、請求項1〜19のいずれか一つに記載の方法。
- 前記処理ステップには、Rx−Ry平面を移動させることにより再焦点合せするステップが含まれる、請求項1〜20のいずれか一つに記載の方法。
- 前記処理ステップには、
異なるライトフィールドに対応する第2のデータを、前記変換済データを表わすために使用されたフォーマットとは異なる第2のカメラ非依存フォーマットへとリトリーブするステップと、
前記第2のデータを前記カメラ非依存データに変換するステップと、
前記データと前記第2のデータを融合させるステップと
が含まれる、請求項1〜21のいずれか一つに記載の方法。 - 前記カメラ非依存フォーマットで記憶されたライトフィールドを、単一のまたは多数の2Dまたは3D画像として視覚化するステップをさらに含む、請求項1〜22のいずれか一つに記載の方法。
- 前記カメラ非依存フォーマットには、各光線が2つの予め決められた平面(U−V;Rx−Ry)と交わる位置による各光線の表現が含まれ、前記レンダリングステップには、所与の位置における前記平面の1つと交わる光線の輝度に各画素が対応している2D画像を生成するステップが含まれる、請求項23に記載の方法。
- 前記レンダリングステップには、パースペクティブシフトを適用して、任意の位置からの前記ライトフィールドのビューを生成するステップが含まれる、請求項23または24に記載の方法。
- 1つのライトフィールドに対応するデータを処理するためのライトフィールド処理装置において、
前記プレノプティックカメラに依存するフォーマットでライトフィールドを表わす初期データをキャプチャするように配置されたプレノプティックカメラと;
前記初期データを、カメラ非依存フォーマットで前記ライトフィールドを表わす変換済データへと変換するためのデータ変換器と;
前記変換済データを処理して、異なるライトフィールドを表わす処理済みデータを生成するためのライトフィールドプロセッサと、
を含む装置。 - 請求項1〜25のいずれか一つに記載の方法を用いて処理されたデータを記憶するコンピュータキャリヤ。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2013/074520 WO2015074718A1 (en) | 2013-11-22 | 2013-11-22 | A light field processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016537901A true JP2016537901A (ja) | 2016-12-01 |
Family
ID=49681009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016533663A Pending JP2016537901A (ja) | 2013-11-22 | 2013-11-22 | ライトフィールド処理方法 |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP3072289A1 (ja) |
JP (1) | JP2016537901A (ja) |
KR (1) | KR20160106045A (ja) |
CN (1) | CN106165387A (ja) |
WO (1) | WO2015074718A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107645643A (zh) * | 2017-10-10 | 2018-01-30 | 成都学知乐科技有限公司 | 适用于多种教学环境的图像录制系统 |
JP2018537877A (ja) * | 2015-09-17 | 2018-12-20 | トムソン ライセンシングThomson Licensing | ライトフィールドコンテンツをエンコードする方法 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3144885A1 (en) | 2015-09-17 | 2017-03-22 | Thomson Licensing | Light field data representation |
EP3144888A1 (en) * | 2015-09-17 | 2017-03-22 | Thomson Licensing | An apparatus and a method for generating data representing a pixel beam |
US10887576B2 (en) * | 2015-09-17 | 2021-01-05 | Interdigital Vc Holdings, Inc. | Light field data representation |
EP3188123A1 (en) * | 2015-12-30 | 2017-07-05 | Thomson Licensing | A method and an apparatus for generating data representative of a pixel beam |
WO2017135896A1 (en) * | 2016-02-02 | 2017-08-10 | Agency For Science, Technology And Research | An imaging system and method for estimating three-dimensional shape and/ or behaviour of a subject |
EP3220351A1 (en) * | 2016-03-14 | 2017-09-20 | Thomson Licensing | Method and device for processing lightfield data |
KR102609330B1 (ko) | 2016-07-15 | 2023-12-05 | 라이트 필드 랩 인코포레이티드 | 라이트 필드 및 홀로그램 도파관 어레이에서의 에너지의 선택적 전파 |
EP3273686A1 (en) | 2016-07-21 | 2018-01-24 | Thomson Licensing | A method for generating layered depth data of a scene |
EP3737997A4 (en) * | 2018-01-14 | 2021-09-29 | Light Field Lab, Inc. | SYSTEMS AND METHODS FOR RENDERING DATA OF A 3D ENVIRONMENT |
CN111292245A (zh) * | 2018-12-07 | 2020-06-16 | 北京字节跳动网络技术有限公司 | 图像处理方法和装置 |
CN111382753B (zh) * | 2018-12-27 | 2023-05-12 | 曜科智能科技(上海)有限公司 | 光场语义分割方法、系统、电子终端及存储介质 |
CN111612806B (zh) * | 2020-01-10 | 2023-07-28 | 江西理工大学 | 一种建筑物立面窗户提取方法及装置 |
WO2022193104A1 (zh) * | 2021-03-15 | 2022-09-22 | 华为技术有限公司 | 一种光场预测模型的生成方法及相关装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2147392A1 (en) * | 2007-05-08 | 2010-01-27 | Eidgenössische Technische Zürich | Method and system for image-based information retrieval |
-
2013
- 2013-11-22 KR KR1020167013454A patent/KR20160106045A/ko not_active Application Discontinuation
- 2013-11-22 CN CN201380081989.7A patent/CN106165387A/zh active Pending
- 2013-11-22 JP JP2016533663A patent/JP2016537901A/ja active Pending
- 2013-11-22 EP EP13798624.6A patent/EP3072289A1/en not_active Withdrawn
- 2013-11-22 WO PCT/EP2013/074520 patent/WO2015074718A1/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018537877A (ja) * | 2015-09-17 | 2018-12-20 | トムソン ライセンシングThomson Licensing | ライトフィールドコンテンツをエンコードする方法 |
CN107645643A (zh) * | 2017-10-10 | 2018-01-30 | 成都学知乐科技有限公司 | 适用于多种教学环境的图像录制系统 |
Also Published As
Publication number | Publication date |
---|---|
CN106165387A (zh) | 2016-11-23 |
EP3072289A1 (en) | 2016-09-28 |
KR20160106045A (ko) | 2016-09-09 |
WO2015074718A1 (en) | 2015-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016537901A (ja) | ライトフィールド処理方法 | |
US20230377183A1 (en) | Depth-Aware Photo Editing | |
US11354840B2 (en) | Three dimensional acquisition and rendering | |
US20150146032A1 (en) | Light field processing method | |
CN101542538B (zh) | 用来对光进行建模的方法与系统 | |
EP2272050B1 (en) | Using photo collections for three dimensional modeling | |
US20130335535A1 (en) | Digital 3d camera using periodic illumination | |
Matsuyama et al. | 3D video and its applications | |
TW201915944A (zh) | 圖像處理方法、裝置、系統和儲存介質 | |
US20130095920A1 (en) | Generating free viewpoint video using stereo imaging | |
JP2006053694A (ja) | 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体 | |
JP2018515825A (ja) | Lidarステレオ融合実写3dモデルバーチャルリアリティビデオ | |
US20140181630A1 (en) | Method and apparatus for adding annotations to an image | |
CN110998669A (zh) | 图像处理装置和方法 | |
US20210272351A1 (en) | Computer-generated image processing including volumetric scene reconstruction | |
JP7479729B2 (ja) | 三次元表現方法及び表現装置 | |
JP2016500169A (ja) | アノテーション方法および装置 | |
JP2019509526A (ja) | 多数のカメラを用いた最適の球形映像獲得方法 | |
CN115035235A (zh) | 三维重建方法及装置 | |
CN109064533B (zh) | 一种3d漫游方法及系统 | |
US10354399B2 (en) | Multi-view back-projection to a light-field | |
JP2022518402A (ja) | 三次元再構成の方法及び装置 | |
TWI768231B (zh) | 資訊處理裝置、記錄媒體、程式產品以及資訊處理方法 | |
Sathirasethawong | Light Field Imaging and Reconstruction Tools for Small Objects | |
WO2022084149A1 (en) | Lighting model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161004 |