JP2017188729A - Information processing device, information processing method and program - Google Patents
Information processing device, information processing method and program Download PDFInfo
- Publication number
- JP2017188729A JP2017188729A JP2016074505A JP2016074505A JP2017188729A JP 2017188729 A JP2017188729 A JP 2017188729A JP 2016074505 A JP2016074505 A JP 2016074505A JP 2016074505 A JP2016074505 A JP 2016074505A JP 2017188729 A JP2017188729 A JP 2017188729A
- Authority
- JP
- Japan
- Prior art keywords
- light field
- field data
- adjustment parameter
- information processing
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、ライトフィールドデータの色収差の補正に関する。 The present invention relates to correction of chromatic aberration in light field data.
近年、光学系に新たな光学素子を追加することで、光線の角度と強度の情報(ライトフィールドデータ)を取得し、後で画像処理によってピント位置を調節すること(リフォーカス)が可能なコンピュテーショナルフォトグラフィという技術が発展している。 In recent years, by adding a new optical element to the optical system, it is possible to obtain information on the angle and intensity of light (light field data), and to adjust the focus position by image processing (refocus) later. A technology called “tational photography” has been developed.
この技術を用いれば、撮像後にピント調整を行えるため、撮像時のピント調整の失敗を画像処理で補うことができるという利点がある。さらに、画像処理の方法を変えることで画像中の任意の被写体にピントを合わせた複数の画像を一枚の撮像画像から得る事ができ、撮像回数を減らす事ができるという利点もある。 If this technique is used, since focus adjustment can be performed after imaging, there is an advantage that failure of focus adjustment during imaging can be compensated by image processing. Further, by changing the image processing method, it is possible to obtain a plurality of images focused on an arbitrary subject in the image from one captured image, and there is an advantage that the number of imaging can be reduced.
ライトフィールドデータを取得する装置としては、光学系と撮像素子とによって構成されたデジタルカメラの撮像素子近傍に、マイクロレンズアレイを配置したプレノプティックカメラなどがある。通常のデジタルカメラにおいてはレンズの色収差による画質の劣化が問題となるが、プレノプティックカメラにおいても同様である。プレノプティクカメラにおいて色収差を低減する方法としては、事前に求めた収差の特性に基づき画像生成時に補正を行う方法が開示されている(特許文献1)。 As an apparatus for acquiring light field data, there is a plenoptic camera in which a microlens array is arranged in the vicinity of an image sensor of a digital camera constituted by an optical system and an image sensor. In ordinary digital cameras, degradation of image quality due to chromatic aberration of the lens becomes a problem, but the same applies to plenoptic cameras. As a method for reducing chromatic aberration in a plenoptic camera, a method is disclosed in which correction is performed at the time of image generation based on aberration characteristics obtained in advance (Patent Document 1).
しかし、特許文献1に開示されている方法は、ライトフィールドデータを取得する際に使用する、レンズの設計情報や計測結果に基づき、事前に収差の特性を求める必要がある。そのため、プレノプティックカメラなど、ライトフィールドデータを取得する撮像装置においてレンズ交換などにより未知のレンズを使用することとなった場合には、特許文献1に開示されている方法では、色収差の補正を適切に行うことができない。 However, the method disclosed in Patent Document 1 needs to obtain aberration characteristics in advance based on lens design information and measurement results used when acquiring light field data. Therefore, when an unknown lens is used by exchanging lenses in an imaging apparatus that acquires light field data, such as a plenoptic camera, the method disclosed in Patent Document 1 corrects chromatic aberration. Cannot be done properly.
本発明による情報処理装置は、ライトフィールドデータを取得する取得手段と、波長が異なる複数のチャネルごとにライトフィールドデータを分離する分離手段と、分離して得られた複数のライトフィールドデータ間の対応関係から、各ライトフィールドデータに記録された光線の位置と角度とを互いに一致させるための調整パラメータを導出する導出手段と、導出手段が導出した調整パラメータに基づき、複数のライトフィールドデータのうち少なくとも1つのライトフィールドデータに記録された光線の位置と角度とを調整する調整手段と、を備えることを特徴とする。 An information processing apparatus according to the present invention includes an acquisition unit that acquires light field data, a separation unit that separates light field data for each of a plurality of channels having different wavelengths, and correspondence between the plurality of light field data obtained by separation. From the relationship, a derivation means for deriving an adjustment parameter for making the position and angle of the light beam recorded in each light field data coincide with each other, and based on the adjustment parameter derived by the derivation means, at least of the plurality of light field data Adjusting means for adjusting the position and angle of the light beam recorded in one light field data.
本発明によれば、ライトフィールドデータを取得する際に使用するレンズが未知のレンズである場合でも、取得されたライトフィールドデータに対して色収差の補正を適切に行うことができる。 According to the present invention, even when a lens used when acquiring light field data is an unknown lens, chromatic aberration can be appropriately corrected for the acquired light field data.
[実施形態1]
<撮像装置の全体構成>
図1は、第1の実施形態の情報処理装置(以下、撮像装置ともいう)の構成の一例を示すブロック図である。
本実施形態の撮像装置は、図1に示すように、CPU101、ROM102、RAM103、操作部104、表示制御部105、メディアインターフェス(以下、メディアI/F)107、キャラクタジェネレーション109、エンコーダ部111、デジタル信号処理部112、および撮像部113を備える。なお、撮像部113は、撮像装置の外部に設置されていてもよい。
[Embodiment 1]
<Overall configuration of imaging device>
FIG. 1 is a block diagram illustrating an example of a configuration of an information processing apparatus (hereinafter also referred to as an imaging apparatus) according to the first embodiment.
As illustrated in FIG. 1, the imaging apparatus according to the present embodiment includes a
撮像部113は、例えばプレノプティックカメラであり、光学系と撮像素子により、ライトフィールドデータを取得する。撮像部113の詳細は後述する。
The
CPU101は、ROM102やRAM103に格納された命令を順に読み込み、解釈し、その結果に従って処理を実行する。また、ROM102とRAM103は、処理を実行するために必要なプログラム、データ、作業領域などをCPU101に提供する。
The
バス110は、各構成要素が互いにデータや処理の指示をやり取りするための経路として機能する。
The
操作部104は、ボタンやモードダイヤルなどが該当し、これらを介して入力されたユーザ指示を受け取る。
The
キャラクタジェネレーション109は、文字データやグラフィックデータなどを生成する。
The
表示部106は、例えば液晶ディスプレイであり、キャラクタジェネレーション109や表示制御部105から受け取った撮像画像データや文字データの表示を行う。また、表示部106は、タッチスクリーン機能を有していても良い。その場合は、表示部106を介して入力されたユーザ指示を操作部104が受け取ることも可能である。
The
デジタル信号処理部112は、撮像部113により取得された画像データの輝度値の調整や欠陥画素の補間などを行う。これらの処理は後述する画像処理(図12に示すフロー)の前に行われる。
The digital
エンコーダ部111は、上記画像処理における色収差補正処理の結果、生成されたライトフィールドデータのエンコード処理を行う。
The
メディアI/F107は、メディア(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)108とバス110とをつなぐためのインターフェースである。メディアI/F107を介してエンコーダ部111でエンコードされたライトフィールドデータの出力が行われる。なお、メディアI/F107には、メディア108の他に、PC(パーソナルコンピュータ)などが接続されても良い。
The media I / F 107 is an interface for connecting the medium (for example, hard disk, memory card, CF card, SD card, USB memory) 108 and the
なお、装置の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。 In addition, although the component of an apparatus exists besides the above, since it is not the main point of this invention, description is abbreviate | omitted.
<撮像部の構成>
図2は、撮像部113の構成の一例を示す図である。図2を用いて撮像部113の構成を説明する。
<Configuration of imaging unit>
FIG. 2 is a diagram illustrating an example of the configuration of the
レンズ201及びレンズ202は結像光学系を構成する。被写体から発せられた光線は該結像光学系により、絞り203、シャッタ204を通過した後に、複数のマイクロレンズを含むマイクロレンズアレイ205(以下、単にマイクロレンズ205と記す)に結像される。さらにマイクロレンズ205で屈折された光線は、IRカットフィルタ206、ローパスフィルタ207、カラーフィルタ208を通過した後に撮像素子209に到達する。本実施形態ではカラーフィルタとしてRGBの三色を用いてカラー画像を取得する。
The
撮像素子209とA/D変換部210は、CMOSイメージセンサなどのイメージセンサに相当する。撮像素子209は2次元の格子状に配列され、入射した光線を電気信号に変換する。A/D変換部210は電気信号に変換された光線の情報をデジタル信号に変換する。
The
制御部212は、バス110を介して入力されるCPU101の指示に従い、撮像素子209とシャッタ204を制御して撮像を実施する。また制御部212は、レンズ201及びレンズ202を制御して、ピント位置と焦点距離をユーザが指定した状態へと変更する。また制御部212は、絞り203を制御して開口を、ユーザが指定した状態へと変更する。
The
デジタル信号に変換された像の情報はバッファ211内に格納され、ライトフィールドデータとなる。ライトフィールドデータはバス110を介して、CPU101に送られる。
Image information converted into a digital signal is stored in the
図3は、第1の実施形態における光学系の一例を模式的に示す図である。図3(a)に示すように、光学系は主レンズ300として、レンズ201及びレンズ202に相当する1つ以上のレンズで構成された厚肉凸レンズを有し、さらに、その焦点上にマイクロレンズアレイ301(以下、単にマイクロレンズ301と記す)を有する。マイクロレンズ301の焦点上には、図3(b)に示すように、撮像素子302が設置されている。撮像素子302の画素位置から特定される、入射した光線が通過したマイクロレンズの位置と、マイクロレンズに入射した角度とにより、ライトフィールドデータが得られる。なお、主レンズ300の焦点上にマイクロレンズ301を設置するのは、主レンズ300のピントを無限遠方に合わせる場合である。ピント調整によってマイクロレンズ301及び撮像素子302と主レンズ300との相対位置を変化させても構わない。
FIG. 3 is a diagram schematically illustrating an example of the optical system according to the first embodiment. As shown in FIG. 3A, the optical system has, as the
なお、ここで示した撮像部の構成は、説明のために単純化した例であり、色収差を有する光学系を通して、複数の波長の光に対するライトフィールドを取得する機能を有すればどのような構成でもかまわない。 Note that the configuration of the imaging unit shown here is a simplified example for explanation, and any configuration having a function of acquiring a light field for light of a plurality of wavelengths through an optical system having chromatic aberration. But it doesn't matter.
<ライトフィールドの表現方法>
本実施形態の説明に用いるライトフィールドの表現方法について述べる。図4は、ライトフィールドの表現方法を説明するための図である。なお、本実施形態では近軸近似を前提として議論を進める。本実施形態では図4(a)に示すように、光学系の光軸がz方向にあるものとする。そして、z座標が一定の値である面を通過する光線を、その通過点の位置(x,y)と光線の傾き(u,v)を用いた4次元座標で表現する。なお、uは光線のx方向の傾きを表し、vは光線のy方向の傾きを表す。図4(b)には、実空間のxz平面上に3つの光線A、B、Cが示されている。図4(b)に示すように、光線の傾きはu=Δx/Δzで表される。図4(c)は、光線A、B、Cをライトフィールド空間のxu平面上(z=0)に示した図である。AとBは傾きが同じであるため、u座標が等しくなる。一方、BとCはz=0平面の通過位置が同じであるため、x座標が等しくなる。
<Expression method of light field>
A light field expression method used in the description of this embodiment will be described. FIG. 4 is a diagram for explaining a light field expression method. In the present embodiment, the discussion proceeds on the assumption of paraxial approximation. In this embodiment, it is assumed that the optical axis of the optical system is in the z direction as shown in FIG. A light ray passing through a surface having a constant z coordinate is expressed by four-dimensional coordinates using the position (x, y) of the passing point and the inclination (u, v) of the light ray. Note that u represents the inclination of the light beam in the x direction, and v represents the inclination of the light beam in the y direction. FIG. 4B shows three light rays A, B, and C on the xz plane in real space. As shown in FIG. 4B, the inclination of the light beam is represented by u = Δx / Δz. FIG. 4C is a diagram showing light rays A, B, and C on the xu plane (z = 0) in the light field space. Since A and B have the same inclination, u coordinates are equal. On the other hand, since B and C have the same passing position on the z = 0 plane, their x coordinates are equal.
次に、光線が空間中の伝播とレンズによる屈折とによって、ライトフィールド空間においてどのように変化するかを説明する。ここでは便宜上ライトフィールドを位置xと傾きuの2次元で考える。図5は、空間中の光線の伝播とレンズによる屈折とを説明するための図である。図5(a)は実空間中を伝播する光線をxz平面上に示した図である。ここで、z=z0における光線のライトフィールド座標を(x0,u0)とし、z=z1における光線のライトフィールド座標を(x1,u1)とする。光線は直進することから、z=z0とz=z1におけるライトフィールド座標の関係は式1のようになる。 Next, how the light ray changes in the light field space due to propagation in the space and refraction by the lens will be described. Here, for the sake of convenience, the light field is considered in two dimensions, position x and inclination u. FIG. 5 is a diagram for explaining propagation of light in space and refraction by a lens. FIG. 5A is a diagram showing light rays propagating in real space on the xz plane. Here, the light field coordinates of the light beam at z = z 0 are (x 0 , u 0 ), and the light field coordinates of the light beam at z = z 1 are (x 1 , u 1 ). Since the light beam goes straight, the relationship between the light field coordinates at z = z 0 and z = z 1 is as shown in Equation 1.
また、図5(b)はレンズにより屈折する光線をxz平面上に示した図である。ここで、z=z0における屈折前の光線のライトフィールド座標を(x0,u0)とし、屈折後の光線のライトフィールド座標を(x1,u1)とする。光学系の性質から焦点距離fを用いて、屈折前と屈折後のライトフィールド座標の関係は式2で示される。
FIG. 5B is a diagram showing light rays refracted by the lens on the xz plane. Here, the light field coordinates of the light beam before refraction at z = z 0 are (x 0 , u 0 ), and the light field coordinates of the light beam after refraction are (x 1 , u 1 ). The relationship between the light field coordinates before and after refraction using the focal length f due to the properties of the optical system is expressed by
なお、以上の関係は光線の位置yと傾きvについても同様に成り立つ。 The above relationship holds true for the position y and the inclination v of the light beam.
<伝播する光線のライトフィールドの例>
光学系を通って伝播する光線のライトフィールドの一例を、図6に示す。図6(a)は光線を実空間のxz平面上に示した図である。x=0の直線上に光軸があり、z=0の位置にレンズが置かれている。図6(a)では、光線A、B、C、Dがz=−3、x=±1の位置から射出されている。図6(b)には、光線A、B、C、Dが、z=−3からz=0に伝播し、屈折した後に、z=3に到達するときの、各光線のライトフィールド座標が示されている。z=−3における各光線のライトフィールド座標は、それぞれ(1,1),(1,−1),(−1,1),(−1,−1)である。各光線はレンズにより屈折された後に、z=3、x=±1の位置に到達する。空間中の伝播と屈折はそれぞれ式1や式2で表させるような、ライトフィールド座標上でのせん断となることがわかる。
<Example of light field of propagating light beam>
An example of a light field of rays propagating through the optical system is shown in FIG. FIG. 6A is a diagram showing light rays on the xz plane in real space. The optical axis is on the straight line of x = 0, and the lens is placed at the position of z = 0. In FIG. 6A, light rays A, B, C, and D are emitted from the positions where z = −3 and x = ± 1. FIG. 6B shows the light field coordinates of each ray when the rays A, B, C, and D reach z = 3 after propagating from z = -3 to z = 0 and being refracted. It is shown. The light field coordinates of each ray at z = -3 are (1, 1), (1, -1), (-1, 1), and (-1, -1), respectively. After each light beam is refracted by the lens, it reaches a position where z = 3 and x = ± 1. It can be seen that propagation and refraction in the space are shear on the light field coordinates as expressed by Equation 1 and
図7は、被写体と光学系の一例を示す図である。z=z0,z1,z2に置かれた被写体701,702,703から発せられた光線が、z=z3に置かれたレンズ704を通り、z=z4に置かれたマイクロレンズアレイ705(以下、単にマイクロレンズ705と記す)に達する。そして、各被写体から発せられた光線が、撮像素子706によりライトフィールドデータとして記録される。図8は、図7に示す例において光線の伝播に従ってライトフィールドが変化する様子を模式的に示す図である。まず、z=z0では被写体701の色を反映して、ライトフィールドは全面が黒である。なお、図8の左上、中央上、右上、左下および中央下の図には、z=z0〜z3のそれぞれの位置において仮に記録できたとした場合におけるライトフィールドデータが示されている。z=z1では被写体702から発せられた光線がライトフィールドに加わる。この時、被写体701から発せられた光線のうち、被写体702に重なる部分はオクルージョンにより遮蔽される。z=z0では、伝播により被写体701,702から発せられた光線のライトフィールドは式1に示すようなせん断変換を受け、その上に被写体703から発せられた光線のライトフィールドが重畳される。z=z3では、伝播により全ての被写体から発せられた光線のライトフィールドがさらなるせん断変換を受ける。z=z3で屈折が起こると、ライトフィールドは式2に示すようなせん断変換を受ける。z=z3からz=z4までの伝播で、再度、ライトフィールドは式1のようなせん断変換を受ける。その結果、図8の右下の図に示すようなライトフィールドがマイクロレンズ705と撮像素子706とによって記録される。なお、図8の右下の図には、z=z2に焦点を合わせた状態で記録されたライトフィールドが示されている。
FIG. 7 is a diagram illustrating an example of a subject and an optical system. Light rays emitted from
<ライトフィールドにおける色収差>
ガラスのように屈折率に分散を有する物質で光学系を構成すると、光の波長すなわち色によって光学系の特性が変化する。この現象により図9に示すように、焦点距離や主平面の位置が波長毎に変化することになる。図9は、色収差を説明するための図である。図9では被写体から発せられて空間を伝播する光線Lが、分散を有する光学系902により屈折された結果、緑の光線LGと青の光線LBとに分離されている。そして、緑の光線LGと青の光線LBとは互いにずれている。ここで、平面903はLBの波長に対する物体側主平面である。平面904はLGの波長に対する物体側主平面である。また、平面905はLBの波長に対する像側主平面である。平面906は、LGの波長に対する像側主平面である。LGとLBとがずれるように、光学系の波長分散により結像する位置がずれることを色収差と呼ぶ。図10は、ライトフィールドにおける色収差によるずれを説明するための図である。図10(a)には、マイクロレンズ907と撮像素子908とによって記録される、LGのライトフィールドデータが示されている。図10(b)には、マイクロレンズ907と撮像素子908とによって記録される、LBのライトフィールドデータが示されている。図10に示すように、LGとLBとは互いにずれている。本実施形態における撮像装置は、このような色収差によるずれが無くなるように、ライトフィールドデータを補正する。例えば、撮像装置は、図10に示す例において、LGとLBとが重なるように、LGとLBの少なくとも一方のライトフィールドデータを調整する。本実施形態では、LGを基準としてLBのライトフィールドデータを調整する。このような調整は、マイクロレンズ907に到達したLBをLBの波長に対する特性で物体側空間上の面901まで戻し、再びLBをLGの波長に対する特性でマイクロレンズ907に伝播させることに等しい。したがって、このような調整は、式1,式2による変換とその逆変換とを組み合わせることで行うことができる。よって、LGの波長のライトフィールドデータ上の点の座標を(xG,uG)とし、LBの波長のライトフィールドデータ上の点の座標を(xB,uB)とするならば、その間の対応関係は式3に示すような線形変換で表すことができる。
<Chromatic aberration in the light field>
When an optical system is composed of a material having a refractive index dispersion such as glass, the characteristics of the optical system change depending on the wavelength of light, that is, the color. Due to this phenomenon, as shown in FIG. 9, the focal length and the position of the main plane change for each wavelength. FIG. 9 is a diagram for explaining chromatic aberration. Light L which is emitted from the object 9 to propagate space, results refracted by an
また、(x,v)に対して垂直方向の光線の、位置yと傾きvについても同様の関係が成り立つ。そのため、LGの波長のライトフィールドデータ上の点の座標を(yG,vG)とし、LBの波長のライトフィールドデータ上の点の座標を(yB,vB)とすると、式4が成り立つ。 The same relationship holds for the position y and the inclination v of the light beam in the vertical direction with respect to (x, v). Therefore, when the coordinates of the point on the light field data of the L G wavelength are (y G , v G ) and the coordinates of the point on the light field data of the L B wavelength are (y B , v B ), 4 holds.
本実施形態では、各色のライトフィールドデータ間の対応から、このような線形変換を求めることで、色収差を補正する。 In this embodiment, chromatic aberration is corrected by obtaining such a linear conversion from the correspondence between the light field data of each color.
<画像処理部の構成と処理>
図11は、第1の実施形態の撮像装置のソフトウェア構成の一例を示すブロック図である。図11を用いて撮像装置のソフトウェア構成を説明する。
<Configuration and processing of image processing unit>
FIG. 11 is a block diagram illustrating an example of a software configuration of the imaging apparatus according to the first embodiment. A software configuration of the imaging apparatus will be described with reference to FIG.
本実施形態の撮像装置は、チャネル分離部1101、画像生成部1102、特徴点検出部1103、特徴量算出部1104、平面検出部1105、対応探索部1106、調整パラメータ導出部1107、ライトフィールドデータ調整部1108、およびチャネル統合部1109を含む。なお、本実施例では、CPU101が、ROM102が記憶するプログラムをRAM103にロードし、ロードしたプログラムを実行することによって、図11に示す各部が機能する。
The imaging apparatus of this embodiment includes a
チャネル分離部1101は、ライトフィールドデータを、バス110を介して取得し、各色のチャネルに分離する。なお、取得したライトフィールドデータはあらかじめ、撮像部113の設計情報や構成情報を元に、マイクロレンズ205上でのライトフィールド座標に合わせて変換されているものとする。
The
画像生成部1102は、色チャネル毎に分離されたライトフィールドデータから、u=0,v=0の面を切り出してxy平面に沿った2次元画像データを生成する。図12は、ライトフィールドデータ上の平面が検出される過程を示す図である。なお、図12では、便宜上ライトフィールドデータを位置xと傾きuの2次元で表している。図12(a)には、ライトフィールドデータのxu平面に対して、画像生成部1102が生成した画像データによって示される領域が黒色の矩形で示されている。
The
特徴点検出部1103は、画像生成部1102で生成された画像データから、Harrisコーナー検出などを用いて特徴点を抽出する。図12(b)には、ライトフィールドデータのxu平面に対して、検出された特徴点の例が黒色の矩形で示されている。なお、本実施形態では特徴点抽出方法としてHarrisコーナー検出を用いたが、DoG(Difference of Gaussian)やFAST(Features from Accelerated Segment Test)など特徴点を検出できるならばどのような方法を用いても構わない。
The feature
特徴量算出部1104は、特徴点検出部1103が検出した各特徴点を識別するための特徴量を、画像生成部1102が生成した画像データに基づいて算出する。本実施形態では、特徴量算出部1104は、特徴点の周囲のブロックの画素値を用いて、特徴量を算出する。
The feature
平面検出部1105は、特徴点検出部1103が検出した各特徴点を通るライトフィールドデータ上の平面を検出する。ここで、ライトフィールドデータ上の平面とは、被写体上の同一点から射出された光線群が成す、2次元の線形部分空間のことである。この平面の近傍におけるxy平面上の値の分布は、被写体上の同一点から発せられた光線の強度が光線の角度に対して緩やかに変化する性質を反映して、異なる(u,v)においても似たパターンとなる。従って、ライトフィールドデータ上の平面の検出は、特徴点の検出を行ったu=0,v=0のxy平面上の特徴点近傍でブロックを作り、このブロックとの差分二乗和が最小となる位置(x,y)を、異なる(u,v)のxy平面上で探索することで行う。なお、平面検出部1105がu≠0,v≠0のxy平面上で探索を行う場合には、画像生成部1102が、ライトフィールドデータから、u≠0,v≠0の面を切り出してxy平面に沿った2次元画像データを生成する。そして、平面検出部1105は、当該2次元画像データによって示される領域(探索範囲)に対して上記探索を行う。図12(c)には、探索に用いるブロックの例が黒い矩形で示されている。また、図12(d)には、探索範囲の例が黒い矩形で示されている。(u,v)=(un,vm)となるxy平面上において、(x,y)=(xn,ym)となる位置で差分二乗和が最小となるとき、平面(ライトフィールドデータ上の平面)を拘束する情報として式5に示す関係が得られる。
The
これを式6で表されるような複数の(un,vm)に対して求める。なお、式6におけるNは、u方向におけるサンプリング数の総数である。Mは、v方向におけるサンプリング数の総数である。 This is obtained for a plurality of (u n , v m ) as expressed by Equation 6. Note that N in Equation 6 is the total number of samplings in the u direction. M is the total number of samplings in the v direction.
図12(e)には探索で得られた複数のxとuとの関係が黒い矩形で示されている。 (X,Y)の位置から(U,V)の方向に発せられた光線は、ライトフィールドデータ上の点(x,y,u,v)に記録されるまでに式7のような変換を受ける。a,b,c,dは定数である。なお、式7は、光軸がレンズ(レンズ201,202)の中心にあることを前提とした場合における変換式である。
In FIG. 12E, the relationship between a plurality of x and u obtained by the search is indicated by a black rectangle. Rays emitted in the direction of (U, V) from the position (X, Y) are converted as shown in Equation 7 before being recorded at the point (x, y, u, v) on the light field data. receive. a, b, c, and d are constants. Expression 7 is a conversion expression when it is assumed that the optical axis is at the center of the lens (
式7は、任意の方向(U,V)に対して成り立つと見なすならば、被写体上の同一点から発せられた光線群が成す線形部分区間、すなわちライトフィールドデータ上の平面を表している。ある被写体上の位置(X,Y)から任意の方向(U,V)に向けて射出された光線群が満たすべき(x,y,u,v)の拘束条件は、式7からU,Vを消去して、式8,9として求まる。 Equation 7 represents a linear subsection formed by a group of light rays emitted from the same point on the subject, that is, a plane on the light field data, if it is assumed that it holds for an arbitrary direction (U, V). The constraint condition of (x, y, u, v) that should be satisfied by the light ray group emitted in an arbitrary direction (U, V) from the position (X, Y) on a certain subject is expressed by U, V from Equation 7. And are obtained as equations 8 and 9.
p=d,q=−b, r=(bc−ad)x´,s=(bc−ad)y´として、式8,9に示す拘束条件を整理すると、式10,11が得られる。
When p = d, q = −b, r = (bc−ad) x ′, and s = (bc−ad) y ′, the constraints shown in equations 8 and 9 are rearranged to obtain
p,q,r,sがライトフィールドデータ上の平面を決定するパラメータである。平面検出部1105は、式5に示す関係を用いて式12を最小化するような最小二乗解として、p,q,r,sを求める。この時、平面検出部1105は、p,q,r,sが0とならないように式13に示すような拘束条件を用いる。
p, q, r, and s are parameters that determine the plane on the light field data. The
最小二乗解は、式14で表される行列Fの最小固有値に対応する固有ベクトルとして求められる。図12(f)には、最小二乗法により求めた線形部分空間、すなわちライトフィールドデータ上の平面の例が実線で示されている。 The least square solution is obtained as an eigenvector corresponding to the minimum eigenvalue of the matrix F expressed by Equation 14. In FIG. 12F, an example of a linear subspace obtained by the least square method, that is, a plane on the light field data is shown by a solid line.
ただし、 However,
なお、本実施形態では式5の関係を全て用いた最小二乗解でライトフィールドデータ上の平面のパラメータを求めた。しかし、オクルージョンやビグネッティングよる線形部分空間の欠損や誤対応に対するロバスト性を高めるために、RANSACなどのロバスト推定を用いても構わない。また、本実施形態では差分二乗和が最小になるようブロック探索を行ってライトフィールドデータ上の平面の拘束条件を求めた。しかし、正規化相互相関に基づくブロック探索や、勾配法による探索など、他の方法で各色のライトフィールドデータ間の対応を求めても構わない。また、本実施形態ではxy平面上のブロックを基準とした対応探索によりライトフィールドデータ上の平面の拘束条件を求め、最小二乗法によりライトフィールドデータ上の平面のパラメータを求めた。しかし、ライトフィールドデータ上の平面を特定できるならばどのような方法でも構わない。例えば、異なるuv間でのxy平面における類似度を最大化するようライトフィールドデータ上の平面のパラメータを直接最適化する方法や、ハフ変換を4次元に拡張した方法でも構わない。 In the present embodiment, the plane parameters on the light field data are obtained by the least squares solution using all the relationships of Expression 5. However, robust estimation such as RANSAC may be used in order to improve robustness with respect to a loss or erroneous correspondence of a linear subspace due to occlusion or bignetting. In the present embodiment, the block search is performed so that the sum of squared differences is minimized, and the plane constraint condition on the light field data is obtained. However, the correspondence between the light field data of each color may be obtained by other methods such as block search based on normalized cross-correlation and search by gradient method. Further, in this embodiment, the constraint condition of the plane on the light field data is obtained by the correspondence search based on the block on the xy plane, and the plane parameter on the light field data is obtained by the least square method. However, any method may be used as long as the plane on the light field data can be specified. For example, a method of directly optimizing the plane parameters on the light field data so as to maximize the similarity on the xy plane between different uvs, or a method of expanding the Hough transform to four dimensions may be used.
対応探索部1106は、異なるチャネルのライトフィールドデータ間で特徴点に基づいて平面(ライトフィールドデータ上の平面)を対応付ける。対応付けは、基準となるチャネルの特徴点に対して、特徴量が最も類似している特徴点を異なるチャネルの特徴点から探索することで行われる。本実施形態では特徴量の類似度として正規化相互相関を用いる。また、一般的な光学系では色収差によるライトフィールドデータの変形はわずかなので、特徴点の距離や平面(ライトフィールドデータ上の平面)の距離で探索対象を限定する。本実施形態では基準となるチャネルをG成分とし、これに対してB成分とR成分のチャネルの特徴点をそれぞれ対応付ける。なお、本実施形態ではブロックの正規化相互相関によるマッチングを用いたが、SIFT(Scale−Invariant Feature Transform)特徴量によるマッチング、差分二乗和によるマッチング、幾何学的に近傍にある特徴点とのマッチングなどどのような方法を用いても構わない。
The
調整パラメータ導出部1107は、対応探索部1106で対応付けた平面の関係に基づき、基準チャネルであるGチャネルと、他のチャネル(Bチャネル,Rチャネル)とについて、式3、式4で表されるようなライトフィールド上の座標の関係を求める。ここで、基準チャネル上の座標を(x,u)、他のチャネル上の座標を(x´,u´)として、式3、式4で表される関係を式15で表す。
The adjustment
(x,u)と(x´,u´)はそれぞれ、被写体上の同一点から発せられた光線群が成す線形部分空間、すなわちライトフィールドデータ上の平面上に位置するので、それぞれ式16,17に示す拘束条件を満たす。なお、p´,q´,r´,s´は、他のチャネル(Bチャネル、Rチャネル)における線形部分空間を決定するパラメータである。 Since (x, u) and (x ′, u ′) are located on a linear subspace formed by a group of rays emitted from the same point on the subject, that is, on a plane on the light field data, respectively, 17 satisfies the constraint condition. Note that p ′, q ′, r ′, and s ′ are parameters that determine linear subspaces in other channels (B channel and R channel).
式15,16,17より、式18に示す条件が得られる。 From the equations 15, 16, and 17, the condition shown in the equation 18 is obtained.
本実施形態では式18に示す関係を用いて最小二乗法でh´,i´,j´,k´を算出する。算出されるh´,i´,j´,k´は、線形部分空間を表すパラメータ間の調整パラメータである。したがって、本実施形態ではさらに、式18に基づいてh´,i´,j´,k´から、ライトフィールド座標間の調整パラメータであるh,i,j,kを導出する。λは式16,17のスケールに関する不定性を反映して導入した任意のスカラーである。しがたって、調整パラメータ導出部1107は、h´,i´,j´,k´を算出するにあたって事前にλを消去する。本実施形態では式18の左辺がλになるよう各行を線形結合することで、λを求めて消去する。線形結合の係数をα、β、γとすると、式18の各行の線形結合は式19で表される。
In the present embodiment, h ′, i ′, j ′, and k ′ are calculated by the least square method using the relationship shown in Expression 18. The calculated h ′, i ′, j ′, and k ′ are adjustment parameters between parameters representing the linear subspace. Therefore, in the present embodiment, h, i, j, and k that are adjustment parameters between light field coordinates are derived from h ′, i ′, j ′, and k ′ based on Expression 18. λ is an arbitrary scalar introduced reflecting the indeterminacy regarding the scales of Equations 16 and 17. Therefore, the adjustment
式19の左辺をλとする係数の条件は式20で表される。
The condition of the coefficient in which the left side of Equation 19 is λ is expressed by
λを安定的に計算するために、式20を満たし、式21を最小にするα,β,γを求める。
In order to stably calculate λ, α, β, and γ that satisfy
式20を用いて式21からγを消去し、αとβによる偏微分が0になるという条件で、式21を最小化する係数を求めると、式22が得られる。
When γ is eliminated from
式19,22を式18に代入すると、式23が得られる。
Substituting
ただし、 However,
また、ライトフィールド座標の(y,v)に関しても同様に導出することで、式24が得られる。
Further, by similarly deriving (y, v) of the light field coordinates,
ただし、 However,
式23と式24との関係は、チャネル間のライトフィールドデータ上の平面の対応毎に得られるので、複数の対応を用いて最小二乗法でh´,i´,j´,k´を求める。ここで、N個の対応があり、n番目の平面(ライトフィールドデータ上の平面)を表すパラメータを、基準チャネルについてはpn,qn,rn,snと表現し、それ以外のチャネルについてはp´n,q´n,r´n,s´nと表現する。このとき、求めるべきh´,i´,j´,k´は式25で表される。なお、式25におけるNは、ステップS1204で検出される特徴点の総数を表す。
Since the relationship between
ただし、 However,
式25を満たすh´,i´,j´,k´は、右辺の目的関数が最小値のとき、h´,i´,j´,k´による偏微分が0になるという関係から求めることができ、式26で算出される。 H ′, i ′, j ′, k ′ satisfying Expression 25 is obtained from the relationship that the partial differentiation by h ′, i ′, j ′, k ′ becomes 0 when the objective function on the right side is the minimum value. And is calculated by Equation 26.
以上のように算出したh´,i´,j´,k´から式27に示すように、調整パラメータh,i,j,kを導出する。なお、本実施形態では全ての平面(ライトフィールドデータ上の平面)の対応を用いた最小二乗解で調整パラメータを求めたが、誤対応に対するロバスト性を高めるために、RANSACなどのロバスト推定を用いても構わない。 Adjustment parameters h, i, j, and k are derived from h ′, i ′, j ′, and k ′ calculated as described above, as shown in Expression 27. In the present embodiment, the adjustment parameter is obtained by the least square solution using the correspondence of all the planes (planes on the light field data). However, in order to improve the robustness against miscorrespondence, robust estimation such as RANSAC is used. It doesn't matter.
ライトフィールドデータ調整部1108は、調整パラメータ導出部1107が導出した調整パラメータに基づき、各チャネルのライトフィールドデータを基準チャネルのライトフィールドデータに重なるように調整する。なお、本実施形態では、「基準チャネルのライトフィールドデータに重ねる」等の表現を用いる。しかし、実際には、基準チャネルのライトフィールドデータによって示される光線の位置と角度と、他のライトフィールドデータによって示される光線の位置と角度を一致させることである。
Based on the adjustment parameter derived by the adjustment
まず、ライトフィールドデータ調整部1108は、基準チャネル上のサンプリング座標(x,y,u,v)に対して、別のチャネル上の対応する座標(x´,y´,u´,v´)を式28に基づき算出する。次に、ライトフィールドデータ調整部1108は、別のチャネル上の座標(x´,y´,u´,v´)における値を補間により生成する。ライトフィールドデータ調整部1108は、補間により生成した値を基準チャネル上のサンプリング位置に配置する。このようにして、ライトフィールドデータ調整部1108は、各チャネルのライトフィールドデータを線形変換して調整する。
First, the light field
チャネル統合部1109は、ライトフィールドデータ調整部1108で調整されたBチャネル,Rチャネルのライトフィールドデータと、基準としたGチャネルとのライトフィールドデータとを統合し、カラーのライトフィールドデータを生成する。生成したライトフィールドデータは、バス110を介して出力される。
The
図13は、第1の実施形態の撮像装置の処理の流れの一例を示すフローチャートである。図13を用いて本実施形態の撮像装置の処理の流れを説明する。 FIG. 13 is a flowchart illustrating an example of a processing flow of the imaging apparatus according to the first embodiment. A processing flow of the imaging apparatus according to the present embodiment will be described with reference to FIG.
ステップS1201では、チャネル分離部1101がライトフィールドデータを取得する。
In step S1201, the
ステップS1202では、チャネル分離部1101がステップS1201で取得したライトフィールドデータから新たなチャネルを1つ分離する。なお、このときチャネル分離部1101は、新たなチャネルとしてGチャネルを選択する。そして、ステップS1202の処理が繰り返し実行される度に、チャネル分離部1101は、新たなチャネルを、Bチャネル,Rチャネルと切り替える。すなわち、チャネル分離部1101は、Gチャネル,Bチャネル,Rチャネルの順にチャネルを分離する。
In step S1202, the
ステップS1203では、画像生成部1102がステップS1202で抽出したチャネルのライトフィールドデータから、光線の角度がu=0,v=0であるデータを切り出して2次元画像データを生成する。
In step S1203, the
ステップS1204では、特徴点検出部1103がステップS1203で生成した画像データから特徴点を抽出する。ステップS1205では、特徴量算出部1104がステップS1204で抽出した特徴点の特徴を示す特徴量を算出する。ステップS1206では、平面検出部1105がステップS1205で検出した特徴点を通るライトフィールドデータ上の平面を検出する。
In step S1204, the feature
ステップS1207では、処理しているデータがGチャネルのライトフィールドデータか判定する。Gチャネルのライトフィールドデータならば(ステップS1207のYES)、撮像装置は、ステップS1208の処理に進む。Gチャネルでなければ(ステップS1207のNO)、撮像装置は、ステップS1209の処理に進む。 In step S1207, it is determined whether the data being processed is light field data of the G channel. If it is G-channel light field data (YES in step S1207), the imaging apparatus proceeds to step S1208. If it is not the G channel (NO in step S1207), the imaging apparatus proceeds to the process in step S1209.
ステップS1208では、対応探索部1106がGチャネルの特徴量、特徴点位置、およびライトフィールドデータ上の平面の情報を保持する。その後、撮像装置は、ステップS1202の処理に戻る。
In step S1208, the
ステップS1209では、対応探索部1106がGチャネルのライトフィールドデータ上の平面とその他のチャネルライトフィールドデータ上の平面とを対応付ける。この対応付けは、ステップS1208で保持したGチャネルの情報と、ステップS1204〜S1206で算出した他チャネルの情報とに基づき行われる。
In step S1209, the
ステップS1210では、調整パラメータ導出部1107が、ステップS1209で対応探索部1106が求めた平面の対応に基づき、調整パラメータを導出する。ここでは、処理中のチャネルのライトフィールドデータをGチャネルのライトフィールドデータに重ねるための、調整パラメータが導出される。
In step S1210, the adjustment
ステップS1211では、ライトフィールドデータ調整部1108が、ステップS1210で導出した調整パラメータに基づき、処理中のチャネルのライトフィールドデータをGチャネルのライトフィールドデータに重なるように調整する。調整されたライトフィールドデータは、チャネル統合部1109が保持する。
In step S1211, the light field
ステップS1212では、撮像装置は、全てのチャネルを処理したか判定する。処理していれば(ステップS1212のYES)、撮像装置は、ステップS1213の処理に進む。処理していなければ(ステップS1212のNO)、撮像装置は、ステップS1202の処理に戻る。 In step S1212, the imaging apparatus determines whether all channels have been processed. If processed (YES in step S1212), the imaging apparatus proceeds to the process in step S1213. If not processed (NO in step S1212), the imaging apparatus returns to the process in step S1202.
ステップS1213では、チャネル統合部1109が、ステップS1211で調整したBチャネル,Rチャネルのライトフィールドデータと、Gチャネルのライトフィールドデータとを統合して、カラーのライトフィールドデータを生成する。
In step S1213, the
ステップS1214では、チャネル統合部1109が、ステップS1213で生成したライトフィールドデータを出力する。
In step S1214, the
なお、本実施形態では、光学系の光軸位置に誤差が無いと仮定として、xu平面とyv平面で共通の2次元線形変換でライトフィールドにおける色収差の補正を表現した。ただし、xyuv空間に対する4次元アフィン変換など、他の変換を用いて表現しても良い。この場合は本実施形態で説明した方法を拡張して、4次元アフィン変換の推定を行う。これにより、光軸位置の誤差に対応することが可能となる。また、本実施形態では、RGBの3波長のライトフィールドの例について説明したが、2波長のライトフィールドや3波長より多い波長のライトフィールドに対して適用してもかまわない。また、本実施例では、Gチャネルを基準として、他のチャネル(R,Bチャネル)のライトフィールドデータを調整する撮像装置を例にした。しかし、必ずしも基準とするチャネルを設ける必要はなく、すべてのチャネルのライトフィールドデータを調整して、各チャネルのライトフィールドデータを重ね合わせるようにしてもよい。 In this embodiment, assuming that there is no error in the optical axis position of the optical system, correction of chromatic aberration in the light field is expressed by two-dimensional linear conversion common to the xu plane and the yv plane. However, you may express using other transformations, such as the four-dimensional affine transformation with respect to xyuv space. In this case, the method described in the present embodiment is extended to estimate a four-dimensional affine transformation. As a result, it is possible to cope with an error in the optical axis position. In this embodiment, an example of a light field having three wavelengths of RGB has been described. However, the present invention may be applied to a light field having two wavelengths or a light field having more than three wavelengths. In the present embodiment, an imaging apparatus that adjusts light field data of other channels (R and B channels) with the G channel as a reference is taken as an example. However, it is not always necessary to provide a reference channel, and the light field data of all channels may be superimposed by adjusting the light field data of all channels.
以上、本実施例形態によれば、レンズの情報を必要とせずに、ライトフィールドにおける色収差の補正を行うことができる。すなわち、本実施形態によれば、ライトフィールドデータを取得する際に使用するレンズが未知のレンズである場合でも、取得されたライトフィールドデータに対して色収差の補正を適切に行うことができる。また、本実施例では、基準チャネルのライトフィールドデータ上の平面とその他のチャネルライトフィールドデータ上の平面との対応関係から調整パラメータを導出している。したがって、例えば、ステップS1204の処理において、抽出される特徴点の数が十分でない場合でも、適切に調整パラメータを導出することができる。よって、そのような場合でも色収差の補正の精度を保つことができる。 As described above, according to the present embodiment, it is possible to correct chromatic aberration in the light field without requiring lens information. In other words, according to the present embodiment, even when the lens used when acquiring the light field data is an unknown lens, it is possible to appropriately correct the chromatic aberration with respect to the acquired light field data. In this embodiment, the adjustment parameter is derived from the correspondence between the plane on the light field data of the reference channel and the plane on the other channel light field data. Therefore, for example, in the process of step S1204, the adjustment parameter can be appropriately derived even when the number of extracted feature points is not sufficient. Therefore, the accuracy of correcting chromatic aberration can be maintained even in such a case.
[実施形態2]
第1の実施形態では、平面(ライトフィールドデータ上の平面)の対応に基づき異なるチャネルのライトフィールドデータを互いに重ね合わせることで、色収差の補正を行った。第2の実施形態では、ライトフィールドデータから特徴点を抽出し、特徴点の対応に基づき異なるチャネルのライトフィールドデータを互いに重ね合わせることで、色収差の補正を行う。この場合、ライトフィールドデータ上の平面の検出を行わずに済むため、計算コストの低減が可能となる。
[Embodiment 2]
In the first embodiment, correction of chromatic aberration is performed by superimposing light field data of different channels on the basis of correspondence of a plane (a plane on the light field data). In the second embodiment, feature points are extracted from light field data, and light field data of different channels are superimposed on each other based on the correspondence of the feature points, thereby correcting chromatic aberration. In this case, since it is not necessary to detect a plane on the light field data, the calculation cost can be reduced.
図14は、第2の実施形態の撮像装置のソフトウェア構成の一例を表すブロック図である。本実施形態の撮像装置は、チャネル分離部1101、特徴点検出部1401、特徴量算出部1402、対応探索部1403、調整パラメータ導出部1404、ライトフィールドデータ調整部1108、およびチャネル統合部1109を含む。なお、チャネル分離部1101、ライトフィールドデータ調整部1108、およびチャネル統合部1109は、第1の実施形態と同様である。本実施形態では、特徴点検出部1401、特徴量算出部1402、対応探索部1403、および調整パラメータ導出部1404により、異なるチャネルのライトフィールドデータを互いに重ね合わせるための調整パラメータを導出する。以下、第1の実施形態と異なる部分について説明する。
FIG. 14 is a block diagram illustrating an example of a software configuration of the imaging apparatus according to the second embodiment. The imaging apparatus of the present embodiment includes a
特徴点検出部1401は、チャネル分離部1101から取得した各チャネルのライトフィールドデータから、ライトフィールド空間中の全ての方向に対して一様でない画素値の分布を周囲に有する点を、特徴点として検出する。本実施形態では一例として、xu平面とyv平面それぞれに対するHarrisコーナー検出を用いる。このような特徴点は、テクスチャのある被写体から発せられた光線がライトフィールド上でオクルージョンにより遮蔽されるような領域で、検出される。なお、本実施形態では特徴点抽出方法としてHarrisコーナー検出を用いたが、DoGやFASTなど特徴点を検出できるならばどのような方法を用いても構わない。
The feature
特徴量算出部1402は、特徴点検出部1401が検出した各特徴点を識別するための特徴量を、チャネル分離部1101から取得した各チャネルのライトフィールドデータに基づいて算出する。本実施形態では、特徴量算出部1402は、特徴点の周囲のブロックの画素値を用いて、特徴量を算出する。
The feature
対応探索部1403は、異なるチャネルのライトフィールドデータ間で特徴点を対応付ける。対応付けは、基準となるチャネルの特徴点に対して、特徴量が最も類似している特徴点を異なるチャネルの特徴点から探索することで行われる。本実施形態では特徴量の類似度として正規化相互相関を用いる。また、一般的な光学系では色収差によるライトフィールドデータの変形はわずかなので、特徴点の距離で探索対象を限定する。本実施形態では基準となるチャネルをG成分とし、これに対してB成分とR成分のチャネルの特徴点をそれぞれ対応付ける。なお、本実施形態ではブロックの正規化相互相関によるマッチングを用いたが、SIFT特徴量によるマッチング、差分二乗和によるマッチング、幾何学的に近傍にある特徴点とのマッチングなどどのような方法を用いても構わない。
The
調整パラメータ導出部1404は、対応探索部1403で対応付けた特徴点の関係に基づき、基準チャネルであるGチャネルと、それ以外のチャネル(Bチャネル、Rチャネル)との、式3、式4で表されるようなライトフィールド空間上の座標の関係を求める。座標の関係を表す調整パラメータは、式29、式30を最小二乗法で解くことによって導出される。このとき、(xn,yn,un,vn)は基準チャネル上のn番目の特徴点の座標であり(x´n,y´n,u´n,v´n)はそれ以外のチャネル上のn番目の特徴点の座標である。
The adjustment
なお、本実施形態では全ての特徴点の対応を用いた最小二乗解で調整パラメータを求めたが、誤対応に対するロバスト性を高めるために、RANSACなどのロバスト推定を用いても構わない。 In the present embodiment, the adjustment parameter is obtained by the least square solution using the correspondence of all the feature points, but robust estimation such as RANSAC may be used in order to improve the robustness against erroneous correspondence.
ライトフィールドデータ調整部1108は、第1の実施形態と同様に、調整パラメータ (h,i,j,k)に基づきライトフィールドデータを調整する。
The light field
図15は、第2の実施形態の撮像装置の処理の流れの一例を示すフローチャートである。図15を用いて本実施形態の撮像装置の処理の流れを説明する。なお、ステップS1501,S1502、S1505,S1509〜S1512の処理はそれぞれ、第1の実施形態におけるステップS1201,S1202、S1207,S1211〜S1214の処理と同様であるため、説明を省略する。 FIG. 15 is a flowchart illustrating an example of a processing flow of the imaging apparatus according to the second embodiment. A processing flow of the imaging apparatus according to the present embodiment will be described with reference to FIG. Note that the processes in steps S1501, S1502, S1505, and S1509 to S1512 are the same as the processes in steps S1201, S1202, S1207, and S1211 to S1214 in the first embodiment, and thus description thereof is omitted.
ステップS1503では、特徴点検出部1401が、ステップS1201で分離したチャネルのライトフィールドデータから特徴点を検出する。
In step S1503, the feature
ステップS1504では、特徴量算出部1402が、ステップS1501で検出した特徴点に基づき特徴量を算出する。
In step S1504, the feature
ステップS1506では、対応探索部1403がGチャネルの特徴量、特徴点位置の情報を保存する。
In step S1506, the
ステップS1507では、対応探索部1403が、Gチャネルとその他のチャネルの特徴点を、ステップS1506で保持したGチャネルの情報と、ステップS1503〜S1504で算出した他チャネルの情報に基づき、対応付ける。
ステップS1508では、調整パラメータ導出部1404がステップS1507で求めた特徴点の対応に基づき、Gチャネルに重なるように処理中のチャネルのライトフィールドデータを調整するための、調整パラメータを導出する。
In step S1507, the
In step S1508, the adjustment
なお、本実施形態では、光学系の光軸位置に誤差が無いと仮定して、xu平面とyv平面で共通の2次元線形変換でライトフィールドにおける色収差の補正を表現した。ただし、xyuv空間に対する4次元アフィン変換など、他の変換を用いて表現しても良い。この場合は本実施形態で説明した方法を拡張して、4次元アフィン変換の推定を行う。これにより、光軸位置の誤差に対応することが可能となる。 In the present embodiment, correction of chromatic aberration in the light field is expressed by two-dimensional linear transformation common to the xu plane and the yv plane, assuming that there is no error in the optical axis position of the optical system. However, you may express using other transformations, such as the four-dimensional affine transformation with respect to xyuv space. In this case, the method described in the present embodiment is extended to estimate a four-dimensional affine transformation. As a result, it is possible to cope with an error in the optical axis position.
以上、本実施形態によれば、第1の実施形態と同様の効果を得ることできる。また、本実施形態によれば、ライトフィールドデータ上の平面の検出を行わずに済むため、計算コストを低減させることができる As described above, according to the present embodiment, the same effects as those of the first embodiment can be obtained. Further, according to the present embodiment, it is not necessary to detect a plane on the light field data, so that the calculation cost can be reduced.
(その他の実施形態)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
1101 チャネル分離部
1107 調整パラメータ導出部
1108 ライトフィールドデータ調整部
1101
Claims (15)
波長が異なる複数のチャネルごとに前記ライトフィールドデータを分離する分離手段と、
分離して得られた前記複数のライトフィールドデータ間の対応関係から、各ライトフィールドデータに記録された光線の位置と角度とを互いに一致させるための調整パラメータを導出する導出手段と、
前記導出手段が導出した前記調整パラメータに基づき、前記複数のライトフィールドデータのうち少なくとも1つのライトフィールドデータに記録された光線の位置と角度とを調整する調整手段と、を備える
ことを特徴とする情報処理装置。 An acquisition means for acquiring light field data;
Separating means for separating the light field data for each of a plurality of channels having different wavelengths;
Deriving means for deriving adjustment parameters for making the positions and angles of the light rays recorded in each light field data coincide with each other from the correspondence between the plurality of light field data obtained by separation,
Adjusting means for adjusting a position and an angle of a light beam recorded in at least one light field data among the plurality of light field data based on the adjustment parameter derived by the deriving means. Information processing device.
前記複数のライトフィールドデータのうち、一のライトフィールドデータを基準とし、他のライトフィールドデータに記録された光線の位置と角度とを前記調整パラメータに基づき調整する
請求項1に記載の情報処理装置。 The adjusting means includes
2. The information processing apparatus according to claim 1, wherein among the plurality of light field data, one light field data is used as a reference, and a position and an angle of a light beam recorded in the other light field data are adjusted based on the adjustment parameter. .
基準となる前記一のライトフィールドデータから生成される画像データから、特徴点を検出し、当該特徴点に対応する被写体上の点から発せられた、光線群が成す線形部分空間をさらに検出する検出手段と、
前記検出手段が検出した線形部分空間に対応する線形部分空間を、前記他のライトフィールドデータから生成される画像データから探索する対応探索手段と、
前記検出手段が検出した線形部分空間と前記対応探索手段が探索した線形部分空間との対応関係から前記調整パラメータを導出する調整パラメータ導出手段と、を有する
請求項2に記載の情報処理装置。 The derivation means includes
Detection that detects a feature point from image data generated from the one light field data serving as a reference, and further detects a linear subspace formed by a group of rays emitted from a point on the subject corresponding to the feature point Means,
Correspondence search means for searching a linear subspace corresponding to the linear subspace detected by the detection means from image data generated from the other light field data;
The information processing apparatus according to claim 2, further comprising: an adjustment parameter deriving unit that derives the adjustment parameter from a correspondence relationship between the linear subspace detected by the detection unit and the linear subspace searched by the correspondence search unit.
前記対応探索手段は、前記検出手段が検出した複数の線形部分空間のそれぞれについて、当該線形部分空間に対応する線形部分空間を、前記他のライトフィールドデータから生成される画像データから探索し、
前記調整パラメータ導出手段は、前記検出手段が検出した複数の線形部分空間のそれぞれについて得られる、前記対応探索手段により探索された線形部分空間との対応関係に基づき、前記調整パラメータを導出する
請求項3に記載の情報処理装置。 The detecting means detects a plurality of feature points from image data generated from the one light field data serving as a reference, and further detects a linear subspace corresponding to the feature points for each of the plurality of feature points. And
The correspondence search unit searches for a linear subspace corresponding to the linear subspace for each of the plurality of linear subspaces detected by the detection unit from image data generated from the other light field data,
The adjustment parameter derivation unit derives the adjustment parameter based on a correspondence relationship obtained with each of the plurality of linear subspaces detected by the detection unit and with the linear subspace searched by the correspondence search unit. 3. The information processing apparatus according to 3.
請求項4に記載の情報処理装置。 The information processing apparatus according to claim 4, wherein the adjustment parameter deriving unit derives the adjustment parameter using a least square method from the correspondence obtained for each of the plurality of linear subspaces detected by the detection unit.
前記ライトフィールドデータから生成される画像データから特徴点を検出する検出手段と、
基準となる前記一のライトフィールドデータから生成される画像データから検出された特徴点と、前記他のライトフィールドデータから生成される画像データから検出された特徴点との対応関係から、前記調整パラメータを導出する調整パラメータ導出手段と、を有する
請求項2に記載の情報処理装置。 The derivation means includes
Detecting means for detecting feature points from the image data generated from the light field data;
From the correspondence between feature points detected from image data generated from the one light field data serving as a reference and feature points detected from image data generated from the other light field data, the adjustment parameter The information processing apparatus according to claim 2, further comprising adjustment parameter deriving means for deriving.
前記検出手段は、基準となる前記一のライトフィールドデータから生成される画像データから複数の特徴点を検出し、
前記対応探索手段は、基準となる前記一のライトフィールドデータから生成される画像データから検出された複数の特徴点のそれぞれについて、当該特徴点に対応する特徴点を、前記他のライトフィールドデータから生成される画像データから探索し、
前記調整パラメータ導出手段は、前記検出手段が検出した複数の特徴点のそれぞれについて得られる、前記対応探索手段により探索された特徴点との対応関係に基づき、前記調整パラメータを導出する
請求項6に記載の情報処理装置。 The derivation means further includes correspondence search means,
The detection means detects a plurality of feature points from image data generated from the one light field data serving as a reference,
The correspondence search means, for each of a plurality of feature points detected from image data generated from the one light field data serving as a reference, finds a feature point corresponding to the feature point from the other light field data. Search from the generated image data,
The adjustment parameter derivation unit derives the adjustment parameter based on a correspondence relationship obtained with each of the plurality of feature points detected by the detection unit and with the feature points searched by the correspondence search unit. The information processing apparatus described.
請求項7に記載の情報処理装置。 The information processing apparatus according to claim 7, wherein the adjustment parameter derivation unit derives the adjustment parameter using a least square method from the correspondence obtained for each of the plurality of feature points detected by the detection unit.
請求項1から請求項8のいずれか1項に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the adjustment by the adjustment unit is performed by two-dimensional linear conversion using the adjustment parameter.
請求項1から請求項8のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 8, wherein the adjustment by the adjustment unit is performed by four-dimensional affine transformation using the adjustment parameter.
前記ライトフィールドデータには、画素位置ごとに、当該画素位置から特定される、光線が通過したマイクロレンズの位置と当該光線が当該マイクロレンズに入射した角度と、が少なくとも記録される
請求項1から請求項9のうちのいずれか1項に記載の情報処理装置。 The acquisition means has a microlens array including a plurality of microlenses, acquires light field data obtained by imaging with a plenoptic camera,
The light field data includes at least a position of a microlens through which a light beam passes and an angle at which the light beam enters the microlens, which are specified from the pixel position, for each pixel position. The information processing apparatus according to claim 9.
波長が異なる複数のチャネルごとに前記ライトフィールドデータを分離する分離手段と、
分離して得られた前記複数のライトフィールドデータ間の対応関係から、各ライトフィールドデータに記録された光線の位置と角度とを互いに一致させるための調整パラメータを導出する導出手段と、を備える
ことを特徴とする情報処理装置。 An acquisition means for acquiring light field data;
Separating means for separating the light field data for each of a plurality of channels having different wavelengths;
Deriving means for deriving adjustment parameters for matching the positions and angles of the light rays recorded in each light field data from the correspondence relationship between the plurality of light field data obtained by separation. An information processing apparatus characterized by the above.
波長が異なる複数のチャネルごとに前記ライトフィールドデータを分離する分離ステップと、
分離して得られた前記複数のライトフィールドデータ間の対応関係から、各ライトフィールドデータに記録された光線の位置と角度とを互いに一致させるための調整パラメータを導出する導出ステップと、
前記導出ステップにおいて導出された前記調整パラメータに基づき、前記複数のライトフィールドデータのうち少なくとも1つのライトフィールドデータに記録された光線の位置と角度とを調整する調整ステップと、を含む
ことを特徴とする情報処理方法。 An acquisition step for acquiring light field data;
A separation step of separating the light field data for each of a plurality of channels having different wavelengths;
A derivation step for deriving an adjustment parameter for matching the position and angle of the light beam recorded in each light field data from the correspondence between the plurality of light field data obtained by separation, and
An adjustment step of adjusting a position and an angle of a light beam recorded in at least one light field data among the plurality of light field data based on the adjustment parameter derived in the derivation step. Information processing method.
波長が異なる複数のチャネルごとに前記ライトフィールドデータを分離する分離ステップと、
分離して得られた前記複数のライトフィールドデータ間の対応関係から、各ライトフィールドデータに記録された光線の位置と角度とを互いに一致させるための調整パラメータを導出する導出ステップと、を含む
ことを特徴とする情報処理方法。 An acquisition step for acquiring light field data;
A separation step of separating the light field data for each of a plurality of channels having different wavelengths;
A derivation step for deriving an adjustment parameter for making the position and angle of the light beam recorded in each light field data coincide with each other from the correspondence relationship between the plurality of light field data obtained by separation. An information processing method characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016074505A JP2017188729A (en) | 2016-04-01 | 2016-04-01 | Information processing device, information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016074505A JP2017188729A (en) | 2016-04-01 | 2016-04-01 | Information processing device, information processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017188729A true JP2017188729A (en) | 2017-10-12 |
Family
ID=60046544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016074505A Pending JP2017188729A (en) | 2016-04-01 | 2016-04-01 | Information processing device, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017188729A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200050842A (en) | 2018-11-02 | 2020-05-12 | 한국전자통신연구원 | Plenoptic data storage system and operating method thereof |
CN113191369A (en) * | 2021-04-09 | 2021-07-30 | 西安理工大学 | Characteristic point detection method based on light field angle domain change matrix |
US11182872B2 (en) | 2018-11-02 | 2021-11-23 | Electronics And Telecommunications Research Institute | Plenoptic data storage system and operating method thereof |
-
2016
- 2016-04-01 JP JP2016074505A patent/JP2017188729A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200050842A (en) | 2018-11-02 | 2020-05-12 | 한국전자통신연구원 | Plenoptic data storage system and operating method thereof |
US11182872B2 (en) | 2018-11-02 | 2021-11-23 | Electronics And Telecommunications Research Institute | Plenoptic data storage system and operating method thereof |
CN113191369A (en) * | 2021-04-09 | 2021-07-30 | 西安理工大学 | Characteristic point detection method based on light field angle domain change matrix |
CN113191369B (en) * | 2021-04-09 | 2024-02-09 | 西安理工大学 | Characteristic point detection method based on light field angular domain change matrix |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10560684B2 (en) | System and methods for calibration of an array camera | |
US8736737B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP6172978B2 (en) | IMAGING DEVICE, IMAGING SYSTEM, SIGNAL PROCESSING DEVICE, PROGRAM, AND STORAGE MEDIUM | |
US8144974B2 (en) | Image processing apparatus, method, and program | |
JP6415179B2 (en) | Image processing apparatus, image processing method, imaging apparatus, and control method thereof | |
US20240214668A1 (en) | Image processing device, image processing method, imaging device, and recording medium | |
JP2017188729A (en) | Information processing device, information processing method and program | |
JP2023115356A (en) | Measurement device, imaging device, control method, and program | |
US10084978B2 (en) | Image capturing apparatus and image processing apparatus | |
JP2013044597A (en) | Image processing device and method, and program | |
US10225537B2 (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
US10339665B2 (en) | Positional shift amount calculation apparatus and imaging apparatus | |
JP6362070B2 (en) | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium | |
JP2017194591A (en) | Distance measurement device, imaging apparatus, and distance measurement method | |
JP2013120435A (en) | Image processing apparatus and image processing method, and program | |
JP6755737B2 (en) | Distance measuring device, imaging device, and distance measuring method | |
WO2016056202A1 (en) | Image processing apparatus, image processing method, and program | |
JP7373297B2 (en) | Image processing device, image processing method and program | |
JP2005216191A (en) | Stereo image processing apparatus and method | |
JP6907040B2 (en) | Image processing equipment, imaging equipment, lens equipment, image processing methods, programs, and storage media | |
US11143504B2 (en) | Image capture device and image capture system | |
JP2023132730A (en) | Image processing device and image processing method | |
JP6292947B2 (en) | Image processing apparatus, image processing method, and program | |
CN112866550A (en) | Phase difference acquisition method and apparatus, electronic device, and computer-readable storage medium |