JP2017188729A - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP2017188729A
JP2017188729A JP2016074505A JP2016074505A JP2017188729A JP 2017188729 A JP2017188729 A JP 2017188729A JP 2016074505 A JP2016074505 A JP 2016074505A JP 2016074505 A JP2016074505 A JP 2016074505A JP 2017188729 A JP2017188729 A JP 2017188729A
Authority
JP
Japan
Prior art keywords
light field
field data
adjustment parameter
information processing
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016074505A
Other languages
Japanese (ja)
Inventor
達朗 小泉
Tatsuro Koizumi
達朗 小泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016074505A priority Critical patent/JP2017188729A/en
Publication of JP2017188729A publication Critical patent/JP2017188729A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable chromatic aberration to be properly corrected for acquired light field data even when a lens to be used upon acquiring the light field data is an unknown lens.SOLUTION: An information processing device comprises: acquisition means for acquiring light field data; separation means for separating the light field data for each of a plurality of channels having different wavelength; derivation means for deriving an adjustment parameter for matching the positions and angles of light beams recorded in each light field data from a correspondence relation between a plurality of pieces of light field data obtained by separation; and adjustment means for adjusting the position and angle of a light beam recorded in at least one piece of light field data of the plurality of pieces of light field data on the basis of the adjustment parameter derived by the derivation means.SELECTED DRAWING: Figure 13

Description

本発明は、ライトフィールドデータの色収差の補正に関する。   The present invention relates to correction of chromatic aberration in light field data.

近年、光学系に新たな光学素子を追加することで、光線の角度と強度の情報(ライトフィールドデータ)を取得し、後で画像処理によってピント位置を調節すること(リフォーカス)が可能なコンピュテーショナルフォトグラフィという技術が発展している。   In recent years, by adding a new optical element to the optical system, it is possible to obtain information on the angle and intensity of light (light field data), and to adjust the focus position by image processing (refocus) later. A technology called “tational photography” has been developed.

この技術を用いれば、撮像後にピント調整を行えるため、撮像時のピント調整の失敗を画像処理で補うことができるという利点がある。さらに、画像処理の方法を変えることで画像中の任意の被写体にピントを合わせた複数の画像を一枚の撮像画像から得る事ができ、撮像回数を減らす事ができるという利点もある。   If this technique is used, since focus adjustment can be performed after imaging, there is an advantage that failure of focus adjustment during imaging can be compensated by image processing. Further, by changing the image processing method, it is possible to obtain a plurality of images focused on an arbitrary subject in the image from one captured image, and there is an advantage that the number of imaging can be reduced.

ライトフィールドデータを取得する装置としては、光学系と撮像素子とによって構成されたデジタルカメラの撮像素子近傍に、マイクロレンズアレイを配置したプレノプティックカメラなどがある。通常のデジタルカメラにおいてはレンズの色収差による画質の劣化が問題となるが、プレノプティックカメラにおいても同様である。プレノプティクカメラにおいて色収差を低減する方法としては、事前に求めた収差の特性に基づき画像生成時に補正を行う方法が開示されている(特許文献1)。   As an apparatus for acquiring light field data, there is a plenoptic camera in which a microlens array is arranged in the vicinity of an image sensor of a digital camera constituted by an optical system and an image sensor. In ordinary digital cameras, degradation of image quality due to chromatic aberration of the lens becomes a problem, but the same applies to plenoptic cameras. As a method for reducing chromatic aberration in a plenoptic camera, a method is disclosed in which correction is performed at the time of image generation based on aberration characteristics obtained in advance (Patent Document 1).

特表2008−515110号公報Special table 2008-515110 gazette

しかし、特許文献1に開示されている方法は、ライトフィールドデータを取得する際に使用する、レンズの設計情報や計測結果に基づき、事前に収差の特性を求める必要がある。そのため、プレノプティックカメラなど、ライトフィールドデータを取得する撮像装置においてレンズ交換などにより未知のレンズを使用することとなった場合には、特許文献1に開示されている方法では、色収差の補正を適切に行うことができない。   However, the method disclosed in Patent Document 1 needs to obtain aberration characteristics in advance based on lens design information and measurement results used when acquiring light field data. Therefore, when an unknown lens is used by exchanging lenses in an imaging apparatus that acquires light field data, such as a plenoptic camera, the method disclosed in Patent Document 1 corrects chromatic aberration. Cannot be done properly.

本発明による情報処理装置は、ライトフィールドデータを取得する取得手段と、波長が異なる複数のチャネルごとにライトフィールドデータを分離する分離手段と、分離して得られた複数のライトフィールドデータ間の対応関係から、各ライトフィールドデータに記録された光線の位置と角度とを互いに一致させるための調整パラメータを導出する導出手段と、導出手段が導出した調整パラメータに基づき、複数のライトフィールドデータのうち少なくとも1つのライトフィールドデータに記録された光線の位置と角度とを調整する調整手段と、を備えることを特徴とする。   An information processing apparatus according to the present invention includes an acquisition unit that acquires light field data, a separation unit that separates light field data for each of a plurality of channels having different wavelengths, and correspondence between the plurality of light field data obtained by separation. From the relationship, a derivation means for deriving an adjustment parameter for making the position and angle of the light beam recorded in each light field data coincide with each other, and based on the adjustment parameter derived by the derivation means, at least of the plurality of light field data Adjusting means for adjusting the position and angle of the light beam recorded in one light field data.

本発明によれば、ライトフィールドデータを取得する際に使用するレンズが未知のレンズである場合でも、取得されたライトフィールドデータに対して色収差の補正を適切に行うことができる。   According to the present invention, even when a lens used when acquiring light field data is an unknown lens, chromatic aberration can be appropriately corrected for the acquired light field data.

第1の実施形態の撮像装置の構成の一例を示すブロック図である。It is a block diagram showing an example of composition of an imaging device of a 1st embodiment. 撮像部の構成の一例を示す図である。It is a figure which shows an example of a structure of an imaging part. 第1の実施形態における光学系の一例を模式的に示す図である。It is a figure which shows typically an example of the optical system in 1st Embodiment. ライトフィールドデータの表現方法を説明するための図である。It is a figure for demonstrating the expression method of light field data. 空間中の光線の伝播とレンズによる屈折とを説明するための図である。It is a figure for demonstrating propagation of the light ray in space, and refraction by a lens. 光学系を通って伝播する光線のライトフィールドの一例を示す図である。It is a figure which shows an example of the light field of the light ray which propagates through an optical system. 被写体と光学系の一例を示す図である。It is a figure which shows an example of a to-be-photographed object and an optical system. 光線の伝播に従ってライトフィールドデータが変化する様子を模式的に示す図である。It is a figure which shows typically a mode that light field data change according to propagation of a light ray. 色収差を説明するための図である。It is a figure for demonstrating chromatic aberration. ライトフィールドにおける色収差によるずれを説明するための図である。It is a figure for demonstrating the shift | offset | difference by the chromatic aberration in a light field. 第1の実施形態の撮像装置のソフトウェア構成の一例を示すブロック図である。3 is a block diagram illustrating an example of a software configuration of the imaging apparatus according to the first embodiment. FIG. ライトフィールドデータ上の平面が検出される過程を示す図である。It is a figure which shows the process in which the plane on light field data is detected. 第1の実施形態の撮像装置の処理の流れの一例を示すフローチャートである。3 is a flowchart illustrating an example of a processing flow of the imaging apparatus according to the first embodiment. 第2の実施形態の撮像装置のソフトウェア構成の一例を表すブロック図である。It is a block diagram showing an example of the software configuration of the imaging device of the second embodiment. 第2の実施形態の撮像装置の処理の流れの一例を示すフローチャートである。10 is a flowchart illustrating an example of a processing flow of the imaging apparatus according to the second embodiment.

[実施形態1]
<撮像装置の全体構成>
図1は、第1の実施形態の情報処理装置(以下、撮像装置ともいう)の構成の一例を示すブロック図である。
本実施形態の撮像装置は、図1に示すように、CPU101、ROM102、RAM103、操作部104、表示制御部105、メディアインターフェス(以下、メディアI/F)107、キャラクタジェネレーション109、エンコーダ部111、デジタル信号処理部112、および撮像部113を備える。なお、撮像部113は、撮像装置の外部に設置されていてもよい。
[Embodiment 1]
<Overall configuration of imaging device>
FIG. 1 is a block diagram illustrating an example of a configuration of an information processing apparatus (hereinafter also referred to as an imaging apparatus) according to the first embodiment.
As illustrated in FIG. 1, the imaging apparatus according to the present embodiment includes a CPU 101, a ROM 102, a RAM 103, an operation unit 104, a display control unit 105, a media interface (hereinafter, media I / F) 107, a character generation 109, and an encoder unit 111. A digital signal processing unit 112 and an imaging unit 113. Note that the imaging unit 113 may be installed outside the imaging apparatus.

撮像部113は、例えばプレノプティックカメラであり、光学系と撮像素子により、ライトフィールドデータを取得する。撮像部113の詳細は後述する。   The imaging unit 113 is, for example, a plenoptic camera, and acquires light field data using an optical system and an imaging device. Details of the imaging unit 113 will be described later.

CPU101は、ROM102やRAM103に格納された命令を順に読み込み、解釈し、その結果に従って処理を実行する。また、ROM102とRAM103は、処理を実行するために必要なプログラム、データ、作業領域などをCPU101に提供する。   The CPU 101 sequentially reads and interprets instructions stored in the ROM 102 and RAM 103 and executes processing according to the result. In addition, the ROM 102 and the RAM 103 provide the CPU 101 with programs, data, work areas, and the like necessary for executing processing.

バス110は、各構成要素が互いにデータや処理の指示をやり取りするための経路として機能する。   The bus 110 functions as a path for each component to exchange data and processing instructions with each other.

操作部104は、ボタンやモードダイヤルなどが該当し、これらを介して入力されたユーザ指示を受け取る。   The operation unit 104 corresponds to a button, a mode dial, and the like, and receives a user instruction input via these buttons.

キャラクタジェネレーション109は、文字データやグラフィックデータなどを生成する。   The character generation 109 generates character data, graphic data, and the like.

表示部106は、例えば液晶ディスプレイであり、キャラクタジェネレーション109や表示制御部105から受け取った撮像画像データや文字データの表示を行う。また、表示部106は、タッチスクリーン機能を有していても良い。その場合は、表示部106を介して入力されたユーザ指示を操作部104が受け取ることも可能である。   The display unit 106 is, for example, a liquid crystal display, and displays captured image data and character data received from the character generation 109 and the display control unit 105. Further, the display unit 106 may have a touch screen function. In this case, the operation unit 104 can receive a user instruction input via the display unit 106.

デジタル信号処理部112は、撮像部113により取得された画像データの輝度値の調整や欠陥画素の補間などを行う。これらの処理は後述する画像処理(図12に示すフロー)の前に行われる。   The digital signal processing unit 112 adjusts the luminance value of the image data acquired by the imaging unit 113 and interpolates defective pixels. These processes are performed before image processing (the flow shown in FIG. 12) described later.

エンコーダ部111は、上記画像処理における色収差補正処理の結果、生成されたライトフィールドデータのエンコード処理を行う。   The encoder unit 111 encodes the light field data generated as a result of the chromatic aberration correction processing in the image processing.

メディアI/F107は、メディア(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)108とバス110とをつなぐためのインターフェースである。メディアI/F107を介してエンコーダ部111でエンコードされたライトフィールドデータの出力が行われる。なお、メディアI/F107には、メディア108の他に、PC(パーソナルコンピュータ)などが接続されても良い。   The media I / F 107 is an interface for connecting the medium (for example, hard disk, memory card, CF card, SD card, USB memory) 108 and the bus 110. Light field data encoded by the encoder 111 is output via the media I / F 107. In addition to the medium 108, a PC (personal computer) or the like may be connected to the media I / F 107.

なお、装置の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。   In addition, although the component of an apparatus exists besides the above, since it is not the main point of this invention, description is abbreviate | omitted.

<撮像部の構成>
図2は、撮像部113の構成の一例を示す図である。図2を用いて撮像部113の構成を説明する。
<Configuration of imaging unit>
FIG. 2 is a diagram illustrating an example of the configuration of the imaging unit 113. The configuration of the imaging unit 113 will be described with reference to FIG.

レンズ201及びレンズ202は結像光学系を構成する。被写体から発せられた光線は該結像光学系により、絞り203、シャッタ204を通過した後に、複数のマイクロレンズを含むマイクロレンズアレイ205(以下、単にマイクロレンズ205と記す)に結像される。さらにマイクロレンズ205で屈折された光線は、IRカットフィルタ206、ローパスフィルタ207、カラーフィルタ208を通過した後に撮像素子209に到達する。本実施形態ではカラーフィルタとしてRGBの三色を用いてカラー画像を取得する。   The lens 201 and the lens 202 constitute an imaging optical system. The light emitted from the subject passes through the diaphragm 203 and the shutter 204 by the imaging optical system, and then forms an image on a microlens array 205 including a plurality of microlenses (hereinafter simply referred to as a microlens 205). Further, the light beam refracted by the micro lens 205 passes through the IR cut filter 206, the low pass filter 207, and the color filter 208 and then reaches the image sensor 209. In this embodiment, a color image is acquired using three colors of RGB as a color filter.

撮像素子209とA/D変換部210は、CMOSイメージセンサなどのイメージセンサに相当する。撮像素子209は2次元の格子状に配列され、入射した光線を電気信号に変換する。A/D変換部210は電気信号に変換された光線の情報をデジタル信号に変換する。   The image sensor 209 and the A / D converter 210 correspond to an image sensor such as a CMOS image sensor. The image sensor 209 is arranged in a two-dimensional lattice and converts incident light rays into an electrical signal. The A / D conversion unit 210 converts the information on the light beam converted into an electric signal into a digital signal.

制御部212は、バス110を介して入力されるCPU101の指示に従い、撮像素子209とシャッタ204を制御して撮像を実施する。また制御部212は、レンズ201及びレンズ202を制御して、ピント位置と焦点距離をユーザが指定した状態へと変更する。また制御部212は、絞り203を制御して開口を、ユーザが指定した状態へと変更する。   The control unit 212 performs imaging by controlling the image sensor 209 and the shutter 204 in accordance with an instruction of the CPU 101 input via the bus 110. Further, the control unit 212 controls the lens 201 and the lens 202 to change the focus position and the focal length to a state designated by the user. In addition, the control unit 212 controls the diaphragm 203 to change the aperture to a state designated by the user.

デジタル信号に変換された像の情報はバッファ211内に格納され、ライトフィールドデータとなる。ライトフィールドデータはバス110を介して、CPU101に送られる。   Image information converted into a digital signal is stored in the buffer 211 and becomes light field data. The light field data is sent to the CPU 101 via the bus 110.

図3は、第1の実施形態における光学系の一例を模式的に示す図である。図3(a)に示すように、光学系は主レンズ300として、レンズ201及びレンズ202に相当する1つ以上のレンズで構成された厚肉凸レンズを有し、さらに、その焦点上にマイクロレンズアレイ301(以下、単にマイクロレンズ301と記す)を有する。マイクロレンズ301の焦点上には、図3(b)に示すように、撮像素子302が設置されている。撮像素子302の画素位置から特定される、入射した光線が通過したマイクロレンズの位置と、マイクロレンズに入射した角度とにより、ライトフィールドデータが得られる。なお、主レンズ300の焦点上にマイクロレンズ301を設置するのは、主レンズ300のピントを無限遠方に合わせる場合である。ピント調整によってマイクロレンズ301及び撮像素子302と主レンズ300との相対位置を変化させても構わない。   FIG. 3 is a diagram schematically illustrating an example of the optical system according to the first embodiment. As shown in FIG. 3A, the optical system has, as the main lens 300, a thick convex lens composed of one or more lenses corresponding to the lens 201 and the lens 202, and a microlens on the focal point thereof. An array 301 (hereinafter simply referred to as a microlens 301) is included. On the focal point of the microlens 301, as shown in FIG. Light field data is obtained from the position of the microlens through which the incident light beam is specified and the angle at which the light enters the microlens, which is specified from the pixel position of the image sensor 302. The micro lens 301 is installed on the focal point of the main lens 300 when the main lens 300 is focused at infinity. You may change the relative position of the microlens 301 and the image pick-up element 302, and the main lens 300 by focus adjustment.

なお、ここで示した撮像部の構成は、説明のために単純化した例であり、色収差を有する光学系を通して、複数の波長の光に対するライトフィールドを取得する機能を有すればどのような構成でもかまわない。   Note that the configuration of the imaging unit shown here is a simplified example for explanation, and any configuration having a function of acquiring a light field for light of a plurality of wavelengths through an optical system having chromatic aberration. But it doesn't matter.

<ライトフィールドの表現方法>
本実施形態の説明に用いるライトフィールドの表現方法について述べる。図4は、ライトフィールドの表現方法を説明するための図である。なお、本実施形態では近軸近似を前提として議論を進める。本実施形態では図4(a)に示すように、光学系の光軸がz方向にあるものとする。そして、z座標が一定の値である面を通過する光線を、その通過点の位置(x,y)と光線の傾き(u,v)を用いた4次元座標で表現する。なお、uは光線のx方向の傾きを表し、vは光線のy方向の傾きを表す。図4(b)には、実空間のxz平面上に3つの光線A、B、Cが示されている。図4(b)に示すように、光線の傾きはu=Δx/Δzで表される。図4(c)は、光線A、B、Cをライトフィールド空間のxu平面上(z=0)に示した図である。AとBは傾きが同じであるため、u座標が等しくなる。一方、BとCはz=0平面の通過位置が同じであるため、x座標が等しくなる。
<Expression method of light field>
A light field expression method used in the description of this embodiment will be described. FIG. 4 is a diagram for explaining a light field expression method. In the present embodiment, the discussion proceeds on the assumption of paraxial approximation. In this embodiment, it is assumed that the optical axis of the optical system is in the z direction as shown in FIG. A light ray passing through a surface having a constant z coordinate is expressed by four-dimensional coordinates using the position (x, y) of the passing point and the inclination (u, v) of the light ray. Note that u represents the inclination of the light beam in the x direction, and v represents the inclination of the light beam in the y direction. FIG. 4B shows three light rays A, B, and C on the xz plane in real space. As shown in FIG. 4B, the inclination of the light beam is represented by u = Δx / Δz. FIG. 4C is a diagram showing light rays A, B, and C on the xu plane (z = 0) in the light field space. Since A and B have the same inclination, u coordinates are equal. On the other hand, since B and C have the same passing position on the z = 0 plane, their x coordinates are equal.

次に、光線が空間中の伝播とレンズによる屈折とによって、ライトフィールド空間においてどのように変化するかを説明する。ここでは便宜上ライトフィールドを位置xと傾きuの2次元で考える。図5は、空間中の光線の伝播とレンズによる屈折とを説明するための図である。図5(a)は実空間中を伝播する光線をxz平面上に示した図である。ここで、z=z0における光線のライトフィールド座標を(x0,u0)とし、z=z1における光線のライトフィールド座標を(x1,u1)とする。光線は直進することから、z=z0とz=z1におけるライトフィールド座標の関係は式1のようになる。 Next, how the light ray changes in the light field space due to propagation in the space and refraction by the lens will be described. Here, for the sake of convenience, the light field is considered in two dimensions, position x and inclination u. FIG. 5 is a diagram for explaining propagation of light in space and refraction by a lens. FIG. 5A is a diagram showing light rays propagating in real space on the xz plane. Here, the light field coordinates of the light beam at z = z 0 are (x 0 , u 0 ), and the light field coordinates of the light beam at z = z 1 are (x 1 , u 1 ). Since the light beam goes straight, the relationship between the light field coordinates at z = z 0 and z = z 1 is as shown in Equation 1.

Figure 2017188729
Figure 2017188729

また、図5(b)はレンズにより屈折する光線をxz平面上に示した図である。ここで、z=z0における屈折前の光線のライトフィールド座標を(x0,u0)とし、屈折後の光線のライトフィールド座標を(x1,u1)とする。光学系の性質から焦点距離fを用いて、屈折前と屈折後のライトフィールド座標の関係は式2で示される。 FIG. 5B is a diagram showing light rays refracted by the lens on the xz plane. Here, the light field coordinates of the light beam before refraction at z = z 0 are (x 0 , u 0 ), and the light field coordinates of the light beam after refraction are (x 1 , u 1 ). The relationship between the light field coordinates before and after refraction using the focal length f due to the properties of the optical system is expressed by Equation 2.

Figure 2017188729
Figure 2017188729

なお、以上の関係は光線の位置yと傾きvについても同様に成り立つ。   The above relationship holds true for the position y and the inclination v of the light beam.

<伝播する光線のライトフィールドの例>
光学系を通って伝播する光線のライトフィールドの一例を、図6に示す。図6(a)は光線を実空間のxz平面上に示した図である。x=0の直線上に光軸があり、z=0の位置にレンズが置かれている。図6(a)では、光線A、B、C、Dがz=−3、x=±1の位置から射出されている。図6(b)には、光線A、B、C、Dが、z=−3からz=0に伝播し、屈折した後に、z=3に到達するときの、各光線のライトフィールド座標が示されている。z=−3における各光線のライトフィールド座標は、それぞれ(1,1),(1,−1),(−1,1),(−1,−1)である。各光線はレンズにより屈折された後に、z=3、x=±1の位置に到達する。空間中の伝播と屈折はそれぞれ式1や式2で表させるような、ライトフィールド座標上でのせん断となることがわかる。
<Example of light field of propagating light beam>
An example of a light field of rays propagating through the optical system is shown in FIG. FIG. 6A is a diagram showing light rays on the xz plane in real space. The optical axis is on the straight line of x = 0, and the lens is placed at the position of z = 0. In FIG. 6A, light rays A, B, C, and D are emitted from the positions where z = −3 and x = ± 1. FIG. 6B shows the light field coordinates of each ray when the rays A, B, C, and D reach z = 3 after propagating from z = -3 to z = 0 and being refracted. It is shown. The light field coordinates of each ray at z = -3 are (1, 1), (1, -1), (-1, 1), and (-1, -1), respectively. After each light beam is refracted by the lens, it reaches a position where z = 3 and x = ± 1. It can be seen that propagation and refraction in the space are shear on the light field coordinates as expressed by Equation 1 and Equation 2, respectively.

図7は、被写体と光学系の一例を示す図である。z=z0,z1,z2に置かれた被写体701,702,703から発せられた光線が、z=z3に置かれたレンズ704を通り、z=z4に置かれたマイクロレンズアレイ705(以下、単にマイクロレンズ705と記す)に達する。そして、各被写体から発せられた光線が、撮像素子706によりライトフィールドデータとして記録される。図8は、図7に示す例において光線の伝播に従ってライトフィールドが変化する様子を模式的に示す図である。まず、z=z0では被写体701の色を反映して、ライトフィールドは全面が黒である。なお、図8の左上、中央上、右上、左下および中央下の図には、z=z0〜z3のそれぞれの位置において仮に記録できたとした場合におけるライトフィールドデータが示されている。z=z1では被写体702から発せられた光線がライトフィールドに加わる。この時、被写体701から発せられた光線のうち、被写体702に重なる部分はオクルージョンにより遮蔽される。z=z0では、伝播により被写体701,702から発せられた光線のライトフィールドは式1に示すようなせん断変換を受け、その上に被写体703から発せられた光線のライトフィールドが重畳される。z=z3では、伝播により全ての被写体から発せられた光線のライトフィールドがさらなるせん断変換を受ける。z=z3で屈折が起こると、ライトフィールドは式2に示すようなせん断変換を受ける。z=z3からz=z4までの伝播で、再度、ライトフィールドは式1のようなせん断変換を受ける。その結果、図8の右下の図に示すようなライトフィールドがマイクロレンズ705と撮像素子706とによって記録される。なお、図8の右下の図には、z=z2に焦点を合わせた状態で記録されたライトフィールドが示されている。 FIG. 7 is a diagram illustrating an example of a subject and an optical system. Light rays emitted from subjects 701, 702, and 703 placed at z = z 0 , z 1 , and z 2 pass through a lens 704 placed at z = z 3 , and a microlens placed at z = z 4 It reaches an array 705 (hereinafter simply referred to as a microlens 705). Light rays emitted from each subject are recorded as light field data by the image sensor 706. FIG. 8 is a diagram schematically showing how the light field changes in accordance with the propagation of light rays in the example shown in FIG. First, at z = z 0 , the light field is entirely black reflecting the color of the subject 701. In the upper left, upper center, upper right, lower left, and lower center of FIG. 8, light field data is shown when recording is possible at each position of z = z 0 to z 3 . When z = z 1 , a light beam emitted from the subject 702 is added to the light field. At this time, the portion of the light beam emitted from the subject 701 that overlaps the subject 702 is shielded by occlusion. When z = z 0 , the light field of light rays emitted from the subjects 701 and 702 by propagation undergoes shear transformation as shown in Equation 1, and the light field of light rays emitted from the subject 703 is superimposed thereon. At z = z 3 , the light field of rays emitted from all objects by propagation undergoes further shear transformation. When refraction occurs at z = z 3 , the light field undergoes a shear transformation as shown in Equation 2. With propagation from z = z 3 to z = z 4 , the light field again undergoes a shear transformation as in Equation 1. As a result, a light field as shown in the lower right diagram of FIG. 8 is recorded by the microlens 705 and the image sensor 706. Note that the lower right diagram of FIG. 8 shows a light field recorded with z = z 2 in focus.

<ライトフィールドにおける色収差>
ガラスのように屈折率に分散を有する物質で光学系を構成すると、光の波長すなわち色によって光学系の特性が変化する。この現象により図9に示すように、焦点距離や主平面の位置が波長毎に変化することになる。図9は、色収差を説明するための図である。図9では被写体から発せられて空間を伝播する光線Lが、分散を有する光学系902により屈折された結果、緑の光線LGと青の光線LBとに分離されている。そして、緑の光線LGと青の光線LBとは互いにずれている。ここで、平面903はLBの波長に対する物体側主平面である。平面904はLGの波長に対する物体側主平面である。また、平面905はLBの波長に対する像側主平面である。平面906は、LGの波長に対する像側主平面である。LGとLBとがずれるように、光学系の波長分散により結像する位置がずれることを色収差と呼ぶ。図10は、ライトフィールドにおける色収差によるずれを説明するための図である。図10(a)には、マイクロレンズ907と撮像素子908とによって記録される、LGのライトフィールドデータが示されている。図10(b)には、マイクロレンズ907と撮像素子908とによって記録される、LBのライトフィールドデータが示されている。図10に示すように、LGとLBとは互いにずれている。本実施形態における撮像装置は、このような色収差によるずれが無くなるように、ライトフィールドデータを補正する。例えば、撮像装置は、図10に示す例において、LGとLBとが重なるように、LGとLBの少なくとも一方のライトフィールドデータを調整する。本実施形態では、LGを基準としてLBのライトフィールドデータを調整する。このような調整は、マイクロレンズ907に到達したLBをLBの波長に対する特性で物体側空間上の面901まで戻し、再びLBをLGの波長に対する特性でマイクロレンズ907に伝播させることに等しい。したがって、このような調整は、式1,式2による変換とその逆変換とを組み合わせることで行うことができる。よって、LGの波長のライトフィールドデータ上の点の座標を(xG,uG)とし、LBの波長のライトフィールドデータ上の点の座標を(xB,uB)とするならば、その間の対応関係は式3に示すような線形変換で表すことができる。
<Chromatic aberration in the light field>
When an optical system is composed of a material having a refractive index dispersion such as glass, the characteristics of the optical system change depending on the wavelength of light, that is, the color. Due to this phenomenon, as shown in FIG. 9, the focal length and the position of the main plane change for each wavelength. FIG. 9 is a diagram for explaining chromatic aberration. Light L which is emitted from the object 9 to propagate space, results refracted by an optical system 902 having distributed, is separated into a light beam L B of the green light L G and blue. Then, they are offset from one another and the light beam L B of the green light L G and blue. Here, the plane 903 is an object-side principal plane to the wavelength of L B. Plane 904 is the object side principal plane to the wavelength of L G. The planar 905 is the image side principal plane to the wavelength of L B. Plane 906, an image-side principal plane to the wavelength of L G. The shift of the image forming position due to the wavelength dispersion of the optical system so that L G and L B are shifted is called chromatic aberration. FIG. 10 is a diagram for explaining a shift due to chromatic aberration in the light field. In FIG. 10 (a), is recorded by the microlens 907 and the image sensor 908, light field data L G is shown. In FIG. 10 (b), are recorded by the microlens 907 and the image sensor 908, light field data L B is shown. As shown in FIG. 10, are offset from one another and L G and L B. The imaging apparatus according to the present embodiment corrects the light field data so that such a shift due to chromatic aberration is eliminated. For example, imaging apparatus, in the example shown in FIG. 10, so as to overlap and the L G and L B, adjusting at least one of the light field data L G and L B. In the present embodiment adjusts the light field data L B based on the L G. Such adjustments, return the L B having reached the microlenses 907 to the surface 901 on the object side space characteristics for a wavelength of L B, be propagated again L B to the microlens 907 in characteristic to the wavelength of L G be equivalent to. Therefore, such adjustment can be performed by combining the conversion according to Expressions 1 and 2 and the inverse conversion thereof. Therefore, if the coordinates of the point on the light field data of the L G wavelength are (x G , u G ) and the coordinates of the point on the light field data of the L B wavelength are (x B , u B ), The correspondence between them can be expressed by linear transformation as shown in Equation 3.

Figure 2017188729
Figure 2017188729

また、(x,v)に対して垂直方向の光線の、位置yと傾きvについても同様の関係が成り立つ。そのため、LGの波長のライトフィールドデータ上の点の座標を(yG,vG)とし、LBの波長のライトフィールドデータ上の点の座標を(yB,vB)とすると、式4が成り立つ。 The same relationship holds for the position y and the inclination v of the light beam in the vertical direction with respect to (x, v). Therefore, when the coordinates of the point on the light field data of the L G wavelength are (y G , v G ) and the coordinates of the point on the light field data of the L B wavelength are (y B , v B ), 4 holds.

Figure 2017188729
Figure 2017188729

本実施形態では、各色のライトフィールドデータ間の対応から、このような線形変換を求めることで、色収差を補正する。   In this embodiment, chromatic aberration is corrected by obtaining such a linear conversion from the correspondence between the light field data of each color.

<画像処理部の構成と処理>
図11は、第1の実施形態の撮像装置のソフトウェア構成の一例を示すブロック図である。図11を用いて撮像装置のソフトウェア構成を説明する。
<Configuration and processing of image processing unit>
FIG. 11 is a block diagram illustrating an example of a software configuration of the imaging apparatus according to the first embodiment. A software configuration of the imaging apparatus will be described with reference to FIG.

本実施形態の撮像装置は、チャネル分離部1101、画像生成部1102、特徴点検出部1103、特徴量算出部1104、平面検出部1105、対応探索部1106、調整パラメータ導出部1107、ライトフィールドデータ調整部1108、およびチャネル統合部1109を含む。なお、本実施例では、CPU101が、ROM102が記憶するプログラムをRAM103にロードし、ロードしたプログラムを実行することによって、図11に示す各部が機能する。   The imaging apparatus of this embodiment includes a channel separation unit 1101, an image generation unit 1102, a feature point detection unit 1103, a feature amount calculation unit 1104, a plane detection unit 1105, a correspondence search unit 1106, an adjustment parameter derivation unit 1107, and light field data adjustment. Part 1108 and a channel integration part 1109. In this embodiment, the CPU 101 loads the program stored in the ROM 102 into the RAM 103 and executes the loaded program, so that each unit shown in FIG. 11 functions.

チャネル分離部1101は、ライトフィールドデータを、バス110を介して取得し、各色のチャネルに分離する。なお、取得したライトフィールドデータはあらかじめ、撮像部113の設計情報や構成情報を元に、マイクロレンズ205上でのライトフィールド座標に合わせて変換されているものとする。   The channel separation unit 1101 acquires light field data via the bus 110 and separates it into channels of each color. It is assumed that the acquired light field data is converted in advance according to the light field coordinates on the microlens 205 based on the design information and configuration information of the imaging unit 113.

画像生成部1102は、色チャネル毎に分離されたライトフィールドデータから、u=0,v=0の面を切り出してxy平面に沿った2次元画像データを生成する。図12は、ライトフィールドデータ上の平面が検出される過程を示す図である。なお、図12では、便宜上ライトフィールドデータを位置xと傾きuの2次元で表している。図12(a)には、ライトフィールドデータのxu平面に対して、画像生成部1102が生成した画像データによって示される領域が黒色の矩形で示されている。   The image generation unit 1102 generates the two-dimensional image data along the xy plane by cutting out the plane of u = 0 and v = 0 from the light field data separated for each color channel. FIG. 12 is a diagram illustrating a process of detecting a plane on the light field data. In FIG. 12, the light field data is represented in two dimensions of position x and inclination u for convenience. In FIG. 12A, a region indicated by the image data generated by the image generation unit 1102 is indicated by a black rectangle with respect to the xu plane of the light field data.

特徴点検出部1103は、画像生成部1102で生成された画像データから、Harrisコーナー検出などを用いて特徴点を抽出する。図12(b)には、ライトフィールドデータのxu平面に対して、検出された特徴点の例が黒色の矩形で示されている。なお、本実施形態では特徴点抽出方法としてHarrisコーナー検出を用いたが、DoG(Difference of Gaussian)やFAST(Features from Accelerated Segment Test)など特徴点を検出できるならばどのような方法を用いても構わない。   The feature point detection unit 1103 extracts feature points from the image data generated by the image generation unit 1102 using Harris corner detection or the like. In FIG. 12B, examples of detected feature points are indicated by black rectangles with respect to the xu plane of the light field data. In this embodiment, Harris corner detection is used as a feature point extraction method. However, any method can be used as long as it can detect feature points such as DoG (Difference of Gaussian) and FAST (Features from Accelerated Segment Test). I do not care.

特徴量算出部1104は、特徴点検出部1103が検出した各特徴点を識別するための特徴量を、画像生成部1102が生成した画像データに基づいて算出する。本実施形態では、特徴量算出部1104は、特徴点の周囲のブロックの画素値を用いて、特徴量を算出する。   The feature amount calculation unit 1104 calculates a feature amount for identifying each feature point detected by the feature point detection unit 1103 based on the image data generated by the image generation unit 1102. In the present embodiment, the feature amount calculation unit 1104 calculates a feature amount using pixel values of blocks around the feature point.

平面検出部1105は、特徴点検出部1103が検出した各特徴点を通るライトフィールドデータ上の平面を検出する。ここで、ライトフィールドデータ上の平面とは、被写体上の同一点から射出された光線群が成す、2次元の線形部分空間のことである。この平面の近傍におけるxy平面上の値の分布は、被写体上の同一点から発せられた光線の強度が光線の角度に対して緩やかに変化する性質を反映して、異なる(u,v)においても似たパターンとなる。従って、ライトフィールドデータ上の平面の検出は、特徴点の検出を行ったu=0,v=0のxy平面上の特徴点近傍でブロックを作り、このブロックとの差分二乗和が最小となる位置(x,y)を、異なる(u,v)のxy平面上で探索することで行う。なお、平面検出部1105がu≠0,v≠0のxy平面上で探索を行う場合には、画像生成部1102が、ライトフィールドデータから、u≠0,v≠0の面を切り出してxy平面に沿った2次元画像データを生成する。そして、平面検出部1105は、当該2次元画像データによって示される領域(探索範囲)に対して上記探索を行う。図12(c)には、探索に用いるブロックの例が黒い矩形で示されている。また、図12(d)には、探索範囲の例が黒い矩形で示されている。(u,v)=(un,vm)となるxy平面上において、(x,y)=(xn,ym)となる位置で差分二乗和が最小となるとき、平面(ライトフィールドデータ上の平面)を拘束する情報として式5に示す関係が得られる。 The plane detection unit 1105 detects a plane on the light field data passing through each feature point detected by the feature point detection unit 1103. Here, the plane on the light field data is a two-dimensional linear subspace formed by a group of rays emitted from the same point on the subject. The distribution of values on the xy plane in the vicinity of this plane is different at (u, v), reflecting the property that the intensity of light rays emitted from the same point on the subject changes gently with respect to the angle of the light rays. Is a similar pattern. Therefore, the detection of the plane on the light field data creates a block in the vicinity of the feature point on the xy plane where u = 0 and v = 0 where the feature point is detected, and the sum of squares of differences with this block is minimized. The position (x, y) is searched for on a different (u, v) xy plane. When the plane detection unit 1105 performs a search on the xy plane where u ≠ 0 and v ≠ 0, the image generation unit 1102 cuts out a plane where u ≠ 0 and v ≠ 0 from the light field data, and xy. Two-dimensional image data along a plane is generated. Then, the plane detection unit 1105 performs the search for the region (search range) indicated by the two-dimensional image data. In FIG. 12C, an example of a block used for searching is indicated by a black rectangle. Further, in FIG. 12D, an example of the search range is indicated by a black rectangle. On the xy plane where (u, v) = (u n , v m ), when the sum of squared differences is minimum at a position where (x, y) = (x n , y m ), the plane (light field The relationship shown in Equation 5 is obtained as information for constraining the plane on the data.

Figure 2017188729
Figure 2017188729

これを式6で表されるような複数の(un,vm)に対して求める。なお、式6におけるNは、u方向におけるサンプリング数の総数である。Mは、v方向におけるサンプリング数の総数である。 This is obtained for a plurality of (u n , v m ) as expressed by Equation 6. Note that N in Equation 6 is the total number of samplings in the u direction. M is the total number of samplings in the v direction.

Figure 2017188729
Figure 2017188729

図12(e)には探索で得られた複数のxとuとの関係が黒い矩形で示されている。 (X,Y)の位置から(U,V)の方向に発せられた光線は、ライトフィールドデータ上の点(x,y,u,v)に記録されるまでに式7のような変換を受ける。a,b,c,dは定数である。なお、式7は、光軸がレンズ(レンズ201,202)の中心にあることを前提とした場合における変換式である。   In FIG. 12E, the relationship between a plurality of x and u obtained by the search is indicated by a black rectangle. Rays emitted in the direction of (U, V) from the position (X, Y) are converted as shown in Equation 7 before being recorded at the point (x, y, u, v) on the light field data. receive. a, b, c, and d are constants. Expression 7 is a conversion expression when it is assumed that the optical axis is at the center of the lens (lenses 201 and 202).

Figure 2017188729
Figure 2017188729

式7は、任意の方向(U,V)に対して成り立つと見なすならば、被写体上の同一点から発せられた光線群が成す線形部分区間、すなわちライトフィールドデータ上の平面を表している。ある被写体上の位置(X,Y)から任意の方向(U,V)に向けて射出された光線群が満たすべき(x,y,u,v)の拘束条件は、式7からU,Vを消去して、式8,9として求まる。 Equation 7 represents a linear subsection formed by a group of light rays emitted from the same point on the subject, that is, a plane on the light field data, if it is assumed that it holds for an arbitrary direction (U, V). The constraint condition of (x, y, u, v) that should be satisfied by the light ray group emitted in an arbitrary direction (U, V) from the position (X, Y) on a certain subject is expressed by U, V from Equation 7. And are obtained as equations 8 and 9.

Figure 2017188729
Figure 2017188729

Figure 2017188729
Figure 2017188729

p=d,q=−b, r=(bc−ad)x´,s=(bc−ad)y´として、式8,9に示す拘束条件を整理すると、式10,11が得られる。 When p = d, q = −b, r = (bc−ad) x ′, and s = (bc−ad) y ′, the constraints shown in equations 8 and 9 are rearranged to obtain equations 10 and 11.

Figure 2017188729
Figure 2017188729

Figure 2017188729
Figure 2017188729

p,q,r,sがライトフィールドデータ上の平面を決定するパラメータである。平面検出部1105は、式5に示す関係を用いて式12を最小化するような最小二乗解として、p,q,r,sを求める。この時、平面検出部1105は、p,q,r,sが0とならないように式13に示すような拘束条件を用いる。 p, q, r, and s are parameters that determine the plane on the light field data. The plane detection unit 1105 obtains p, q, r, and s as a least-squares solution that minimizes Equation 12 using the relationship shown in Equation 5. At this time, the plane detection unit 1105 uses a constraint condition as shown in Expression 13 so that p, q, r, and s do not become zero.

Figure 2017188729
Figure 2017188729

Figure 2017188729
Figure 2017188729

最小二乗解は、式14で表される行列Fの最小固有値に対応する固有ベクトルとして求められる。図12(f)には、最小二乗法により求めた線形部分空間、すなわちライトフィールドデータ上の平面の例が実線で示されている。 The least square solution is obtained as an eigenvector corresponding to the minimum eigenvalue of the matrix F expressed by Equation 14. In FIG. 12F, an example of a linear subspace obtained by the least square method, that is, a plane on the light field data is shown by a solid line.

Figure 2017188729
Figure 2017188729

ただし、 However,

Figure 2017188729
Figure 2017188729

なお、本実施形態では式5の関係を全て用いた最小二乗解でライトフィールドデータ上の平面のパラメータを求めた。しかし、オクルージョンやビグネッティングよる線形部分空間の欠損や誤対応に対するロバスト性を高めるために、RANSACなどのロバスト推定を用いても構わない。また、本実施形態では差分二乗和が最小になるようブロック探索を行ってライトフィールドデータ上の平面の拘束条件を求めた。しかし、正規化相互相関に基づくブロック探索や、勾配法による探索など、他の方法で各色のライトフィールドデータ間の対応を求めても構わない。また、本実施形態ではxy平面上のブロックを基準とした対応探索によりライトフィールドデータ上の平面の拘束条件を求め、最小二乗法によりライトフィールドデータ上の平面のパラメータを求めた。しかし、ライトフィールドデータ上の平面を特定できるならばどのような方法でも構わない。例えば、異なるuv間でのxy平面における類似度を最大化するようライトフィールドデータ上の平面のパラメータを直接最適化する方法や、ハフ変換を4次元に拡張した方法でも構わない。   In the present embodiment, the plane parameters on the light field data are obtained by the least squares solution using all the relationships of Expression 5. However, robust estimation such as RANSAC may be used in order to improve robustness with respect to a loss or erroneous correspondence of a linear subspace due to occlusion or bignetting. In the present embodiment, the block search is performed so that the sum of squared differences is minimized, and the plane constraint condition on the light field data is obtained. However, the correspondence between the light field data of each color may be obtained by other methods such as block search based on normalized cross-correlation and search by gradient method. Further, in this embodiment, the constraint condition of the plane on the light field data is obtained by the correspondence search based on the block on the xy plane, and the plane parameter on the light field data is obtained by the least square method. However, any method may be used as long as the plane on the light field data can be specified. For example, a method of directly optimizing the plane parameters on the light field data so as to maximize the similarity on the xy plane between different uvs, or a method of expanding the Hough transform to four dimensions may be used.

対応探索部1106は、異なるチャネルのライトフィールドデータ間で特徴点に基づいて平面(ライトフィールドデータ上の平面)を対応付ける。対応付けは、基準となるチャネルの特徴点に対して、特徴量が最も類似している特徴点を異なるチャネルの特徴点から探索することで行われる。本実施形態では特徴量の類似度として正規化相互相関を用いる。また、一般的な光学系では色収差によるライトフィールドデータの変形はわずかなので、特徴点の距離や平面(ライトフィールドデータ上の平面)の距離で探索対象を限定する。本実施形態では基準となるチャネルをG成分とし、これに対してB成分とR成分のチャネルの特徴点をそれぞれ対応付ける。なお、本実施形態ではブロックの正規化相互相関によるマッチングを用いたが、SIFT(Scale−Invariant Feature Transform)特徴量によるマッチング、差分二乗和によるマッチング、幾何学的に近傍にある特徴点とのマッチングなどどのような方法を用いても構わない。   The correspondence search unit 1106 associates a plane (a plane on the light field data) between the light field data of different channels based on the feature points. The association is performed by searching for a feature point having the most similar feature amount with respect to a feature point of a reference channel from feature points of different channels. In the present embodiment, normalized cross-correlation is used as the similarity between feature quantities. Further, in a general optical system, the deformation of the light field data due to chromatic aberration is slight, so the search target is limited by the distance of the feature points and the distance of the plane (plane on the light field data). In this embodiment, the reference channel is the G component, and the B and R component channel feature points are associated with the reference channel. In this embodiment, matching based on normalized cross-correlation of blocks is used. However, matching based on SIFT (Scale-Invariant Feature Transform) features, matching based on the sum of squared differences, and matching with feature points that are geometrically nearby. Any method may be used.

調整パラメータ導出部1107は、対応探索部1106で対応付けた平面の関係に基づき、基準チャネルであるGチャネルと、他のチャネル(Bチャネル,Rチャネル)とについて、式3、式4で表されるようなライトフィールド上の座標の関係を求める。ここで、基準チャネル上の座標を(x,u)、他のチャネル上の座標を(x´,u´)として、式3、式4で表される関係を式15で表す。   The adjustment parameter derivation unit 1107 is expressed by Equations 3 and 4 for the G channel that is the reference channel and the other channels (B channel and R channel) based on the plane relationship associated by the correspondence search unit 1106. Find the relationship of coordinates on the light field. Here, assuming that the coordinates on the reference channel are (x, u) and the coordinates on the other channels are (x ′, u ′), the relationship expressed by Expression 3 and Expression 4 is expressed by Expression 15.

Figure 2017188729
Figure 2017188729

(x,u)と(x´,u´)はそれぞれ、被写体上の同一点から発せられた光線群が成す線形部分空間、すなわちライトフィールドデータ上の平面上に位置するので、それぞれ式16,17に示す拘束条件を満たす。なお、p´,q´,r´,s´は、他のチャネル(Bチャネル、Rチャネル)における線形部分空間を決定するパラメータである。 Since (x, u) and (x ′, u ′) are located on a linear subspace formed by a group of rays emitted from the same point on the subject, that is, on a plane on the light field data, respectively, 17 satisfies the constraint condition. Note that p ′, q ′, r ′, and s ′ are parameters that determine linear subspaces in other channels (B channel and R channel).

Figure 2017188729
Figure 2017188729

Figure 2017188729
Figure 2017188729

式15,16,17より、式18に示す条件が得られる。 From the equations 15, 16, and 17, the condition shown in the equation 18 is obtained.

Figure 2017188729
Figure 2017188729

本実施形態では式18に示す関係を用いて最小二乗法でh´,i´,j´,k´を算出する。算出されるh´,i´,j´,k´は、線形部分空間を表すパラメータ間の調整パラメータである。したがって、本実施形態ではさらに、式18に基づいてh´,i´,j´,k´から、ライトフィールド座標間の調整パラメータであるh,i,j,kを導出する。λは式16,17のスケールに関する不定性を反映して導入した任意のスカラーである。しがたって、調整パラメータ導出部1107は、h´,i´,j´,k´を算出するにあたって事前にλを消去する。本実施形態では式18の左辺がλになるよう各行を線形結合することで、λを求めて消去する。線形結合の係数をα、β、γとすると、式18の各行の線形結合は式19で表される。 In the present embodiment, h ′, i ′, j ′, and k ′ are calculated by the least square method using the relationship shown in Expression 18. The calculated h ′, i ′, j ′, and k ′ are adjustment parameters between parameters representing the linear subspace. Therefore, in the present embodiment, h, i, j, and k that are adjustment parameters between light field coordinates are derived from h ′, i ′, j ′, and k ′ based on Expression 18. λ is an arbitrary scalar introduced reflecting the indeterminacy regarding the scales of Equations 16 and 17. Therefore, the adjustment parameter deriving unit 1107 deletes λ in advance when calculating h ′, i ′, j ′, k ′. In this embodiment, each row is linearly combined so that the left side of Equation 18 is λ, and λ is obtained and deleted. When the linear combination coefficients are α, β, and γ, the linear combination of each row of Expression 18 is expressed by Expression 19.

Figure 2017188729
Figure 2017188729

式19の左辺をλとする係数の条件は式20で表される。 The condition of the coefficient in which the left side of Equation 19 is λ is expressed by Equation 20.

Figure 2017188729
Figure 2017188729

λを安定的に計算するために、式20を満たし、式21を最小にするα,β,γを求める。 In order to stably calculate λ, α, β, and γ that satisfy Equation 20 and minimize Equation 21 are obtained.

Figure 2017188729
Figure 2017188729

式20を用いて式21からγを消去し、αとβによる偏微分が0になるという条件で、式21を最小化する係数を求めると、式22が得られる。 When γ is eliminated from Expression 21 using Expression 20, and a coefficient for minimizing Expression 21 is obtained under the condition that the partial differentiation by α and β is 0, Expression 22 is obtained.

Figure 2017188729
Figure 2017188729

式19,22を式18に代入すると、式23が得られる。 Substituting Equations 19 and 22 into Equation 18 yields Equation 23.

Figure 2017188729
Figure 2017188729

ただし、 However,

Figure 2017188729
Figure 2017188729

また、ライトフィールド座標の(y,v)に関しても同様に導出することで、式24が得られる。   Further, by similarly deriving (y, v) of the light field coordinates, Expression 24 is obtained.

Figure 2017188729
Figure 2017188729

ただし、 However,

Figure 2017188729
Figure 2017188729

式23と式24との関係は、チャネル間のライトフィールドデータ上の平面の対応毎に得られるので、複数の対応を用いて最小二乗法でh´,i´,j´,k´を求める。ここで、N個の対応があり、n番目の平面(ライトフィールドデータ上の平面)を表すパラメータを、基準チャネルについてはpn,qn,rn,snと表現し、それ以外のチャネルについてはp´n,q´n,r´n,s´nと表現する。このとき、求めるべきh´,i´,j´,k´は式25で表される。なお、式25におけるNは、ステップS1204で検出される特徴点の総数を表す。 Since the relationship between Expression 23 and Expression 24 is obtained for each correspondence between planes on the light field data between channels, h ′, i ′, j ′, k ′ is obtained by the least square method using a plurality of correspondences. . Here, there are N corresponding, parameters representing n-th plane (light field data on the plane), for the reference channel is expressed as p n, q n, r n, s n, other channels for p'n, q'n, r'n , expressed as s'n. At this time, h ′, i ′, j ′, and k ′ to be obtained are expressed by Expression 25. Note that N in Expression 25 represents the total number of feature points detected in step S1204.

Figure 2017188729
Figure 2017188729

ただし、 However,

Figure 2017188729
Figure 2017188729

Figure 2017188729
Figure 2017188729

Figure 2017188729
Figure 2017188729

Figure 2017188729
Figure 2017188729

Figure 2017188729
Figure 2017188729

Figure 2017188729
Figure 2017188729

式25を満たすh´,i´,j´,k´は、右辺の目的関数が最小値のとき、h´,i´,j´,k´による偏微分が0になるという関係から求めることができ、式26で算出される。 H ′, i ′, j ′, k ′ satisfying Expression 25 is obtained from the relationship that the partial differentiation by h ′, i ′, j ′, k ′ becomes 0 when the objective function on the right side is the minimum value. And is calculated by Equation 26.

Figure 2017188729
Figure 2017188729

以上のように算出したh´,i´,j´,k´から式27に示すように、調整パラメータh,i,j,kを導出する。なお、本実施形態では全ての平面(ライトフィールドデータ上の平面)の対応を用いた最小二乗解で調整パラメータを求めたが、誤対応に対するロバスト性を高めるために、RANSACなどのロバスト推定を用いても構わない。 Adjustment parameters h, i, j, and k are derived from h ′, i ′, j ′, and k ′ calculated as described above, as shown in Expression 27. In the present embodiment, the adjustment parameter is obtained by the least square solution using the correspondence of all the planes (planes on the light field data). However, in order to improve the robustness against miscorrespondence, robust estimation such as RANSAC is used. It doesn't matter.

Figure 2017188729
Figure 2017188729

ライトフィールドデータ調整部1108は、調整パラメータ導出部1107が導出した調整パラメータに基づき、各チャネルのライトフィールドデータを基準チャネルのライトフィールドデータに重なるように調整する。なお、本実施形態では、「基準チャネルのライトフィールドデータに重ねる」等の表現を用いる。しかし、実際には、基準チャネルのライトフィールドデータによって示される光線の位置と角度と、他のライトフィールドデータによって示される光線の位置と角度を一致させることである。   Based on the adjustment parameter derived by the adjustment parameter deriving unit 1107, the light field data adjustment unit 1108 adjusts the light field data of each channel so as to overlap the light field data of the reference channel. In this embodiment, expressions such as “superimpose on the light field data of the reference channel” are used. However, in practice, the position and angle of the light beam indicated by the light field data of the reference channel are matched with the position and angle of the light beam indicated by the other light field data.

まず、ライトフィールドデータ調整部1108は、基準チャネル上のサンプリング座標(x,y,u,v)に対して、別のチャネル上の対応する座標(x´,y´,u´,v´)を式28に基づき算出する。次に、ライトフィールドデータ調整部1108は、別のチャネル上の座標(x´,y´,u´,v´)における値を補間により生成する。ライトフィールドデータ調整部1108は、補間により生成した値を基準チャネル上のサンプリング位置に配置する。このようにして、ライトフィールドデータ調整部1108は、各チャネルのライトフィールドデータを線形変換して調整する。   First, the light field data adjustment unit 1108 corresponds to the sampling coordinates (x, y, u, v) on the reference channel and corresponding coordinates (x ′, y ′, u ′, v ′) on another channel. Is calculated based on Equation 28. Next, the light field data adjustment unit 1108 generates a value at coordinates (x ′, y ′, u ′, v ′) on another channel by interpolation. The light field data adjustment unit 1108 arranges the value generated by the interpolation at the sampling position on the reference channel. In this way, the light field data adjustment unit 1108 linearly converts and adjusts the light field data of each channel.

Figure 2017188729
Figure 2017188729

チャネル統合部1109は、ライトフィールドデータ調整部1108で調整されたBチャネル,Rチャネルのライトフィールドデータと、基準としたGチャネルとのライトフィールドデータとを統合し、カラーのライトフィールドデータを生成する。生成したライトフィールドデータは、バス110を介して出力される。   The channel integration unit 1109 integrates the light field data of the B and R channels adjusted by the light field data adjustment unit 1108 and the light field data of the reference G channel to generate color light field data. . The generated light field data is output via the bus 110.

図13は、第1の実施形態の撮像装置の処理の流れの一例を示すフローチャートである。図13を用いて本実施形態の撮像装置の処理の流れを説明する。   FIG. 13 is a flowchart illustrating an example of a processing flow of the imaging apparatus according to the first embodiment. A processing flow of the imaging apparatus according to the present embodiment will be described with reference to FIG.

ステップS1201では、チャネル分離部1101がライトフィールドデータを取得する。   In step S1201, the channel separation unit 1101 acquires light field data.

ステップS1202では、チャネル分離部1101がステップS1201で取得したライトフィールドデータから新たなチャネルを1つ分離する。なお、このときチャネル分離部1101は、新たなチャネルとしてGチャネルを選択する。そして、ステップS1202の処理が繰り返し実行される度に、チャネル分離部1101は、新たなチャネルを、Bチャネル,Rチャネルと切り替える。すなわち、チャネル分離部1101は、Gチャネル,Bチャネル,Rチャネルの順にチャネルを分離する。   In step S1202, the channel separation unit 1101 separates one new channel from the light field data acquired in step S1201. At this time, the channel separation unit 1101 selects the G channel as a new channel. Then, every time the process of step S1202 is repeatedly executed, the channel separation unit 1101 switches the new channel between the B channel and the R channel. That is, channel separation section 1101 separates channels in the order of G channel, B channel, and R channel.

ステップS1203では、画像生成部1102がステップS1202で抽出したチャネルのライトフィールドデータから、光線の角度がu=0,v=0であるデータを切り出して2次元画像データを生成する。   In step S1203, the image generation unit 1102 cuts out data with the ray angles u = 0 and v = 0 from the light field data of the channel extracted in step S1202, and generates two-dimensional image data.

ステップS1204では、特徴点検出部1103がステップS1203で生成した画像データから特徴点を抽出する。ステップS1205では、特徴量算出部1104がステップS1204で抽出した特徴点の特徴を示す特徴量を算出する。ステップS1206では、平面検出部1105がステップS1205で検出した特徴点を通るライトフィールドデータ上の平面を検出する。   In step S1204, the feature point detection unit 1103 extracts feature points from the image data generated in step S1203. In step S1205, the feature amount calculation unit 1104 calculates a feature amount indicating the feature point feature extracted in step S1204. In step S1206, the plane detection unit 1105 detects a plane on the light field data passing through the feature point detected in step S1205.

ステップS1207では、処理しているデータがGチャネルのライトフィールドデータか判定する。Gチャネルのライトフィールドデータならば(ステップS1207のYES)、撮像装置は、ステップS1208の処理に進む。Gチャネルでなければ(ステップS1207のNO)、撮像装置は、ステップS1209の処理に進む。   In step S1207, it is determined whether the data being processed is light field data of the G channel. If it is G-channel light field data (YES in step S1207), the imaging apparatus proceeds to step S1208. If it is not the G channel (NO in step S1207), the imaging apparatus proceeds to the process in step S1209.

ステップS1208では、対応探索部1106がGチャネルの特徴量、特徴点位置、およびライトフィールドデータ上の平面の情報を保持する。その後、撮像装置は、ステップS1202の処理に戻る。   In step S1208, the correspondence search unit 1106 holds G channel feature values, feature point positions, and plane information on the light field data. Thereafter, the imaging apparatus returns to the process of step S1202.

ステップS1209では、対応探索部1106がGチャネルのライトフィールドデータ上の平面とその他のチャネルライトフィールドデータ上の平面とを対応付ける。この対応付けは、ステップS1208で保持したGチャネルの情報と、ステップS1204〜S1206で算出した他チャネルの情報とに基づき行われる。   In step S1209, the correspondence search unit 1106 associates the plane on the light field data of the G channel with the plane on the other channel light field data. This association is performed based on the G channel information held in step S1208 and the other channel information calculated in steps S1204 to S1206.

ステップS1210では、調整パラメータ導出部1107が、ステップS1209で対応探索部1106が求めた平面の対応に基づき、調整パラメータを導出する。ここでは、処理中のチャネルのライトフィールドデータをGチャネルのライトフィールドデータに重ねるための、調整パラメータが導出される。   In step S1210, the adjustment parameter deriving unit 1107 derives an adjustment parameter based on the correspondence of the plane obtained by the correspondence searching unit 1106 in step S1209. Here, an adjustment parameter is derived for superimposing the light field data of the channel being processed on the light field data of the G channel.

ステップS1211では、ライトフィールドデータ調整部1108が、ステップS1210で導出した調整パラメータに基づき、処理中のチャネルのライトフィールドデータをGチャネルのライトフィールドデータに重なるように調整する。調整されたライトフィールドデータは、チャネル統合部1109が保持する。   In step S1211, the light field data adjustment unit 1108 adjusts the light field data of the channel being processed so as to overlap the light field data of the G channel based on the adjustment parameter derived in step S1210. The adjusted light field data is held by the channel integration unit 1109.

ステップS1212では、撮像装置は、全てのチャネルを処理したか判定する。処理していれば(ステップS1212のYES)、撮像装置は、ステップS1213の処理に進む。処理していなければ(ステップS1212のNO)、撮像装置は、ステップS1202の処理に戻る。   In step S1212, the imaging apparatus determines whether all channels have been processed. If processed (YES in step S1212), the imaging apparatus proceeds to the process in step S1213. If not processed (NO in step S1212), the imaging apparatus returns to the process in step S1202.

ステップS1213では、チャネル統合部1109が、ステップS1211で調整したBチャネル,Rチャネルのライトフィールドデータと、Gチャネルのライトフィールドデータとを統合して、カラーのライトフィールドデータを生成する。   In step S1213, the channel integration unit 1109 integrates the B channel and R channel light field data adjusted in step S1211 and the G channel light field data to generate color light field data.

ステップS1214では、チャネル統合部1109が、ステップS1213で生成したライトフィールドデータを出力する。   In step S1214, the channel integration unit 1109 outputs the light field data generated in step S1213.

なお、本実施形態では、光学系の光軸位置に誤差が無いと仮定として、xu平面とyv平面で共通の2次元線形変換でライトフィールドにおける色収差の補正を表現した。ただし、xyuv空間に対する4次元アフィン変換など、他の変換を用いて表現しても良い。この場合は本実施形態で説明した方法を拡張して、4次元アフィン変換の推定を行う。これにより、光軸位置の誤差に対応することが可能となる。また、本実施形態では、RGBの3波長のライトフィールドの例について説明したが、2波長のライトフィールドや3波長より多い波長のライトフィールドに対して適用してもかまわない。また、本実施例では、Gチャネルを基準として、他のチャネル(R,Bチャネル)のライトフィールドデータを調整する撮像装置を例にした。しかし、必ずしも基準とするチャネルを設ける必要はなく、すべてのチャネルのライトフィールドデータを調整して、各チャネルのライトフィールドデータを重ね合わせるようにしてもよい。   In this embodiment, assuming that there is no error in the optical axis position of the optical system, correction of chromatic aberration in the light field is expressed by two-dimensional linear conversion common to the xu plane and the yv plane. However, you may express using other transformations, such as the four-dimensional affine transformation with respect to xyuv space. In this case, the method described in the present embodiment is extended to estimate a four-dimensional affine transformation. As a result, it is possible to cope with an error in the optical axis position. In this embodiment, an example of a light field having three wavelengths of RGB has been described. However, the present invention may be applied to a light field having two wavelengths or a light field having more than three wavelengths. In the present embodiment, an imaging apparatus that adjusts light field data of other channels (R and B channels) with the G channel as a reference is taken as an example. However, it is not always necessary to provide a reference channel, and the light field data of all channels may be superimposed by adjusting the light field data of all channels.

以上、本実施例形態によれば、レンズの情報を必要とせずに、ライトフィールドにおける色収差の補正を行うことができる。すなわち、本実施形態によれば、ライトフィールドデータを取得する際に使用するレンズが未知のレンズである場合でも、取得されたライトフィールドデータに対して色収差の補正を適切に行うことができる。また、本実施例では、基準チャネルのライトフィールドデータ上の平面とその他のチャネルライトフィールドデータ上の平面との対応関係から調整パラメータを導出している。したがって、例えば、ステップS1204の処理において、抽出される特徴点の数が十分でない場合でも、適切に調整パラメータを導出することができる。よって、そのような場合でも色収差の補正の精度を保つことができる。   As described above, according to the present embodiment, it is possible to correct chromatic aberration in the light field without requiring lens information. In other words, according to the present embodiment, even when the lens used when acquiring the light field data is an unknown lens, it is possible to appropriately correct the chromatic aberration with respect to the acquired light field data. In this embodiment, the adjustment parameter is derived from the correspondence between the plane on the light field data of the reference channel and the plane on the other channel light field data. Therefore, for example, in the process of step S1204, the adjustment parameter can be appropriately derived even when the number of extracted feature points is not sufficient. Therefore, the accuracy of correcting chromatic aberration can be maintained even in such a case.

[実施形態2]
第1の実施形態では、平面(ライトフィールドデータ上の平面)の対応に基づき異なるチャネルのライトフィールドデータを互いに重ね合わせることで、色収差の補正を行った。第2の実施形態では、ライトフィールドデータから特徴点を抽出し、特徴点の対応に基づき異なるチャネルのライトフィールドデータを互いに重ね合わせることで、色収差の補正を行う。この場合、ライトフィールドデータ上の平面の検出を行わずに済むため、計算コストの低減が可能となる。
[Embodiment 2]
In the first embodiment, correction of chromatic aberration is performed by superimposing light field data of different channels on the basis of correspondence of a plane (a plane on the light field data). In the second embodiment, feature points are extracted from light field data, and light field data of different channels are superimposed on each other based on the correspondence of the feature points, thereby correcting chromatic aberration. In this case, since it is not necessary to detect a plane on the light field data, the calculation cost can be reduced.

図14は、第2の実施形態の撮像装置のソフトウェア構成の一例を表すブロック図である。本実施形態の撮像装置は、チャネル分離部1101、特徴点検出部1401、特徴量算出部1402、対応探索部1403、調整パラメータ導出部1404、ライトフィールドデータ調整部1108、およびチャネル統合部1109を含む。なお、チャネル分離部1101、ライトフィールドデータ調整部1108、およびチャネル統合部1109は、第1の実施形態と同様である。本実施形態では、特徴点検出部1401、特徴量算出部1402、対応探索部1403、および調整パラメータ導出部1404により、異なるチャネルのライトフィールドデータを互いに重ね合わせるための調整パラメータを導出する。以下、第1の実施形態と異なる部分について説明する。   FIG. 14 is a block diagram illustrating an example of a software configuration of the imaging apparatus according to the second embodiment. The imaging apparatus of the present embodiment includes a channel separation unit 1101, a feature point detection unit 1401, a feature amount calculation unit 1402, a correspondence search unit 1403, an adjustment parameter derivation unit 1404, a light field data adjustment unit 1108, and a channel integration unit 1109. . The channel separation unit 1101, the light field data adjustment unit 1108, and the channel integration unit 1109 are the same as those in the first embodiment. In this embodiment, the feature point detection unit 1401, the feature amount calculation unit 1402, the correspondence search unit 1403, and the adjustment parameter derivation unit 1404 derive adjustment parameters for superimposing light field data of different channels on each other. Hereinafter, a different part from 1st Embodiment is demonstrated.

特徴点検出部1401は、チャネル分離部1101から取得した各チャネルのライトフィールドデータから、ライトフィールド空間中の全ての方向に対して一様でない画素値の分布を周囲に有する点を、特徴点として検出する。本実施形態では一例として、xu平面とyv平面それぞれに対するHarrisコーナー検出を用いる。このような特徴点は、テクスチャのある被写体から発せられた光線がライトフィールド上でオクルージョンにより遮蔽されるような領域で、検出される。なお、本実施形態では特徴点抽出方法としてHarrisコーナー検出を用いたが、DoGやFASTなど特徴点を検出できるならばどのような方法を用いても構わない。   The feature point detection unit 1401 uses, as a feature point, a point having a nonuniform pixel value distribution in all directions in the light field space from the light field data of each channel acquired from the channel separation unit 1101. To detect. In the present embodiment, as an example, Harris corner detection for each of the xu plane and the yv plane is used. Such feature points are detected in an area where light rays emitted from a textured subject are shielded by occlusion on the light field. In this embodiment, Harris corner detection is used as the feature point extraction method. However, any method may be used as long as feature points such as DoG and FAST can be detected.

特徴量算出部1402は、特徴点検出部1401が検出した各特徴点を識別するための特徴量を、チャネル分離部1101から取得した各チャネルのライトフィールドデータに基づいて算出する。本実施形態では、特徴量算出部1402は、特徴点の周囲のブロックの画素値を用いて、特徴量を算出する。   The feature amount calculation unit 1402 calculates a feature amount for identifying each feature point detected by the feature point detection unit 1401 based on the light field data of each channel acquired from the channel separation unit 1101. In the present embodiment, the feature amount calculation unit 1402 calculates a feature amount using pixel values of blocks around the feature point.

対応探索部1403は、異なるチャネルのライトフィールドデータ間で特徴点を対応付ける。対応付けは、基準となるチャネルの特徴点に対して、特徴量が最も類似している特徴点を異なるチャネルの特徴点から探索することで行われる。本実施形態では特徴量の類似度として正規化相互相関を用いる。また、一般的な光学系では色収差によるライトフィールドデータの変形はわずかなので、特徴点の距離で探索対象を限定する。本実施形態では基準となるチャネルをG成分とし、これに対してB成分とR成分のチャネルの特徴点をそれぞれ対応付ける。なお、本実施形態ではブロックの正規化相互相関によるマッチングを用いたが、SIFT特徴量によるマッチング、差分二乗和によるマッチング、幾何学的に近傍にある特徴点とのマッチングなどどのような方法を用いても構わない。   The correspondence search unit 1403 associates feature points between light field data of different channels. The association is performed by searching for a feature point having the most similar feature amount with respect to a feature point of a reference channel from feature points of different channels. In the present embodiment, normalized cross-correlation is used as the similarity between feature quantities. Further, in a general optical system, light field data is hardly deformed due to chromatic aberration, and the search target is limited by the distance between feature points. In this embodiment, the reference channel is the G component, and the B and R component channel feature points are associated with the reference channel. In this embodiment, matching based on normalized cross-correlation of blocks is used. However, any method such as matching based on SIFT feature values, matching based on a sum of squares of differences, or matching with feature points that are geometrically adjacent to each other is used. It doesn't matter.

調整パラメータ導出部1404は、対応探索部1403で対応付けた特徴点の関係に基づき、基準チャネルであるGチャネルと、それ以外のチャネル(Bチャネル、Rチャネル)との、式3、式4で表されるようなライトフィールド空間上の座標の関係を求める。座標の関係を表す調整パラメータは、式29、式30を最小二乗法で解くことによって導出される。このとき、(xn,yn,un,vn)は基準チャネル上のn番目の特徴点の座標であり(x´n,y´n,u´n,v´n)はそれ以外のチャネル上のn番目の特徴点の座標である。 The adjustment parameter deriving unit 1404 is based on the relationship between the feature points associated by the correspondence searching unit 1403, using Equations 3 and 4 for the G channel that is the reference channel and the other channels (B channel and R channel). Find the relationship of coordinates in the light field space as shown. Adjustment parameters representing the relationship of coordinates are derived by solving Equations 29 and 30 by the least square method. In this case, (x n, y n, u n, v n) is the n-th feature point coordinates on the reference channel (x'n, y'n, u' n, v'n) otherwise Are the coordinates of the nth feature point on the channel.

Figure 2017188729
Figure 2017188729

Figure 2017188729
Figure 2017188729

なお、本実施形態では全ての特徴点の対応を用いた最小二乗解で調整パラメータを求めたが、誤対応に対するロバスト性を高めるために、RANSACなどのロバスト推定を用いても構わない。 In the present embodiment, the adjustment parameter is obtained by the least square solution using the correspondence of all the feature points, but robust estimation such as RANSAC may be used in order to improve the robustness against erroneous correspondence.

ライトフィールドデータ調整部1108は、第1の実施形態と同様に、調整パラメータ (h,i,j,k)に基づきライトフィールドデータを調整する。   The light field data adjustment unit 1108 adjusts the light field data based on the adjustment parameters (h, i, j, k) as in the first embodiment.

図15は、第2の実施形態の撮像装置の処理の流れの一例を示すフローチャートである。図15を用いて本実施形態の撮像装置の処理の流れを説明する。なお、ステップS1501,S1502、S1505,S1509〜S1512の処理はそれぞれ、第1の実施形態におけるステップS1201,S1202、S1207,S1211〜S1214の処理と同様であるため、説明を省略する。   FIG. 15 is a flowchart illustrating an example of a processing flow of the imaging apparatus according to the second embodiment. A processing flow of the imaging apparatus according to the present embodiment will be described with reference to FIG. Note that the processes in steps S1501, S1502, S1505, and S1509 to S1512 are the same as the processes in steps S1201, S1202, S1207, and S1211 to S1214 in the first embodiment, and thus description thereof is omitted.

ステップS1503では、特徴点検出部1401が、ステップS1201で分離したチャネルのライトフィールドデータから特徴点を検出する。   In step S1503, the feature point detection unit 1401 detects feature points from the light field data of the channel separated in step S1201.

ステップS1504では、特徴量算出部1402が、ステップS1501で検出した特徴点に基づき特徴量を算出する。   In step S1504, the feature amount calculation unit 1402 calculates a feature amount based on the feature points detected in step S1501.

ステップS1506では、対応探索部1403がGチャネルの特徴量、特徴点位置の情報を保存する。   In step S1506, the correspondence search unit 1403 stores the information on the feature amount and feature point position of the G channel.

ステップS1507では、対応探索部1403が、Gチャネルとその他のチャネルの特徴点を、ステップS1506で保持したGチャネルの情報と、ステップS1503〜S1504で算出した他チャネルの情報に基づき、対応付ける。
ステップS1508では、調整パラメータ導出部1404がステップS1507で求めた特徴点の対応に基づき、Gチャネルに重なるように処理中のチャネルのライトフィールドデータを調整するための、調整パラメータを導出する。
In step S1507, the correspondence searching unit 1403 associates the feature points of the G channel and other channels based on the information on the G channel held in step S1506 and the information on the other channels calculated in steps S1503 to S1504.
In step S1508, the adjustment parameter deriving unit 1404 derives an adjustment parameter for adjusting the light field data of the channel being processed so as to overlap the G channel based on the correspondence of the feature points obtained in step S1507.

なお、本実施形態では、光学系の光軸位置に誤差が無いと仮定して、xu平面とyv平面で共通の2次元線形変換でライトフィールドにおける色収差の補正を表現した。ただし、xyuv空間に対する4次元アフィン変換など、他の変換を用いて表現しても良い。この場合は本実施形態で説明した方法を拡張して、4次元アフィン変換の推定を行う。これにより、光軸位置の誤差に対応することが可能となる。   In the present embodiment, correction of chromatic aberration in the light field is expressed by two-dimensional linear transformation common to the xu plane and the yv plane, assuming that there is no error in the optical axis position of the optical system. However, you may express using other transformations, such as the four-dimensional affine transformation with respect to xyuv space. In this case, the method described in the present embodiment is extended to estimate a four-dimensional affine transformation. As a result, it is possible to cope with an error in the optical axis position.

以上、本実施形態によれば、第1の実施形態と同様の効果を得ることできる。また、本実施形態によれば、ライトフィールドデータ上の平面の検出を行わずに済むため、計算コストを低減させることができる   As described above, according to the present embodiment, the same effects as those of the first embodiment can be obtained. Further, according to the present embodiment, it is not necessary to detect a plane on the light field data, so that the calculation cost can be reduced.

(その他の実施形態)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

1101 チャネル分離部
1107 調整パラメータ導出部
1108 ライトフィールドデータ調整部
1101 Channel separation unit 1107 Adjustment parameter derivation unit 1108 Light field data adjustment unit

Claims (15)

ライトフィールドデータを取得する取得手段と、
波長が異なる複数のチャネルごとに前記ライトフィールドデータを分離する分離手段と、
分離して得られた前記複数のライトフィールドデータ間の対応関係から、各ライトフィールドデータに記録された光線の位置と角度とを互いに一致させるための調整パラメータを導出する導出手段と、
前記導出手段が導出した前記調整パラメータに基づき、前記複数のライトフィールドデータのうち少なくとも1つのライトフィールドデータに記録された光線の位置と角度とを調整する調整手段と、を備える
ことを特徴とする情報処理装置。
An acquisition means for acquiring light field data;
Separating means for separating the light field data for each of a plurality of channels having different wavelengths;
Deriving means for deriving adjustment parameters for making the positions and angles of the light rays recorded in each light field data coincide with each other from the correspondence between the plurality of light field data obtained by separation,
Adjusting means for adjusting a position and an angle of a light beam recorded in at least one light field data among the plurality of light field data based on the adjustment parameter derived by the deriving means. Information processing device.
前記調整手段は、
前記複数のライトフィールドデータのうち、一のライトフィールドデータを基準とし、他のライトフィールドデータに記録された光線の位置と角度とを前記調整パラメータに基づき調整する
請求項1に記載の情報処理装置。
The adjusting means includes
2. The information processing apparatus according to claim 1, wherein among the plurality of light field data, one light field data is used as a reference, and a position and an angle of a light beam recorded in the other light field data are adjusted based on the adjustment parameter. .
前記導出手段は、
基準となる前記一のライトフィールドデータから生成される画像データから、特徴点を検出し、当該特徴点に対応する被写体上の点から発せられた、光線群が成す線形部分空間をさらに検出する検出手段と、
前記検出手段が検出した線形部分空間に対応する線形部分空間を、前記他のライトフィールドデータから生成される画像データから探索する対応探索手段と、
前記検出手段が検出した線形部分空間と前記対応探索手段が探索した線形部分空間との対応関係から前記調整パラメータを導出する調整パラメータ導出手段と、を有する
請求項2に記載の情報処理装置。
The derivation means includes
Detection that detects a feature point from image data generated from the one light field data serving as a reference, and further detects a linear subspace formed by a group of rays emitted from a point on the subject corresponding to the feature point Means,
Correspondence search means for searching a linear subspace corresponding to the linear subspace detected by the detection means from image data generated from the other light field data;
The information processing apparatus according to claim 2, further comprising: an adjustment parameter deriving unit that derives the adjustment parameter from a correspondence relationship between the linear subspace detected by the detection unit and the linear subspace searched by the correspondence search unit.
前記検出手段は、基準となる前記一のライトフィールドデータから生成される画像データから複数の特徴点を検出し、当該複数の特徴点のそれぞれについて、当該特徴点に対応する線形部分空間をさらに検出し、
前記対応探索手段は、前記検出手段が検出した複数の線形部分空間のそれぞれについて、当該線形部分空間に対応する線形部分空間を、前記他のライトフィールドデータから生成される画像データから探索し、
前記調整パラメータ導出手段は、前記検出手段が検出した複数の線形部分空間のそれぞれについて得られる、前記対応探索手段により探索された線形部分空間との対応関係に基づき、前記調整パラメータを導出する
請求項3に記載の情報処理装置。
The detecting means detects a plurality of feature points from image data generated from the one light field data serving as a reference, and further detects a linear subspace corresponding to the feature points for each of the plurality of feature points. And
The correspondence search unit searches for a linear subspace corresponding to the linear subspace for each of the plurality of linear subspaces detected by the detection unit from image data generated from the other light field data,
The adjustment parameter derivation unit derives the adjustment parameter based on a correspondence relationship obtained with each of the plurality of linear subspaces detected by the detection unit and with the linear subspace searched by the correspondence search unit. 3. The information processing apparatus according to 3.
前記調整パラメータ導出手段は、前記検出手段が検出した複数の線形部分空間のそれぞれについて得られる前記対応関係から、最小二乗法を用いて前記調整パラメータを導出する
請求項4に記載の情報処理装置。
The information processing apparatus according to claim 4, wherein the adjustment parameter deriving unit derives the adjustment parameter using a least square method from the correspondence obtained for each of the plurality of linear subspaces detected by the detection unit.
前記導出手段は、
前記ライトフィールドデータから生成される画像データから特徴点を検出する検出手段と、
基準となる前記一のライトフィールドデータから生成される画像データから検出された特徴点と、前記他のライトフィールドデータから生成される画像データから検出された特徴点との対応関係から、前記調整パラメータを導出する調整パラメータ導出手段と、を有する
請求項2に記載の情報処理装置。
The derivation means includes
Detecting means for detecting feature points from the image data generated from the light field data;
From the correspondence between feature points detected from image data generated from the one light field data serving as a reference and feature points detected from image data generated from the other light field data, the adjustment parameter The information processing apparatus according to claim 2, further comprising adjustment parameter deriving means for deriving.
前記導出手段は、対応探索手段をさらに有し、
前記検出手段は、基準となる前記一のライトフィールドデータから生成される画像データから複数の特徴点を検出し、
前記対応探索手段は、基準となる前記一のライトフィールドデータから生成される画像データから検出された複数の特徴点のそれぞれについて、当該特徴点に対応する特徴点を、前記他のライトフィールドデータから生成される画像データから探索し、
前記調整パラメータ導出手段は、前記検出手段が検出した複数の特徴点のそれぞれについて得られる、前記対応探索手段により探索された特徴点との対応関係に基づき、前記調整パラメータを導出する
請求項6に記載の情報処理装置。
The derivation means further includes correspondence search means,
The detection means detects a plurality of feature points from image data generated from the one light field data serving as a reference,
The correspondence search means, for each of a plurality of feature points detected from image data generated from the one light field data serving as a reference, finds a feature point corresponding to the feature point from the other light field data. Search from the generated image data,
The adjustment parameter derivation unit derives the adjustment parameter based on a correspondence relationship obtained with each of the plurality of feature points detected by the detection unit and with the feature points searched by the correspondence search unit. The information processing apparatus described.
前記調整パラメータ導出手段は、前記検出手段が検出した複数の特徴点のそれぞれについて得られる前記対応関係から、最小二乗法を用いて前記調整パラメータを導出する
請求項7に記載の情報処理装置。
The information processing apparatus according to claim 7, wherein the adjustment parameter derivation unit derives the adjustment parameter using a least square method from the correspondence obtained for each of the plurality of feature points detected by the detection unit.
前記調整手段による前記調整が、前記調整パラメータを用いた2次元線形変換により行われる
請求項1から請求項8のいずれか1項に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the adjustment by the adjustment unit is performed by two-dimensional linear conversion using the adjustment parameter.
前記調整手段による前記調整が、前記調整パラメータを用いた4次元アフィン変換により行われる
請求項1から請求項8のいずれか1項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 8, wherein the adjustment by the adjustment unit is performed by four-dimensional affine transformation using the adjustment parameter.
前記取得手段が、複数のマイクロレンズを含むマイクロレンズアレイを有する、プレノプティックカメラで撮像して得られたライトフィールドデータを取得し、
前記ライトフィールドデータには、画素位置ごとに、当該画素位置から特定される、光線が通過したマイクロレンズの位置と当該光線が当該マイクロレンズに入射した角度と、が少なくとも記録される
請求項1から請求項9のうちのいずれか1項に記載の情報処理装置。
The acquisition means has a microlens array including a plurality of microlenses, acquires light field data obtained by imaging with a plenoptic camera,
The light field data includes at least a position of a microlens through which a light beam passes and an angle at which the light beam enters the microlens, which are specified from the pixel position, for each pixel position. The information processing apparatus according to claim 9.
ライトフィールドデータを取得する取得手段と、
波長が異なる複数のチャネルごとに前記ライトフィールドデータを分離する分離手段と、
分離して得られた前記複数のライトフィールドデータ間の対応関係から、各ライトフィールドデータに記録された光線の位置と角度とを互いに一致させるための調整パラメータを導出する導出手段と、を備える
ことを特徴とする情報処理装置。
An acquisition means for acquiring light field data;
Separating means for separating the light field data for each of a plurality of channels having different wavelengths;
Deriving means for deriving adjustment parameters for matching the positions and angles of the light rays recorded in each light field data from the correspondence relationship between the plurality of light field data obtained by separation. An information processing apparatus characterized by the above.
ライトフィールドデータを取得する取得ステップと、
波長が異なる複数のチャネルごとに前記ライトフィールドデータを分離する分離ステップと、
分離して得られた前記複数のライトフィールドデータ間の対応関係から、各ライトフィールドデータに記録された光線の位置と角度とを互いに一致させるための調整パラメータを導出する導出ステップと、
前記導出ステップにおいて導出された前記調整パラメータに基づき、前記複数のライトフィールドデータのうち少なくとも1つのライトフィールドデータに記録された光線の位置と角度とを調整する調整ステップと、を含む
ことを特徴とする情報処理方法。
An acquisition step for acquiring light field data;
A separation step of separating the light field data for each of a plurality of channels having different wavelengths;
A derivation step for deriving an adjustment parameter for matching the position and angle of the light beam recorded in each light field data from the correspondence between the plurality of light field data obtained by separation, and
An adjustment step of adjusting a position and an angle of a light beam recorded in at least one light field data among the plurality of light field data based on the adjustment parameter derived in the derivation step. Information processing method.
ライトフィールドデータを取得する取得ステップと、
波長が異なる複数のチャネルごとに前記ライトフィールドデータを分離する分離ステップと、
分離して得られた前記複数のライトフィールドデータ間の対応関係から、各ライトフィールドデータに記録された光線の位置と角度とを互いに一致させるための調整パラメータを導出する導出ステップと、を含む
ことを特徴とする情報処理方法。
An acquisition step for acquiring light field data;
A separation step of separating the light field data for each of a plurality of channels having different wavelengths;
A derivation step for deriving an adjustment parameter for making the position and angle of the light beam recorded in each light field data coincide with each other from the correspondence relationship between the plurality of light field data obtained by separation. An information processing method characterized by the above.
コンピュータを請求項1から請求項12のいずれか1項に記載の情報処理装置として機能させるためのプログラム。   A program for causing a computer to function as the information processing apparatus according to any one of claims 1 to 12.
JP2016074505A 2016-04-01 2016-04-01 Information processing device, information processing method and program Pending JP2017188729A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016074505A JP2017188729A (en) 2016-04-01 2016-04-01 Information processing device, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016074505A JP2017188729A (en) 2016-04-01 2016-04-01 Information processing device, information processing method and program

Publications (1)

Publication Number Publication Date
JP2017188729A true JP2017188729A (en) 2017-10-12

Family

ID=60046544

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016074505A Pending JP2017188729A (en) 2016-04-01 2016-04-01 Information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP2017188729A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200050842A (en) 2018-11-02 2020-05-12 한국전자통신연구원 Plenoptic data storage system and operating method thereof
CN113191369A (en) * 2021-04-09 2021-07-30 西安理工大学 Characteristic point detection method based on light field angle domain change matrix
US11182872B2 (en) 2018-11-02 2021-11-23 Electronics And Telecommunications Research Institute Plenoptic data storage system and operating method thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200050842A (en) 2018-11-02 2020-05-12 한국전자통신연구원 Plenoptic data storage system and operating method thereof
US11182872B2 (en) 2018-11-02 2021-11-23 Electronics And Telecommunications Research Institute Plenoptic data storage system and operating method thereof
CN113191369A (en) * 2021-04-09 2021-07-30 西安理工大学 Characteristic point detection method based on light field angle domain change matrix
CN113191369B (en) * 2021-04-09 2024-02-09 西安理工大学 Characteristic point detection method based on light field angular domain change matrix

Similar Documents

Publication Publication Date Title
US10560684B2 (en) System and methods for calibration of an array camera
US8736737B2 (en) Image processing apparatus, image processing method, and storage medium
JP6172978B2 (en) IMAGING DEVICE, IMAGING SYSTEM, SIGNAL PROCESSING DEVICE, PROGRAM, AND STORAGE MEDIUM
US8144974B2 (en) Image processing apparatus, method, and program
JP6415179B2 (en) Image processing apparatus, image processing method, imaging apparatus, and control method thereof
US20240214668A1 (en) Image processing device, image processing method, imaging device, and recording medium
JP2017188729A (en) Information processing device, information processing method and program
JP2023115356A (en) Measurement device, imaging device, control method, and program
US10084978B2 (en) Image capturing apparatus and image processing apparatus
JP2013044597A (en) Image processing device and method, and program
US10225537B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
US10339665B2 (en) Positional shift amount calculation apparatus and imaging apparatus
JP6362070B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
JP2017194591A (en) Distance measurement device, imaging apparatus, and distance measurement method
JP2013120435A (en) Image processing apparatus and image processing method, and program
JP6755737B2 (en) Distance measuring device, imaging device, and distance measuring method
WO2016056202A1 (en) Image processing apparatus, image processing method, and program
JP7373297B2 (en) Image processing device, image processing method and program
JP2005216191A (en) Stereo image processing apparatus and method
JP6907040B2 (en) Image processing equipment, imaging equipment, lens equipment, image processing methods, programs, and storage media
US11143504B2 (en) Image capture device and image capture system
JP2023132730A (en) Image processing device and image processing method
JP6292947B2 (en) Image processing apparatus, image processing method, and program
CN112866550A (en) Phase difference acquisition method and apparatus, electronic device, and computer-readable storage medium