JP5942428B2 - Reconstructed image generating apparatus, reconstructed image generating method, and program - Google Patents

Reconstructed image generating apparatus, reconstructed image generating method, and program Download PDF

Info

Publication number
JP5942428B2
JP5942428B2 JP2011290174A JP2011290174A JP5942428B2 JP 5942428 B2 JP5942428 B2 JP 5942428B2 JP 2011290174 A JP2011290174 A JP 2011290174A JP 2011290174 A JP2011290174 A JP 2011290174A JP 5942428 B2 JP5942428 B2 JP 5942428B2
Authority
JP
Japan
Prior art keywords
image
sub
pixel
lens
reconstructed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011290174A
Other languages
Japanese (ja)
Other versions
JP2013140450A (en
JP2013140450A5 (en
Inventor
知明 長坂
知明 長坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011290174A priority Critical patent/JP5942428B2/en
Publication of JP2013140450A publication Critical patent/JP2013140450A/en
Publication of JP2013140450A5 publication Critical patent/JP2013140450A5/ja
Application granted granted Critical
Publication of JP5942428B2 publication Critical patent/JP5942428B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Description

本発明は、再構成画像生成装置、再構成画像生成方法、及びプログラムに関する。   The present invention relates to a reconstructed image generation apparatus, a reconstructed image generation method, and a program.

異なる視点から撮影した被写体の画像を取得することにより、被写体からカメラのレンズに侵入する全ての光線の向きと光量を取得する技術が知られている。   There is known a technique for acquiring the direction and light amount of all light rays that enter a lens of a camera from a subject by acquiring images of the subject taken from different viewpoints.

このような技術に関連して、特許文献1は被写体を撮影した複数の画像を取得して、該複数の画像から焦点距離・被写界深度等を変化させた被写体の画像を再構成する技術を開示している。特許文献1の技術では、撮影した画像に含まれる画素(対応画素)のサブ集合を加算することにより、再構成画像の画素(再構成画素)の画素値を決定する。また、特許文献1は対応画素の画素値を重み付け加算して再構成画素の画素値を決定することに言及している。   In relation to such a technique, Patent Document 1 acquires a plurality of images obtained by photographing a subject and reconstructs a subject image in which a focal length, a depth of field, and the like are changed from the plurality of images. Is disclosed. In the technique of Patent Document 1, a pixel value of a pixel (reconstructed pixel) of a reconstructed image is determined by adding a sub-set of pixels (corresponding pixels) included in a captured image. Patent Document 1 mentions that the pixel value of the reconstructed pixel is determined by weighted addition of the pixel values of the corresponding pixels.

特表2008−515110号公報Special table 2008-515110 gazette

特許文献1に記載の技術を用いて、高い精度で再構成した再構成画像を生成するためには、再構成画素とこれに対応する対応画素それぞれに対応する重みを定めなくてはならない。しかし特許文献1は、重みの値を求める具体的な方法を開示していない。また、再構成画素と対応画素との対応を光線追跡により定め、その経路及び所他の条件に基づき重みを算出するとしても、それぞれの画素について逐一重みを算出しなければならず、計算量が膨大になってしまうという問題点があった。   In order to generate a reconstructed image reconstructed with high accuracy using the technique described in Patent Document 1, it is necessary to determine the weight corresponding to each of the reconstructed pixel and the corresponding pixel corresponding thereto. However, Patent Document 1 does not disclose a specific method for obtaining the weight value. Further, even if the correspondence between the reconstructed pixel and the corresponding pixel is determined by ray tracing and the weight is calculated based on the path and other conditions, the weight must be calculated for each pixel one by one, and the calculation amount is large. There was a problem of becoming enormous.

本発明は上記事情に鑑みてなされたもので、被写体を撮影した複数の画像から高い精度で再構成した再構成画像を生成するにあたって、必要計算量が少なくてすむ再構成画像生成装置、再構成画像生成方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and a reconstructed image generating apparatus and a reconstructed image that require a small amount of calculation when generating a reconstructed image reconstructed with high accuracy from a plurality of images obtained by photographing a subject. An object is to provide an image generation method and a program.

上記目的を達成するため、本発明に係る再構成画像生成装置の一様態は、
被写体からの光線を捉えるメインレンズと前記メインレンズが捉えた前記光線をさらに捉える複数の視点のそれぞれに対応する複数のサブレンズとを用いて、前記被写体を異なる前記視点から撮影した複数のサブ画像から構成されるライトフィールド画像を取得するライトフィールド画像取得部と、
前記ライトフィールド画像から再構成した前記被写体の画像である再構成画像の原型画像を定義する原型画像定義部と、
前記原型画像定義部が定義した前記原型画像を構成する画素である原型画素と、前記サブ画像に対応する前記サブレンズと、の対応の強さを示す係数である画像重みを定義する画像重み定義部と、
前記複数のサブ画像を構成するサブ画像画素から、前記原型画像定義部が定義した前記原型画像を構成する前記原型画素に対応する画素である対応画素を抽出する対応画素抽出部と、
記対応画素抽出部が抽出した前記対応画素の画素値と、前記対応画素の属する前記サブ画像に対応する前記サブレンズに応じて前記画像重み定義部が定義した前記画像重みと、に基づいて前記再構成画像の再構成画素の画素値を求め、前記再構成画像を生成する再構成画像生成部と、
を有し、
前記被写体からの前記光線が前記メインレンズを通過して前記複数のサブレンズ上に投影される領域をメインレンズブラー領域とすると、前記画像重みは、前記各サブレンズ上で前記メインレンズブラー領域が占める比率で定義される、
ことを特徴とする。
また、上記目的を達成するため、本発明に係る再構成画像生成方法の一様態は、
被写体からの光線を捉えるメインレンズと前記メインレンズが捉えた前記光線をさらに捉える複数の視点のそれぞれに対応する複数のサブレンズとを用いて、前記被写体を異なる前記視点から撮影した複数のサブ画像から構成されるライトフィールド画像を取得する工程と、
前記ライトフィールド画像から再構成した前記被写体の画像である再構成画像の原型画像を定義する工程と、
定義した前記原型画像を構成する画素である原型画素と、前記サブ画像に対応する前記サブレンズと、の対応の強さを示す係数である画像重みを定義する工程と、
前記複数のサブ画像を構成するサブ画像画素から、定義した前記原型画像を構成する前記原型画素に対応する画素である対応画素を抽出する工程と、
抽出した前記対応画素の画素値と、前記対応画素の属する前記サブ画像に対応する前記サブレンズに応じて定義した前記画像重みと、に基づいて前記再構成画像の再構成画素の画素値を求め、前記再構成画像を生成する工程と、
を含み、
前記被写体からの前記光線が前記メインレンズを通過して前記複数のサブレンズ上に投影される領域をメインレンズブラー領域とすると、前記画像重みは、前記各サブレンズ上で前記メインレンズブラー領域が占める比率で定義される、
ことを特徴とする。
また、上記目的を達成するため、本発明に係るプログラムの一様態は、
コンピュータに、
被写体からの光線を捉えるメインレンズと前記メインレンズが捉えた前記光線をさらに捉える複数の視点のそれぞれに対応する複数のサブレンズとを用いて、前記被写体を異なる前記視点から撮影した複数のサブ画像から構成されるライトフィールド画像を取得する処理、
前記ライトフィールド画像から再構成した前記被写体の画像である再構成画像の原型画像を定義する処理、
定義した前記原型画像を構成する画素である原型画素と、前記サブ画像に対応する前記サブレンズと、の対応の強さを示す係数である画像重みを定義する処理、
前記複数のサブ画像を構成するサブ画像画素から、定義した前記原型画像を構成する前記原型画素に対応する画素である対応画素を抽出する処理、
抽出した前記対応画素の画素値と、前記対応画素の属する前記サブ画像に対応する前記サブレンズに応じて定義した前記画像重みと、に基づいて前記再構成画像の再構成画素の画素値を求め、前記再構成画像を生成する処理、
を実行させ、
前記被写体からの前記光線が前記メインレンズを通過して前記複数のサブレンズ上に投影される領域をメインレンズブラー領域とすると、前記画像重みは、前記各サブレンズ上で前記メインレンズブラー領域が占める比率で定義される、
ことを特徴とする。
In order to achieve the above object, an aspect of the reconstructed image generating apparatus according to the present invention is:
Using a plurality of sub-lenses corresponding to the plurality of viewpoints further capture the light main lens and the main lens captures to capture light from an object, a plurality of sub-images taken the subject from a different said viewpoint A light field image acquisition unit for acquiring a light field image composed of:
A prototype image definition unit that defines the original image of the reconstructed image is an image of the subject reconstructed from the light-field image,
Image weight definition that defines an image weight that is a coefficient indicating the strength of correspondence between a prototype pixel that is a pixel constituting the prototype image defined by the prototype image definition unit and the sub lens corresponding to the sub image And
A corresponding pixel extracting unit that extracts a corresponding pixel that is a pixel corresponding to the original pixel constituting the original image defined by the original image defining unit from the sub image pixels constituting the plurality of sub images;
And the pixel value of the corresponding pixel before SL corresponding pixel extracting portion is extracted, the said image weight said image weight definition portion is defined in accordance with the sub-lenses corresponding to said sub-image belonging paired pixels, on the basis Obtaining a pixel value of the reconstructed pixel of the reconstructed image and generating the reconstructed image;
I have a,
When an area in which the light beam from the subject passes through the main lens and is projected onto the plurality of sub lenses is a main lens blur area, the image weight is determined by the main lens blur area on each sub lens. Defined as a percentage,
It is characterized by that.
In order to achieve the above object, an aspect of the reconstructed image generation method according to the present invention is:
A plurality of sub-images obtained by photographing the subject from different viewpoints using a main lens that captures light rays from the subject and a plurality of sub-lens corresponding to each of a plurality of viewpoints that further capture the light rays captured by the main lens Obtaining a light field image comprising:
Defining a prototype image of a reconstructed image that is an image of the subject reconstructed from the light field image;
Defining an image weight that is a coefficient indicating the strength of correspondence between a prototype pixel that is a pixel constituting the prototype image and the sub lens corresponding to the sub image;
Extracting a corresponding pixel, which is a pixel corresponding to the original pixel constituting the original image, from sub image pixels constituting the plurality of sub images; and
A pixel value of the reconstructed pixel of the reconstructed image is obtained based on the extracted pixel value of the corresponding pixel and the image weight defined according to the sub lens corresponding to the sub image to which the corresponding pixel belongs. Generating the reconstructed image;
Including
When an area in which the light beam from the subject passes through the main lens and is projected onto the plurality of sub lenses is a main lens blur area, the image weight is determined by the main lens blur area on each sub lens. Defined as a percentage,
It is characterized by that.
In order to achieve the above object, an aspect of the program according to the present invention is as follows.
On the computer,
A plurality of sub-images obtained by photographing the subject from different viewpoints using a main lens that captures light rays from the subject and a plurality of sub-lens corresponding to each of a plurality of viewpoints that further capture the light rays captured by the main lens Processing to obtain a light field image consisting of
Processing for defining a prototype image of a reconstructed image that is an image of the subject reconstructed from the light field image;
A process of defining an image weight that is a coefficient indicating a strength of correspondence between a prototype pixel that is a pixel constituting the prototype image and the sub lens corresponding to the sub image;
A process of extracting a corresponding pixel that is a pixel corresponding to the original pixel constituting the original image from the sub image pixels constituting the plurality of sub-images;
A pixel value of the reconstructed pixel of the reconstructed image is obtained based on the extracted pixel value of the corresponding pixel and the image weight defined according to the sub lens corresponding to the sub image to which the corresponding pixel belongs. A process for generating the reconstructed image;
And execute
When an area in which the light beam from the subject passes through the main lens and is projected onto the plurality of sub lenses is a main lens blur area, the image weight is determined by the main lens blur area on each sub lens. Defined as a percentage,
It is characterized by that.

本発明によれば、被写体を撮影した複数の画像から高い精度で再構成した再構成画像を生成するにあたって、必要計算量を低減することができる。   According to the present invention, it is possible to reduce the amount of calculation required for generating a reconstructed image reconstructed with high accuracy from a plurality of images obtained by photographing a subject.

本発明の実施形態1に係るデジタルカメラの構成を示す図である。It is a figure which shows the structure of the digital camera which concerns on Embodiment 1 of this invention. 実施形態1に係るデジタルカメラの光学形成の構成を示す図である。2 is a diagram illustrating a configuration of optical formation of the digital camera according to Embodiment 1. FIG. 実施形態1に係るライトフィールド画像の例を示す図であり、(a)はライトフィールド画像の概念図を、(b)はライトフィールド画像と再構成画像の例を示す。FIG. 2 is a diagram illustrating an example of a light field image according to the first embodiment, where (a) illustrates a conceptual diagram of the light field image, and (b) illustrates an example of the light field image and a reconstructed image. 実施形態1に係る画像再構成装置の(a)物理的構成と(b)機能的構成を示す図である。It is a figure which shows the (a) physical structure and (b) functional structure of the image reconstruction apparatus which concern on Embodiment 1. FIG. 実施形態1に係るデジタルカメラの光学系と光学像の例を示す図である。FIG. 3 is a diagram illustrating an example of an optical system and an optical image of the digital camera according to the first embodiment. 実施形態1に係るメインレンズブラーについて説明するための図であり、(a)はサブレンズアレイ上に投影されたメインレンズブラーを、(b)はサブレンズ上のメインレンズブラーの中心座標を示す。2A and 2B are diagrams for explaining a main lens blur according to the first embodiment, where FIG. 3A shows a main lens blur projected on a sub-lens array, and FIG. 2B shows a center coordinate of the main lens blur on the sub-lens. . 実施形態1に係るMLBテーブルの例を示す図であり、(a)はMLBテーブルに含まれるMLBインデックステーブルを、(b)はMLBテーブルに含まれるMLB重みテーブルを示す。It is a figure which shows the example of the MLB table which concerns on Embodiment 1, (a) shows the MLB index table contained in an MLB table, (b) shows the MLB weight table contained in an MLB table. 実施形態1に係る画像出力処理を示すフローチャートである。3 is a flowchart illustrating image output processing according to the first embodiment. 実施形態1に係る画像再構成処理を示すフローチャートである。3 is a flowchart illustrating image reconstruction processing according to the first embodiment. 実施形態1に係る画素値加算処理を示すフローチャートである。6 is a flowchart illustrating pixel value addition processing according to the first embodiment. 本発明の実施形態2に係るデジタルカメラの構成を示す図である。It is a figure which shows the structure of the digital camera which concerns on Embodiment 2 of this invention. 実施形態2に係るデジタルカメラの光学系と光学像の例を示す図である。It is a figure which shows the example of the optical system of the digital camera which concerns on Embodiment 2, and an optical image. 実施形態2に係る画像再構成装置の機能的構成を示す図である。FIG. 6 is a diagram illustrating a functional configuration of an image reconstruction device according to a second embodiment. 実施形態2に係るサブレンズブラーについて説明するための図であり、(a)は撮像面上に投影されたサブレンズブラーを、(b)は撮像素子上のサブレンズブラーの中心座標を示す。4A and 4B are diagrams for explaining a sub-lens blur according to the second embodiment, in which FIG. 5A shows a sub-lens blur projected on the imaging surface, and FIG. 5B shows a center coordinate of the sub-lens blur on the image sensor. 実施形態2に係るSLBテーブルの例を示す図であり、(a)はSLBテーブルに含まれるSLBインデックステーブルを、(b)はSLBテーブルに含まれるSLB重みテーブルを示す。It is a figure which shows the example of the SLB table which concerns on Embodiment 2, (a) shows the SLB index table contained in a SLB table, (b) shows the SLB weight table contained in a SLB table. 実施形態2に係る画素値加算処理を示すフローチャートである。10 is a flowchart illustrating pixel value addition processing according to the second embodiment. 本発明のその他の実施形態に係るデジタルカメラの光学系の構成を示す図である。It is a figure which shows the structure of the optical system of the digital camera which concerns on other embodiment of this invention. (a)はその他の実施形態に係るMLBインデックステーブルの例を示す図であり、(b)はSLBインデックステーブルを示す図である。(A) is a figure which shows the example of the MLB index table which concerns on other embodiment, (b) is a figure which shows an SLB index table.

以下、本発明を実施するための形態に係るデジタルカメラ及び再構成画像生成装置(画像再構成装置)を、図を参照しながら説明する。なお、図中同一又は相当する部分には同一符号を付す。   Hereinafter, a digital camera and a reconstructed image generating apparatus (image reconstructing apparatus) according to an embodiment for carrying out the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.

(実施形態1)
実施形態1に係る画像再構成装置30は、図1に示すデジタルカメラ1に搭載されている。デジタルカメラ1は、被写体を撮影して複数のサブ画像からなるライトフィールド画像を得て、任意の再構成画像を生成する機能を備える。画像再構成装置30は、このうち複数のサブ画像からなるライトフィールド画像から再構成画像を生成する機能を担当する。
(Embodiment 1)
The image reconstruction device 30 according to the first embodiment is mounted on the digital camera 1 shown in FIG. The digital camera 1 has a function of photographing a subject to obtain a light field image composed of a plurality of sub-images and generating an arbitrary reconstructed image. The image reconstruction device 30 is responsible for generating a reconstructed image from a light field image composed of a plurality of sub-images.

デジタルカメラ1は、図1に示すように、撮像部10と、画像再構成装置30を含む情報処理部20と、記憶部40と、インターフェース部(I/F部)50と、から構成される。デジタルカメラ1は、このような構成により、外部からの光線情報を取得して、光線情報を表す画像を表示する。   As shown in FIG. 1, the digital camera 1 includes an imaging unit 10, an information processing unit 20 including an image reconstruction device 30, a storage unit 40, and an interface unit (I / F unit) 50. . With such a configuration, the digital camera 1 acquires light ray information from the outside and displays an image representing the light ray information.

撮像部10は、光学装置110と、イメージセンサ120と、から構成され、撮像動作を行う。   The imaging unit 10 includes an optical device 110 and an image sensor 120, and performs an imaging operation.

光学装置110は、図2に示すように、シャッタ111と、メインレンズMLと、サブレンズアレイSLA(マイクロレンズアレイ)と、から構成され、外部からの光線をメインレンズMLによって捉え、サブレンズアレイSLAを構成する各サブレンズSLの光学中心を視点として得られる光学像をイメージセンサ120に投影する。なお、本実施形態ではメインレンズMLは単焦点レンズであり、その焦点距離fMLは固定であるとする。 As shown in FIG. 2, the optical device 110 includes a shutter 111, a main lens ML, and a sub lens array SLA (micro lens array). The optical device 110 captures light rays from the outside by the main lens ML, and the sub lens array. An optical image obtained by using the optical center of each sub lens SL constituting the SLA as a viewpoint is projected onto the image sensor 120. In the present embodiment, the main lens ML is a single focus lens, and its focal length f ML is fixed.

イメージセンサ120は、光学装置110が投影した光学像を電気信号に変換して情報処理部20に伝達するもので、例えば、CCD(Charge Coupled Device)やCMOS(Complementally Matal Oxide Semiconductor)などの撮像素子と、撮像素子が生成した電気信号を情報処理部20に伝達する伝達部と、から構成される。   The image sensor 120 converts an optical image projected by the optical device 110 into an electrical signal and transmits the electrical signal to the information processing unit 20. For example, an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Material Oxide Semiconductor). And a transmission unit that transmits an electrical signal generated by the image sensor to the information processing unit 20.

シャッタ111は、イメージセンサ120への外部光の入射と遮蔽を制御する。
メインレンズMLは、一又は複数の凸レンズ、凹レンズ、非球面レンズ等から構成され、撮影時の被写体OBの光を光学像としてメインレンズMLとサブレンズアレイSLAとの間の仮想的な結像面MIP上に結像させる。なお、撮影時の被写体OBは一個の物体に限られず、図2に示すようにメインレンズMLからそれぞれ異なる距離だけ離れた複数の構成物であってよい。
The shutter 111 controls the incidence and shielding of external light on the image sensor 120.
The main lens ML is composed of one or a plurality of convex lenses, concave lenses, aspherical lenses, and the like, and a virtual imaging surface between the main lens ML and the sub lens array SLA using the light of the subject OB at the time of photographing as an optical image. The image is formed on the MIP. Note that the subject OB at the time of shooting is not limited to a single object, and may be a plurality of components separated from the main lens ML by different distances as shown in FIG.

サブレンズアレイSLAは、平面上に格子状に配置されたM×N個のサブレンズ(マイクロレンズ)SLから構成される。サブレンズアレイSLAは、メインレンズMLが結像面MIP上に結像させた光学像を、それぞれのサブレンズSLの光学中心を視点として観測した光学像として、イメージセンサ120を構成するイメージセンサの撮像面IE上に結像する。メインレンズMLが成す平面と撮像面IEが成す平面とから構成される空間をライトフィールドと呼ぶ。   The sub lens array SLA includes M × N sub lenses (micro lenses) SL arranged in a lattice pattern on a plane. The sub-lens array SLA is an image sensor that constitutes the image sensor 120 as an optical image obtained by observing an optical image formed by the main lens ML on the imaging plane MIP with the optical center of each sub-lens SL as a viewpoint. An image is formed on the imaging surface IE. A space formed by a plane formed by the main lens ML and a plane formed by the imaging surface IE is referred to as a light field.

メインレンズMLについて、最大径LDと、有効径EDと、が定義できる。最大径LDは、メインレンズMLの物理的な直径である。一方、有効径EDはメインレンズMLのうち撮影に使用できる領域の直径である。メインレンズMLのうち、有効径EDの外部は、メインレンズMLに貼り付けられた各種フィルタやメインレンズML周辺の物理構造によってメインレンズに入出力する光線が遮られるため、画像を撮影・再構成するために有効でない領域(非有効領域)である。
有効径EDは、上記フィルタ等の物理構造によって光線が遮られる部位を工場出荷時に測定することで定義できる。
For the main lens ML, a maximum diameter LD and an effective diameter ED can be defined. The maximum diameter LD is the physical diameter of the main lens ML. On the other hand, the effective diameter ED is a diameter of a region that can be used for photographing in the main lens ML. Of the main lens ML, the outside of the effective diameter ED captures and reconstructs an image because light beams input to and output from the main lens are blocked by various filters attached to the main lens ML and the physical structure around the main lens ML. This is an area that is not effective for the purpose (non-effective area).
The effective diameter ED can be defined by measuring a part where light rays are blocked by the physical structure such as the filter at the time of shipment from the factory.

図2の例では、被写体OBのある部分POBからの光線がメインレンズMLの有効径EDをなす部分(有効部)を通過し、複数のサブレンズSL上に投影されている。このように、被写体OBの部分POBから発された光が、メインレンズMLの有効部を通過してサブレンズアレイSLA上に投影される領域を、部分POBのメインレンズブラーMLBと呼ぶ。   In the example of FIG. 2, the light beam from the portion POB where the subject OB is present passes through the portion (effective portion) forming the effective diameter ED of the main lens ML and is projected onto the plurality of sub lenses SL. In this way, an area in which light emitted from the portion POB of the subject OB passes through the effective portion of the main lens ML and is projected onto the sub lens array SLA is referred to as a main lens blur MLB of the portion POB.

メインレンズMLは鏡胴の内部に納められている。鏡胴はメインレンズMLの光学中心で被写体側(外側鏡胴)と、結像面MIP側(内側鏡胴)とに分かれる。図2では、外側鏡胴の長さをLolb、内側鏡胴の長さをLilbとしている。また、メインレンズMLの光学中心からメインレンズの結像面MIPまでの距離をb1、結像面MIPからサブレンズアレイSLAがなす面までの距離をa2、サブレンズアレイSLAからイメージセンサの撮像面IEの距離をc2とする。   The main lens ML is housed inside the lens barrel. The lens barrel is divided into an object side (outer lens barrel) and an image plane MIP side (inner lens barrel) at the optical center of the main lens ML. In FIG. 2, the length of the outer lens barrel is Lolb, and the length of the inner lens barrel is Lilb. The distance from the optical center of the main lens ML to the imaging plane MIP of the main lens is b1, the distance from the imaging plane MIP to the plane formed by the sub lens array SLA is a2, and the imaging plane of the image sensor from the sub lens array SLA. Let the distance of IE be c2.

撮像部10は、上記構成により、ライトフィールドを通過する全ての光線の情報を含んだライトフィールド画像(LFI)を撮影する。
ブロック状の被写体OBを撮影したLFIの一例を図3(a)に示す。
このLFIは、格子状に配置されたM×N個のサブレンズSL(マイクロレンズ)のそれぞれに対応する画像(サブ画像S、S11〜SMN)から構成されている。例えば、左上のサブ画像S11は、被写体OBを左上から撮影した画像に相当し、右下のサブ画像SMNは被写体OBを右下から撮影した画像に相当する。
With the above-described configuration, the imaging unit 10 captures a light field image (LFI) including information on all light rays that pass through the light field.
FIG. 3A shows an example of the LFI obtained by shooting the block-shaped subject OB.
This LFI is composed of images (sub-images S, S 11 to S MN ) corresponding to each of M × N sub-lenses SL (microlenses) arranged in a grid pattern. For example, the upper left sub-image S 11 corresponds to an image obtained by photographing the object OB from the upper left, the sub-image S MN the lower right corresponds to an image obtained by photographing the object OB from the lower right.

第i行のサブ画像(横の一列のサブ画像)Si1〜SiNは、メインレンズMLが結像した像を、サブレンズアレイSLAの第i行の横に並んだサブレンズSLで結像したステレオ画像に相当する。同様に、第j列のサブ画像(縦の一列のサブ画像)S1j〜SMjは、メインレンズMLが結像した像を、サブレンズアレイSLA(マイクロレンズアレイ)の第j列の縦に並んだサブレンズSLで撮影したステレオ画像に相当する。
デジタルカメラ1は、図(b)に示すように、LFIから本画像として被写体を再構成した再構成画像(RI)を生成する。
なお、本実施形態では各サブ画像Sはグレースケール画像であり、サブ画像を構成する各画素は画素値(スカラー値)を持つ。
The i-th row sub-images (horizontal row sub-images) S i1 to S iN form images formed by the main lens ML by the sub-lens SL arranged side by side in the i-th row of the sub-lens array SLA. It corresponds to a stereo image. Similarly, the sub-images in the j-th column (vertical sub-images) S 1j to S Mj are images formed by the main lens ML in the vertical direction in the j-th column of the sub-lens array SLA (microlens array). This corresponds to a stereo image taken with the sub lenses SL arranged side by side.
Digital camera 1, as shown in FIG. 3 (b), to generate a reconstructed image (RI) reconstructed a subject as the image from the LFI.
In the present embodiment, each sub image S is a gray scale image, and each pixel constituting the sub image has a pixel value (scalar value).

図1に示す情報処理部20は、物理的にはCPU(Central Processing Unit)と、RAM(Random Access Memory)と、内部バスと、I/Oポートと、から構成され、画像処理部210、画像再構成装置30、撮像制御部220、として機能する。   The information processing unit 20 shown in FIG. 1 is physically composed of a CPU (Central Processing Unit), a RAM (Random Access Memory), an internal bus, and an I / O port. It functions as the reconstruction device 30 and the imaging control unit 220.

画像処理部210は、イメージセンサ120から電気信号を取得し、取得した電気信号を記憶部40の撮像設定記憶部410が記憶する撮像設定情報に基づいて画像データに変換する。画像処理部210は、画像データと、撮像設定情報に所定の情報を加えた撮影設定情報と、を画像再構成装置30に伝達する。   The image processing unit 210 acquires an electrical signal from the image sensor 120 and converts the acquired electrical signal into image data based on imaging setting information stored in the imaging setting storage unit 410 of the storage unit 40. The image processing unit 210 transmits the image data and shooting setting information obtained by adding predetermined information to the shooting setting information to the image reconstruction device 30.

撮像設定記憶部410が記憶する撮像設定情報については後述する。   The imaging setting information stored in the imaging setting storage unit 410 will be described later.

画像再構成装置30は、画像処理部210から伝達されたLFIを用いて再構成画像を生成する。画像再構成装置30が再構成画像を生成する処理については後述する。
画像再構成装置30は、生成した再構成画像を記憶部40の画像記憶部420に記憶する。
The image reconstruction device 30 generates a reconstructed image using the LFI transmitted from the image processing unit 210. The process in which the image reconstruction device 30 generates a reconstructed image will be described later.
The image reconstruction device 30 stores the generated reconstructed image in the image storage unit 420 of the storage unit 40.

撮像制御部220は、記憶部40の撮像設定記憶部410に記憶された撮像設定情報に基づいて撮像部10を制御し、撮像部10を用いて被写体OBを撮影する。   The imaging control unit 220 controls the imaging unit 10 based on the imaging setting information stored in the imaging setting storage unit 410 of the storage unit 40 and images the subject OB using the imaging unit 10.

記憶部40は、RAM(Random−Access Memory)等から構成される主記憶装置と、フラッシュメモリ、ハードディスク、等の不揮発性メモリから構成される外部記憶装置と、から構成される。
主記憶装置は外部記憶装置に記憶されている制御プログラムや情報をロードし、情報処理部20の作業領域として用いられる。
外部記憶装置は、後述する処理を情報処理部20に行わせるための制御プログラムと情報とをあらかじめ記憶し、これらの制御プログラムや情報を情報処理部20の指示に従って主記憶装置に伝達する。また、情報処理部20の指示に従って、情報処理部20の処理に基づく情報とインターフェース部50から伝達された情報とを記憶する。
The storage unit 40 includes a main storage device including a RAM (Random-Access Memory) and the like, and an external storage device including a nonvolatile memory such as a flash memory and a hard disk.
The main storage device loads control programs and information stored in the external storage device and is used as a work area of the information processing unit 20.
The external storage device stores in advance a control program and information for causing the information processing unit 20 to perform processing to be described later, and transmits these control program and information to the main storage device in accordance with instructions from the information processing unit 20. Further, in accordance with an instruction from the information processing unit 20, information based on the processing of the information processing unit 20 and information transmitted from the interface unit 50 are stored.

記憶部40は、機能的には、撮像設定記憶部410と、画像記憶部420と、から構成される。   The storage unit 40 is functionally composed of an imaging setting storage unit 410 and an image storage unit 420.

撮像設定記憶部410は、撮像設定情報を記憶する。撮像設定情報は、撮像時に変化しうる撮像パラメータとしてメインレンズMLとサブレンズアレイSLAとの距離、メインレンズの焦点距離fML、露光時間を特定する情報、F値、シャッタ速度、等を含む。
撮像設定記憶部410は、撮像パラメータを撮像制御部220に伝達する。
また、撮像設定記憶部410は、撮像部10の撮像設定情報を画像処理部210に伝達する。
The imaging setting storage unit 410 stores imaging setting information. The imaging setting information includes a distance between the main lens ML and the sub lens array SLA, a focal length f ML of the main lens, information for specifying an exposure time, an F value, a shutter speed, and the like as imaging parameters that can change during imaging.
The imaging setting storage unit 410 transmits imaging parameters to the imaging control unit 220.
In addition, the imaging setting storage unit 410 transmits imaging setting information of the imaging unit 10 to the image processing unit 210.

画像記憶部420は、画像再構成装置30が再構成した画像を記憶する。画像記憶部420は、インターフェース部50のI/O部510と表示部520とに、記憶した画像を伝達する。   The image storage unit 420 stores the image reconstructed by the image reconstruction device 30. The image storage unit 420 transmits the stored image to the I / O unit 510 and the display unit 520 of the interface unit 50.

インターフェース部(図ではI/F部と記述する)50は、デジタルカメラ1とその使用者(ユーザ)あるいは外部装置とのインターフェースに係る構成であり、I/O部510と、表示部520と、操作部530と、から構成される。   An interface unit (described as I / F unit in the figure) 50 is a configuration relating to an interface between the digital camera 1 and its user (user) or an external device, and includes an I / O unit 510, a display unit 520, And an operation unit 530.

I/O部(Input/Output部)510は、物理的にはUSB(Universal Serial Bus)コネクタやビデオ出力端子と、入出力制御部と、から構成される。I/O部510は記憶部40に記憶された情報を外部のコンピュータに出力し、外部から伝達された情報を記憶部40に伝達する。   The I / O unit (Input / Output unit) 510 is physically composed of a USB (Universal Serial Bus) connector, a video output terminal, and an input / output control unit. The I / O unit 510 outputs the information stored in the storage unit 40 to an external computer, and transmits the information transmitted from the outside to the storage unit 40.

表示部520は、液晶表示装置や有機EL(Electro Luminescence)ディスプレイ等から構成され、撮像設定記憶部410に記憶される撮像パラメータを入力するための画面や、デジタルカメラ1を操作するための画面を表示する。また、表示部520は、画像記憶部420に記憶された画像を表示する。   The display unit 520 includes a liquid crystal display device, an organic EL (Electro Luminescence) display, and the like, and has a screen for inputting imaging parameters stored in the imaging setting storage unit 410 and a screen for operating the digital camera 1. indicate. In addition, the display unit 520 displays an image stored in the image storage unit 420.

操作部530は、例えばデジタルカメラ1に備えられた各種ボタンや表示部520に備えられたタッチパネルと、各種ボタンやタッチパネルに行われた操作の情報を検出して記憶部40と情報処理部20とに伝達する伝達部を含み、ユーザ操作の情報を記憶部40や情報処理部20に伝達する。   The operation unit 530 detects, for example, various buttons provided in the digital camera 1 and a touch panel provided in the display unit 520, information on operations performed on the various buttons and the touch panel, and the storage unit 40, the information processing unit 20, and the like. The information on the user operation is transmitted to the storage unit 40 and the information processing unit 20.

デジタルカメラ1は、図3(b)に示すように、LFIを撮影し、LFIから再構成した再構成画像RIを生成して出力する。   As shown in FIG. 3B, the digital camera 1 captures an LFI, generates a reconstructed image RI reconstructed from the LFI, and outputs the reconstructed image RI.

次に、画像再構成装置30の構成について、図4を参照して説明する。
画像再構成装置30は、図4(a)に示すように情報処理部31aと、主記憶部32と、外部記憶部33と、操作部34と、表示部35と、入出力部36と、内部バス37と、から構成される。
Next, the configuration of the image reconstruction device 30 will be described with reference to FIG.
As shown in FIG. 4A, the image reconstruction device 30 includes an information processing unit 31a, a main storage unit 32, an external storage unit 33, an operation unit 34, a display unit 35, an input / output unit 36, And an internal bus 37.

情報処理部31aは、CPU(Central Processing Unit)と、RAM(Random Access Memory)から構成される。   The information processing unit 31a includes a CPU (Central Processing Unit) and a RAM (Random Access Memory).

主記憶部32は、記憶部40の主記憶装置と同様の物理構成を持つ。外部記憶部33は、記憶部40の外部記憶装置と同様の物理構成を持ち、プログラム38を記憶している。操作部34は、操作部530と同様の物理構成を持つ。表示部35は、表示部520と同様の物理構成を持つ。入出力部36は、I/O部510と同様の物理構成を持つ。内部バス37は、情報処理部31aと、主記憶部32と、外部記憶部33と、操作部34と、表示部35と、入出力部36と、を接続する。   The main storage unit 32 has the same physical configuration as the main storage device of the storage unit 40. The external storage unit 33 has the same physical configuration as the external storage device of the storage unit 40 and stores a program 38. The operation unit 34 has the same physical configuration as the operation unit 530. The display unit 35 has the same physical configuration as the display unit 520. The input / output unit 36 has the same physical configuration as the I / O unit 510. The internal bus 37 connects the information processing unit 31a, the main storage unit 32, the external storage unit 33, the operation unit 34, the display unit 35, and the input / output unit 36.

情報処理部31aと、主記憶部32と、外部記憶部33と、操作部34と、表示部35と、入出力部36と、内部バス37と、はデジタルカメラ1の情報処理部20の内部回路と、記憶部40と、インターフェース部50と、によって実現される機能ブロックであってもよい。   The information processing unit 31a, the main storage unit 32, the external storage unit 33, the operation unit 34, the display unit 35, the input / output unit 36, and the internal bus 37 are internal to the information processing unit 20 of the digital camera 1. It may be a functional block realized by a circuit, the storage unit 40, and the interface unit 50.

画像再構成装置30は、外部記憶部33に記憶されたプログラム38及びデータを主記憶部32にコピーして、情報処理部31aが、主記憶部32を使用してプログラム38を実行することにより、後述する画像を再構成するための処理を実行する。   The image reconstruction device 30 copies the program 38 and data stored in the external storage unit 33 to the main storage unit 32, and the information processing unit 31 a uses the main storage unit 32 to execute the program 38. Then, processing for reconstructing an image to be described later is executed.

画像再構成装置30は、上記のような物理構成により、図4(b)に示すように、I/O部300と、記憶部310と、情報処理部320と、として機能する。   The image reconstruction device 30 functions as an I / O unit 300, a storage unit 310, and an information processing unit 320 as shown in FIG.

I/O部300は、ユーザの操作を受け付ける操作部3010と、画像処理部210から、LFIを取得する画像取得部3030と、そのLFIを取得したときの撮影設定情報を取得する撮影設定取得部3020と、LFIから再構成した画像を出力する出力部3040と、から構成される。
撮影設定情報は、撮像設定情報に含まれる撮像パラメータ(メインレンズMLとサブレンズアレイSLAとの距離、メインレンズの焦点距離fML、露光時間を特定する情報、F値、シャッタ速度)に加え、既存値としてメインレンズの有効径EDと、サブレンズアレイSLAを構成する各サブレンズSLの位置情報と、サブレンズアレイSLAとイメージセンサ120の撮像面IEとの距離とを含む。また、メインレンズMLからサブレンズアレイSLAまでの距離c1、サブレンズアレイSLAから撮像素子の表面(撮像面IE)までの距離c2、各サブレンズの径、各撮像素子のサブレンズに対する相対位置、等の情報を含む。
The I / O unit 300 includes an operation unit 3010 that receives a user operation, an image acquisition unit 3030 that acquires an LFI from the image processing unit 210, and a shooting setting acquisition unit that acquires shooting setting information when the LFI is acquired. 3020 and an output unit 3040 that outputs an image reconstructed from the LFI.
In addition to the imaging parameters (the distance between the main lens ML and the sub-lens array SLA, the focal length f ML of the main lens, the information specifying the exposure time, the F value, and the shutter speed), the shooting setting information includes: The existing values include the effective diameter ED of the main lens, the position information of each sub lens SL constituting the sub lens array SLA, and the distance between the sub lens array SLA and the imaging surface IE of the image sensor 120. Further, a distance c1 from the main lens ML to the sub lens array SLA, a distance c2 from the sub lens array SLA to the surface of the image sensor (imaging surface IE), a diameter of each sub lens, a relative position of each image sensor to the sub lens, Information.

記憶部310は、再構成設定記憶部3110と、MLBテーブル記憶部3120と、再構成画像記憶部3130と、から構成される。   The storage unit 310 includes a reconstruction setting storage unit 3110, an MLB table storage unit 3120, and a reconstructed image storage unit 3130.

再構成設定記憶部3110は、操作部3010を用いてユーザが入力する、画像を再構成するための再構成設定情報を記憶する。再構成設定情報は、再構成処理の具体的内容を示す情報と再構成パラメータとから構成される。
ここでは、LFIをリフォーカスした画像を再構成する場合について説明する。このとき、再構成設定情報はリフォーカスする旨の情報と、新たな画像のフォーカス点とメインレンズMLとの距離を特定する情報と、を含む。
The reconstruction setting storage unit 3110 stores reconstruction setting information for reconstructing an image input by the user using the operation unit 3010. The reconfiguration setting information includes information indicating the specific contents of the reconfiguration process and reconfiguration parameters.
Here, a case where an image refocused with LFI is reconstructed will be described. At this time, the reconstruction setting information includes information for refocusing and information for specifying the distance between the focus point of the new image and the main lens ML.

MLBテーブル記憶部3120は、画像を再構成するに当たって、サブレンズSL毎に適応される重みWMLを指定するテーブルであるMLBテーブルを記憶する。MLBテーブル記憶部3120が記憶するMLBテーブルについては後述する。 When reconstructing an image, the MLB table storage unit 3120 stores an MLB table that is a table for designating a weight W ML to be applied to each sub lens SL. The MLB table stored in the MLB table storage unit 3120 will be described later.

再構成画像記憶部3130は、生成途中の再構成画像を一時記憶する作業領域であり、また情報処理部320が生成した再構成画像を記憶する。   The reconstructed image storage unit 3130 is a work area for temporarily storing a reconstructed image being generated, and stores the reconstructed image generated by the information processing unit 320.

情報処理部320は、再構成設定記憶部3110に記憶された再構成設定に合致する再構成画像を、画像取得部3030が取得したLFIと、撮影設定取得部3020が取得した撮影設定情報と、MLBテーブル記憶部3120が記憶するMLBテーブルと、を用いて生成する。情報処理部320はこのような処理を実行するために、原型定義部3210と、注目再構成画素選択部3220と、到達点取得部3230と、MLB重みテーブル取得部3240と、サブレンズ選択部3250と、対応画素特定部3260と、画素値加算部3270と、を含む。   The information processing unit 320 includes the LFI acquired by the image acquisition unit 3030, the imaging setting information acquired by the imaging setting acquisition unit 3020, and the imaging setting information acquired by the imaging setting acquisition unit 3020, and the reconstruction image that matches the reconstruction setting stored in the reconstruction setting storage unit 3110. It is generated using the MLB table stored in the MLB table storage unit 3120. In order to execute such processing, the information processing unit 320 performs a prototype definition unit 3210, a focused reconstruction pixel selection unit 3220, a reaching point acquisition unit 3230, an MLB weight table acquisition unit 3240, and a sub lens selection unit 3250. And a corresponding pixel specifying unit 3260 and a pixel value adding unit 3270.

情報処理部320を構成する各部の機能と、情報処理部320が実行する画像再構成処理の概要を、図4(b)及び図5を参照して説明する。
ここでは、メインレンズMLから距離a1だけ離れた位置に画像をリフォーカスする場合を例にとって説明する。
The function of each unit constituting the information processing unit 320 and the outline of the image reconstruction process executed by the information processing unit 320 will be described with reference to FIGS. 4B and 5.
Here, a case where an image is refocused to a position away from the main lens ML by a distance a1 will be described as an example.

情報処理部320の原型定義部3210は、再構成画像上の仮想的な被写体OBとして、メインレンズMLから距離a1だけ離れたメインレンズMLの光軸に垂直な平面(再構成面RF)に設定する。そして、被写体OBに対応する画像のひな型(原型)を、再構成設定記憶部3110が記憶する再構成設定が指定する解像度に合わせて定義する。原型の中心は光軸OAであるとする。
再構成画像の原型とは、全ての画素値が0(又は未設定)の画像である。
The prototype definition unit 3210 of the information processing unit 320 sets a virtual subject OB on the reconstructed image to a plane (reconstruction plane RF) perpendicular to the optical axis of the main lens ML that is a distance a1 away from the main lens ML. To do. Then, an image template (original) corresponding to the subject OB is defined in accordance with the resolution designated by the reconstruction setting stored in the reconstruction setting storage unit 3110. The center of the prototype is assumed to be the optical axis OA.
A prototype of a reconstructed image is an image in which all pixel values are 0 (or not set).

次に、注目再構成画素選択部3220が、再構成画像を構成する画素(再構成画素)のうち、注目再構成画素(被写体OBの注目部位Pに対応)を順次選択する。   Next, the attention reconstruction pixel selection unit 3220 sequentially selects attention reconstruction pixels (corresponding to the attention site P of the subject OB) among the pixels (reconstruction pixels) constituting the reconstruction image.

さらに、到達点取得部3230が注目部位Pからの主光線がサブレンズアレイSLAに到達する部位(メインレンズブラー中心MLBC)を取得する。この処理は、被写体からレンズを通って光線がどのように投影されるか求める既知の任意の処理であって良いが、ここでは後述する方法を用いる。   Further, the arrival point acquisition unit 3230 acquires a part (main lens blur center MLBC) where the principal ray from the attention part P reaches the sub lens array SLA. This process may be any known process for determining how light rays are projected from the subject through the lens, but here, a method described later is used.

次に、MLB重みテーブル取得部3240がMLBテーブル記憶部3120から、撮影設定情報及びメインレンズブラー中心MLBCの位置に対応するMLB重みテーブルを取得する。
ここで、メインレンズブラー中心MLBCを取得する処理とMLBテーブル記憶部3120が記憶するMLBテーブルの概要を図6及び図7を参照して説明する。
Next, the MLB weight table acquisition unit 3240 acquires the MLB weight table corresponding to the shooting setting information and the position of the main lens blur center MLBC from the MLB table storage unit 3120.
Here, an outline of the processing for acquiring the main lens blur center MLBC and the MLB table stored in the MLB table storage unit 3120 will be described with reference to FIGS.

まず、サブレンズアレイSLA上に投影されたメインレンズブラーMLBの例を図6(a)を参照して説明する。注目部位Pから発せられた主光線がメインレンズMLを通じてサブレンズアレイSLAに達する部位を、図6(a)及び図5で黒丸(●)を用いて示している。この部位をサブレンズ到達点又はメインレンズブラー中心MLBCと呼ぶ。メインレンズブラーMLBは、メインレンズMLの光軸とサブレンズアレイSLAとが垂直に交わる場合には、メインレンズブラー中心MLBCを中心とする、直径がメインレンズブラー径DMLBの円に近似できる。メインレンズブラーMLBは、図6(a)及び図2において網掛けで示した領域である。   First, an example of the main lens blur MLB projected on the sub lens array SLA will be described with reference to FIG. A region where the principal ray emitted from the region of interest P reaches the sub lens array SLA through the main lens ML is indicated by using a black circle (●) in FIGS. This part is called a sub-lens arrival point or a main lens blur center MLBC. When the optical axis of the main lens ML and the sub lens array SLA intersect perpendicularly, the main lens blur MLB can be approximated to a circle having the main lens blur center DMBC and a diameter of the main lens blur MLBL. The main lens blur MLB is a shaded area in FIGS. 6A and 2.

メインレンズブラー径DMLBは、図5を参照すればわかるように、三角形の相似関係により下記式(1)で求めることが出来る。
DMLB=ED・a2/b1…(1)
ここで有効径EDは既知の数値である。未知の数値a2とb1は次のように算出する。
b1は既知の数値a1及びfMLを用い、次の式(2)から算出することが出来る。
As can be seen from FIG. 5, the main lens blur diameter DMLB can be obtained by the following equation (1) based on the similarity of triangles.
DMLB = ED · a2 / b1 (1)
Here, the effective diameter ED is a known numerical value. The unknown numerical values a2 and b1 are calculated as follows.
b1 can be calculated from the following equation (2) using known numerical values a1 and fML .

Figure 0005942428
Figure 0005942428

また、a2は既知の数値c1から、式(2)を用いて算出したb1を減算することで求めることができる。
すなわち、メインレンズブラー径DMLBは、再構成設定が示す再構成面RFとメインレンズMLとの距離a1と、撮影設定情報が示す有効径EDと、メインレンズとサブレンズアレイとの距離c1と、メインレンズの焦点距離fMLによって定まる数である。
Further, a2 can be obtained by subtracting b1 calculated using the equation (2) from the known numerical value c1.
That is, the main lens blur diameter DMLB includes a distance a1 between the reconstruction surface RF and the main lens ML indicated by the reconstruction setting, an effective diameter ED indicated by the imaging setting information, and a distance c1 between the main lens and the sub lens array. This is a number determined by the focal length f ML of the main lens.

到達点取得部3230は、メインレンズブラー中心MLBCの位置(どのサブレンズSL上にあるか、そのサブレンズSL上のどの位置にあるか)を求める。
その具体的な処理については後述する。
The arrival point acquisition unit 3230 obtains the position of the main lens blur center MLBC (which sub-lens SL is located on which sub-lens SL).
Specific processing will be described later.

メインレンズブラー中心MLBCを含むサブレンズSLをサブレンズSL(0,0)とする。サブレンズSL(0,0)を中心に座標系を定義し、Y軸をYML、X軸をXML、とする(図6(a))。
そして、サブレンズSL(0,0)を中心に、Y軸方向にymlX軸方向にxml個だけ移動したサブレンズSLをサブレンズSL(xml,yml)とする。
The sub lens SL including the main lens blur center MLBC is defined as a sub lens SL (0, 0). A coordinate system is defined with the sub lens SL (0, 0) as the center, and the Y axis is Y ML and the X axis is X ML (FIG. 6A ).
A sub lens SL (x ml , y ml ) that has moved by x ml in the y-axis direction and y ml in the Y-axis direction around the sub lens SL (0, 0) is defined as a sub-lens SL (x ml , y ml ).

サブレンズSL(0,0)を拡大し、部分領域SASLに分割した例を図6(b)に示す。図6(b)の例では、横軸をiML、縦軸をjMLとして、左上を原点として5×5の方形に分割している。各部分領域SASLを、SASL(iML,jML)とあらわすとすると、図6(b)でメインレンズブラー中心MLBCが存在する領域(中心領域CA)は、部分領域SASL(2,3)である。このとき(2,3)を中心領域CAの座標(中心座標CP)と表現する。 FIG. 6B shows an example in which the sub lens SL (0, 0) is enlarged and divided into partial areas SASL. In the example of FIG. 6B, the horizontal axis is i ML , the vertical axis is j ML , and the upper left is the origin, which is divided into 5 × 5 squares. If each partial area SASL is expressed as SASL (i ML , j ML ), the area where the main lens blur center MLBC exists (central area CA) in FIG. 6B is the partial area SASL (2, 3). is there. At this time, (2, 3) is expressed as the coordinates of the center area CA (center coordinates CP).

中心座標CPとメインレンズブラー径DMLBが定まると、各サブレンズSL(xml,yml)上でメインレンズブラーMLBが占める面積が定まる。注目部位Pから発せられた光は、メインレンズブラーMLB上にほぼ均等に投影されると近似できる。そのため、メインレンズブラーMLBがあるサブレンズSL上に占める面積は、対応する注目部位Pから発せられた光がそのサブレンズ上にどの程度到達するか、その光の総和に対応すると近することが出来る。
そこで、本実施形態ではそのサブレンズSLに占めるメインレンズブラーMLBの面積を、各サブレンズSLと注目部位Pとの対応の強さを示す係数(重みWML)として定義する。重みWML(サブ画像重み)は、サブレンズSLに対応するサブ画像と、注目部位に対応する再構成画素と、の対応の強さに相当する。各サブレンズSLが略同一の面積を持つ場合、重みWMLはサブレンズ上でメインレンズブラーが占める割合(0から1までの実数)として定義できる。以下、重みWMLは0から1までの実数であるとして説明する。
なお、各サブレンズが異なる面積を持つ場合は、各レンズの位置情報から、そのサブレンズ上でメインレンズブラーMLBが占める面積を重みWMLとすればよい。
When the central coordinate CP and the main lens blur diameter DMLB are determined, the area occupied by the main lens blur MLB on each sub-lens SL (x ml , y ml ) is determined. The light emitted from the site of interest P can be approximated by being projected almost evenly on the main lens blur MLB. Therefore, the area occupied on the sub-lens SL there is a main lens blur MLB is how reached either on the corresponding target sites that sub lens the light emitted from the P, be approximated as corresponding to the sum of the light I can do it.
Therefore, in the present embodiment, the area of the main lens blur MLB occupying the sub lens SL is defined as a coefficient (weight W ML ) indicating the strength of correspondence between each sub lens SL and the target region P. The weight W ML (sub image weight) corresponds to the strength of the correspondence between the sub image corresponding to the sub lens SL and the reconstructed pixel corresponding to the target region. When each sub lens SL has substantially the same area, the weight W ML can be defined as a ratio (a real number from 0 to 1) occupied by the main lens blur on the sub lens. In the following description, it is assumed that the weight W ML is a real number from 0 to 1.
When each sub lens has a different area, the area occupied by the main lens blur MLB on the sub lens may be set as the weight W ML from the position information of each lens.

再構成面RFからメインレンズ中心までの距離a1が、距離b1や距離a2と比べて十分に大きい場合は、注目部位Pの位置(メインレンズMLの光軸からの距離x)に関わらず、メインレンズブラーMLBの形状はメインレンズブラー中心MLBCから見て変化しないものとみなせる。即ち、各サブレンズSLに対応する重みWMLはメインレンズブラー中心MLBCを含むサブレンズSLの絶対的な位置に関わらず、中心座標CPを含むサブレンズからの相対位置によって定まると近似できる。
そこで、本実施形態では再構成面への距離a1を示すインデックスであるパラメータaと、中心座標CP(iML,jML)と、に対応するメインレンズブラーの重みWMLのセットを定義したテーブル(MLBテーブル)を定義し、MLBテーブル記憶部3120に予め記憶する。
When the distance a1 from the reconstruction surface RF to the center of the main lens is sufficiently larger than the distance b1 and the distance a2, the main point is irrespective of the position of the region of interest P (distance x from the optical axis of the main lens ML). It can be considered that the shape of the lens blur MLB does not change when viewed from the center of the main lens blur MLBC. That is, the weight W ML corresponding to each sub-lens SL can be approximated by being determined by the relative position from the sub-lens including the center coordinate CP, regardless of the absolute position of the sub-lens SL including the main lens blur center MLBC.
Therefore, in the present embodiment, a table that defines a set of main lens blur weights W ML corresponding to the parameter a that is an index indicating the distance a1 to the reconstruction surface and the center coordinates CP (i ML , j ML ). (MLB table) is defined and stored in the MLB table storage unit 3120 in advance.

パラメータaは、距離a1(再構成面RFとメインレンズの中心との距離)の所定の範囲を示すインデックスである。例えば、パラメータaは0から7までの整数であり、パラメータaが7であることは、距離a1が無限大〜100mでの距離に、0であることは距離a1が1〜10mまでの距離であるとして設定する。パラメータaと距離a1の対応は、実験によって求められ、予め再構成設定記憶部3110に記憶されている。あるいは、ユーザが任意に指定可能な数値であっても良い。   The parameter a is an index indicating a predetermined range of the distance a1 (the distance between the reconstruction surface RF and the center of the main lens). For example, the parameter a is an integer from 0 to 7, and the parameter a is 7, the distance a1 is infinite to 100 m, and 0 is the distance a1 from 1 to 10 m. Set as there is. The correspondence between the parameter a and the distance a1 is obtained by experiment and is stored in the reconstruction setting storage unit 3110 in advance. Alternatively, it may be a numerical value that can be arbitrarily designated by the user.

MLBテーブルは、図7に示すようにMLBインデックステーブルと、MLB重みテーブルと、から構成される。MLBインデックステーブル(図7(a))は、中心座標CP(iML,jML)及びパラメータaと、これに対応するML重みリストを示すインデックスと、を対応付けて記憶するテーブルである。
図7(a)の例では、パラメータaが1〜NaのNa個の値を取り、中心座標CPが(0,0)〜(4,4)の何れかである場合のそれぞれの場合に対応するMLB重みテーブルを示すインデックス(インデックス#01〜インデックス#NaN)を対応付けて記憶している。
As shown in FIG. 7, the MLB table includes an MLB index table and an MLB weight table. The MLB index table (FIG. 7A) is a table that stores the central coordinates CP (i ML , j ML ) and the parameter a and an index indicating an ML weight list corresponding to the center coordinate CP (i ML , j ML ).
In the example of FIG. 7A, the parameter a takes Na values of 1 to Na, and the case where the center coordinate CP is any one of (0, 0) to (4, 4) corresponds to each case. Indexes (index # 01 to index #NaN) indicating the MLB weight table to be stored are stored in association with each other.

MLB重みテーブルは、そのインデックスが対応するパラメータaの値と、中心座標CPと、について定義できる重みWMLを、考慮すべき相対位置にあるサブレンズSLのそれぞれについて対応付けて記憶している。
図7(b)の例では、MLB重みテーブルは、考慮すべき相対位置にあるサブレンズSL、即ち中心となるサブレンズ(0,0)との相対位置が(+XmlMax,+YmlMax)〜(−XmlMax,−YmlMax)(ここでは(−6,−6)〜(6,6))であるそれぞれのサブレンズSL(xML,yML)について重みWMLを登録したテーブルである。なお、XmlMax及びYmlMaxは予め実験により定められた自然数であり、最大ズームに対応する焦点距離で、設定上可能な最も近い被写体を撮影した場合、すなわち最もメインレンズブラー径が大きくなる場合にメインレンズブラーが覆うサブレンズの数に対応する。
The MLB weight table stores the weight W ML that can be defined for the value of the parameter a corresponding to the index and the center coordinate CP in association with each of the sub-lenses SL at the relative positions to be considered.
In the example of FIG. 7B, the MLB weight table indicates that the relative position with respect to the sub-lens SL at the relative position to be considered, that is, the central sub-lens (0, 0) is (+ X ml Max, + Y ml Max). The weight W ML is registered for each sub lens SL (x ML , y ML ) that is (−X ml Max, −Y ml Max) (here, (−6, −6) to (6, 6)). It is a table. Note that X ml Max and Y ml Max are natural numbers determined in advance by experiment, and when the closest subject that can be set is photographed at the focal length corresponding to the maximum zoom, that is, the main lens blur diameter becomes the largest. This corresponds to the number of sub-lenses covered by the main lens blur.

図7の例では、対象となる中心座標CPが(2,3)であり、再構成設定が示す距離a1が、パラメータa=5に対応する場合、使用されるMLB重みテーブルのインデックスは#kである。   In the example of FIG. 7, when the target center coordinate CP is (2, 3) and the distance a1 indicated by the reconstruction setting corresponds to the parameter a = 5, the index of the MLB weight table used is #k. It is.

MLBテーブルでは、メインレンズブラー中心MLBCから所定の範囲(メインレンズブラー径DMLBに完全に収まる範囲)にあるサブレンズSLについて重みWMLの最大値(ここでは1)が対応づけられる。また、所定の範囲外の位置(メインレンズブラー径DMLBに完全に外れる位置)にあるサブレンズSLについて重みWMLの最小値(ここでは0)が対応付けられる。中間の位置にあるサブレンズについては、中間の値が定義される。このとき、中心座標CPがそのサブレンズよりである場合に、よりメインレンズブラーMLBが占める部分が大きくなるので、より大きい中間値が対応付けられる。
また、再構成面との距離a1が近いほど、メインレンズブラー径DMLBが大きくなるので、より遠いサブレンズSLについて大きい重みWMLが得られる。なお、焦点距離fMLが小さい場合、あるいはメインレンズMLの有効径EDが大きい場合にもメインレンズブラー径DMLBが大きくなるので、その他の条件が同じ場合はより遠いサブレンズSLに大きい重みWMLが対応づけされる。
In the MLB table, the maximum value (here, 1) of the weight W ML is associated with the sub-lens SL that is within a predetermined range (a range that is completely within the main lens blur diameter DMLB) from the main lens blur center MLBC. The minimum value of the weight W ML for sub-lenses SL in a position outside a predetermined range (the main lens fully disengaged position to a blur diameter DMLB) (in this case 0) is associated. For sub-lenses in the middle position, a middle value is defined. At this time, when the center coordinate CP is closer to the sub lens, the portion occupied by the main lens blur MLB becomes larger, and therefore a larger intermediate value is associated.
Further, as the distance a1 to the reconstruction surface is closer, the main lens blur diameter DMLB becomes larger, so that a larger weight W ML is obtained for the farther sub-lens SL. Note that the main lens blur diameter DMLB also increases when the focal length f ML is small, or when the effective diameter ED of the main lens ML is large. Therefore, if the other conditions are the same, a larger weight W ML for the far sub lens SL. Are associated.

MLB重みテーブル取得部3240は、距離a1に合致するパラメータaと、到達点取得部3230が算出した中心座標CP(iML,jML)と、に合致するMLB重みテーブルのインデックスをMLBインデックステーブルから取得する。そして、そのインデックスが示すMLB重みテーブルをMLBテーブル記憶部3120から取得する。 The MLB weight table acquisition unit 3240 obtains, from the MLB index table, the index of the MLB weight table that matches the parameter a that matches the distance a1 and the center coordinates CP (i ML , j ML ) calculated by the arrival point acquisition unit 3230. get. Then, the MLB weight table indicated by the index is acquired from the MLB table storage unit 3120.

そして、サブレンズ選択部3250がサブレンズSL(+XmlMax,+YmlMax)〜(−XmlMax,−YmlMax)までのうち一つを注目サブレンズとして選択する。 Then, the sub lens selection unit 3250 selects one of the sub lenses SL (+ X ml Max, + Y ml Max) to (−X ml Max, −Y ml Max) as the target sub lens.

そして、対応画素特定部3260が、注目部位Pから注目サブレンズを通って撮像面IE上に到達する部位(LFI上の対応画素に対応)を特定する。この処理は、既知の任意の光線追跡方法を用いて実行されて良いが、ここでは後述する方法を用いるとする。   Then, the corresponding pixel specifying unit 3260 specifies a part (corresponding to a corresponding pixel on the LFI) that reaches the imaging surface IE from the target part P through the target sub lens. This process may be executed using any known ray tracing method, but here, a method described later is used.

サブレンズ選択部3250と対応画素特定部3260とは、サブレンズSL(+XmlMax,+YmlMax)〜(−XmlMax,−YmlMax)を順次注目サブレンズとし、それらのLFI上の対応画素と、MLB重みテーブルが定義するそのサブレンズに対応する重みWMLを抽出する。 The sub-lens selection unit 3250 and the corresponding pixel specifying unit 3260 sequentially set the sub-lens SL (+ X ml Max, + Y ml Max) to (−X ml Max, −Y ml Max) as the sub-lenses of interest, and on the LFI thereof. The corresponding pixel and the weight W ML corresponding to the sub lens defined by the MLB weight table are extracted.

サブレンズSL(+XmlMax,+YmlMax)〜(−XmlMax,−YmlMax)の全てについて対応画素を抽出し終えると、画素値加算部3270が各サブレンズの対応画素の画素値と、各サブレンズに対応する重みWMLと、乗算して加算平均し、注目部位Pに対応する再構成画素の画素値とする。 When the corresponding pixels have been extracted for all of the sub lenses SL (+ X ml Max, + Y ml Max) to (−X ml Max, −Y ml Max), the pixel value adding unit 3270 has the pixel value of the corresponding pixel of each sub lens. Then, the weight WML corresponding to each sub lens is multiplied and averaged to obtain the pixel value of the reconstructed pixel corresponding to the target region P.

画素値加算部3270は、注目再構成画素の画素値を決定すると、その画素値を一旦再構成画素記憶部3130に記憶する。そして、注目再構成画素選択部3220から画素値加算部3270が全ての再構成画素を順次注目再構成画素として画素値を決定し、再構成画像を生成する。   When the pixel value adding unit 3270 determines the pixel value of the reconstructed pixel of interest, the pixel value is temporarily stored in the reconstructed pixel storage unit 3130. Then, the reconstructed pixel selecting unit 3220 to the pixel value adding unit 3270 sequentially determines all reconstructed pixels as the reconstructed pixels of interest, and generates a reconstructed image.

次に、デジタルカメラ1及び画像再構成装置30が実行する処理について、フローチャート(図8〜図10)を参照して説明する。
ユーザが撮像部10を用いて被写体OBを撮影すると、デジタルカメラ1は図8に示す画像出力処理を開始する。
Next, processing executed by the digital camera 1 and the image reconstruction device 30 will be described with reference to flowcharts (FIGS. 8 to 10).
When the user photographs the subject OB using the imaging unit 10, the digital camera 1 starts the image output process shown in FIG.

画像出力処理では、まずデジタルカメラ1の画像処理部210が撮像部10から情報を受け取り、LFIを生成する。画像処理部210は取得したLFIを画像再構成装置30の画像取得部3030に伝達する。こうして、画像取得部3030はLFIを取得する(ステップS101)。   In the image output process, first, the image processing unit 210 of the digital camera 1 receives information from the imaging unit 10 and generates an LFI. The image processing unit 210 transmits the acquired LFI to the image acquisition unit 3030 of the image reconstruction device 30. Thus, the image acquisition unit 3030 acquires the LFI (step S101).

画像処理部210はさらに撮像設定記憶部410から、そのライトフィールド画像を撮影した撮像設定情報(焦点距離fMLを含む)を取得する。画像処理部210は、取得した撮像設定情報に撮像部10の物理構成等の情報を加えて撮影設定情報として、画像再構成装置30の撮影設定取得部3020に伝達する。こうして、撮影設定取得部3020は撮影設定情報を取得する(ステップS102)。 The image processing unit 210 further acquires imaging setting information (including the focal length f ML ) obtained by capturing the light field image from the imaging setting storage unit 410. The image processing unit 210 adds information such as the physical configuration of the imaging unit 10 to the acquired imaging setting information and transmits the information to the imaging setting acquisition unit 3020 of the image reconstruction device 30 as imaging setting information. Thus, the shooting setting acquisition unit 3020 acquires shooting setting information (step S102).

次に、画像再構成装置30が図9に示す画像再構成処理を開始する(ステップS103)。画像再構成処理では、まず原型定義部3210が再構成設定記憶部3110に記憶されている再構成画像の生成に用いるパラメータを取得する(ステップS201)。ここでは、再構成画像のメインレンズMLからの再構成面RFとの距離a1、及び再構成画像の画素数および各画素が対応する部位(メインレンズの光軸と再構成面RF上の交点である再構成中心との相対位置)、及びリフォーカスした再構成画像を生成することを指示する情報、等が再構成設定に含まれる。   Next, the image reconstruction device 30 starts the image reconstruction process shown in FIG. 9 (step S103). In the image reconstruction process, first, the prototype defining unit 3210 acquires parameters used for generating a reconstructed image stored in the reconstruction setting storage unit 3110 (step S201). Here, the distance a1 of the reconstructed image from the main lens ML to the reconstructed surface RF, the number of pixels in the reconstructed image, and the part to which each pixel corresponds (at the intersection on the main lens optical axis and the reconstructed surface RF). The reconfiguration setting includes information for instructing to generate a refocused reconstructed image, and the like.

次に、再構成設定に基づいて、原型定義部3210がメインレンズMLの光学中心から距離a1だけ離れた位置にある再構成面RF上に再構成画像の原型(再構成画素の画素値がすべて0の画像)を定義する(ステップS202)。   Next, based on the reconstruction setting, the prototype definition unit 3210 has the prototype of the reconstructed image (the pixel values of the reconstruction pixels are all on the reconstruction plane RF located at a distance a1 from the optical center of the main lens ML). 0 image) is defined (step S202).

次に、カウンタ変数をiとして、注目再構成画素選択部3220がi番目の再構成画素(図5の注目部位Pに対応)に注目する(ステップS203)。   Next, with the counter variable set to i, the focused reconstruction pixel selection unit 3220 focuses on the i-th reconstruction pixel (corresponding to the focused region P in FIG. 5) (step S203).

そして、到達点取得部3230が、注目再構成画素からメインレンズMLの光学中心を通ってサブレンズアレイSLAに到達する点(メインレンズブラー中心MLBC)の位置を特定する(ステップS204)。   Then, the arrival point acquisition unit 3230 specifies the position of the point (main lens blur center MLBC) that reaches the sub lens array SLA from the target reconstruction pixel through the optical center of the main lens ML (step S204).

具体的には、メインレンズブラー中心MLBCは、再構成面RFと光軸との交点(再構成中心)と注目部位Pとのx軸方向の距離をxとし、メインレンズMLの光軸とメインレンズブラー中心MLBCのx軸方向の距離d2を次の式(3)により算出する。
d2=x・c1/a1…(3)
y軸についても同様に計算できる。このようにして、注目部位Pの位置からマイクロレンズブラー中心MLBCの位置を特定する。
Specifically, in the main lens blur center MLBC, the distance in the x-axis direction between the intersection (reconstruction center) of the reconstruction surface RF and the optical axis and the target region P is x, and the optical axis of the main lens ML and the main The distance d2 in the x-axis direction of the lens blur center MLBC is calculated by the following equation (3).
d2 = x · c1 / a1 (3)
The same calculation can be performed for the y-axis. In this way, the position of the microlens blur center MLBC is specified from the position of the attention site P.

次に、メインレンズブラー中心MLBCがどのサブレンズ上にあるかを求める。またそのサブレンズSL上のどこにあるかを、中心座標CP(iML,jML)として、撮影設定情報が示す各サブレンズの位置及び大きさの情報から求める。 Next, on which sub-lens the main lens blur center MLBC is located. Further, the position on the sub lens SL is obtained from the position and size information of each sub lens indicated by the shooting setting information as the center coordinates CP (i ML , j ML ).

そして、MLB重みテーブル取得部3240が、MLBテーブル記憶部3120に記憶されたMLBインデックステーブルが示す、中心座標CP(iML,jML)と、再構成設定が示す距離a1に対応するパラメータaと、に合致するMLB重みテーブルを取得する(ステップS205)。 Then, the MLB weight table acquisition unit 3240 displays the center coordinate CP (i ML , j ML ) indicated by the MLB index table stored in the MLB table storage unit 3120, and the parameter a corresponding to the distance a1 indicated by the reconstruction setting, , MLB weight table matching the above is acquired (step S205).

そして、サブレンズ選択部3250から画素値加算部3270が、MLB重みテーブルを用いて注目再構成画素の画素値を決定する処理(画素値加算処理、ここでは画素値加算処理1)を実行する(ステップS206)。   Then, the sub lens selection unit 3250 to the pixel value addition unit 3270 execute a process of determining the pixel value of the reconstructed pixel of interest using the MLB weight table (pixel value addition process, here, the pixel value addition process 1) ( Step S206).

ステップS206で実行される画素値加算処理(画素値加算処理1)を、図10を参照して説明する。画素値加算処理1では、まずサブレンズ選択部3250が、メインレンズブラーMLBを含むサブレンズSL(MLB重みテーブルの重みが0でないサブレンズ)を注目再構成画素に対応するサブレンズ(対応サブレンズ)として抽出する(ステップS301)。 The pixel value addition process (pixel value addition process 1) executed in step S206 will be described with reference to FIG. In the pixel value addition processing 1, first, the sub-lens selection unit 3250 selects a sub-lens (corresponding sub-lens) corresponding to a reconstructed pixel with a sub-lens SL including a main lens blur MLB (sub-lens whose MLB weight table has a non-zero weight). ) ( Step S301).

次に、サブレンズ選択部3250が、jをカウンタ変数として抽出したサブレンズのうちj番目の対応サブレンズを注目サブレンズとして選択する(ステップS302)。 Next, the sub-lens selection unit 3250 selects the j-th corresponding sub-lens among the sub-lenses extracted using j as a counter variable as a target sub-lens ( step S302).

そして、メインレンズブラー中心MLBCを含むレンズを(0,0)としたときのとの注目サブレンズの相対位置(XML,YML)に対して定義された重みWMLをMLB重みテーブルから取得する(ステップS303)。 Then, the weight W ML defined for the relative position (X ML , Y ML ) of the target sub-lens when the lens including the main lens blur center MLBC is (0, 0) is acquired from the MLB weight table. (Step S303).

次に、対応画素特定部3260が、注目サブレンズに対応するサブ画像を構成する画素のうち、注目再構成画素に対応する画素(対応サブ画素、到達点PEに対応する画素)を抽出し、その画素値を取得する(ステップS304)。   Next, the corresponding pixel specifying unit 3260 extracts a pixel corresponding to the target reconstruction pixel (corresponding sub pixel, pixel corresponding to the reaching point PE) from among the pixels constituting the sub image corresponding to the target sub lens, The pixel value is acquired (step S304).

具体的には、到達点PEを以下の手順で算出する。
被写体距離a1と、距離b1を以下の式(4)に用いて、注目部位PがメインレンズMLを通して結像する点(結像点PF)と光軸OAとの距離x’を算出する
x’=x・b1/a1…(4)
さらに、光軸OAからj番目のサブレンズSLの主点までの距離d、上記の式(4)を用いて算出された距離x’、サブレンズアレイSLAから撮像面IEまでの距離c2、及び結像面MIPからサブレンズアレイSLAまでの距離a2を以下の式(5)に用いて、到達点PEと光軸OAとの距離x’’を算出する。
Specifically, the reaching point PE is calculated by the following procedure.
Using the subject distance a1 and the distance b1 in the following formula (4), the distance x ′ between the point (imaging point PF) at which the site of interest P forms an image through the main lens ML and the optical axis OA is calculated x ′ = X · b1 / a1 (4)
Furthermore, the distance d from the optical axis OA to the principal point of the j-th sub lens SL, the distance x ′ calculated using the above equation (4), the distance c2 from the sub lens array SLA to the imaging surface IE, and A distance x ″ between the arrival point PE and the optical axis OA is calculated by using the distance a2 from the imaging plane MIP to the sub lens array SLA in the following equation (5).

Figure 0005942428
Figure 0005942428

Y軸方向にも同様に計算し、到達点PEの位置を特定する。そして、撮像設定情報が示す撮像素子の位置情報を用いて、到達点PEに位置する対応サブ画素を特定し、その画素値を取得する。なお、ここでは想定される再構成面との距離a1のいずれに対しても、対応サブ画素は一画素乃至一画素と同一視できるようにサブレンズアレイSLAと撮像面IEとの位置を調節しているものとする。 The same calculation is performed in the Y-axis direction, and the position of the reaching point PE is specified. Then, using the position information of the imaging device shown imaging setting information to identify the corresponding picture element in a destination point PE, and obtains the image pixel value. In this case, the position of the sub lens array SLA and the imaging surface IE is adjusted so that the corresponding sub pixel can be identified as one pixel to one pixel for any of the assumed distances a1 from the reconstruction surface. It shall be.

次に、ステップS301で抽出した全対応サブレンズについて、対応サブ画素を抽出する処理が実行済みか判別する(ステップS305)。
未処理のサブレンズSLが存在すると判別すると(ステップS305;NO)、カウンタ変数jをインクリメントし(ステップS306)、次のサブレンズを注目サブレンズとしてステップS302から処理を繰り返す。
Next, it is determined whether or not the processing for extracting the corresponding sub-pixel has been executed for all the corresponding sub-lenses extracted in step S301 (step S305).
If it is determined that there is an unprocessed sub lens SL (step S305; NO), the counter variable j is incremented (step S306), and the process is repeated from step S302 with the next sub lens as the target sub lens.

一方、全ての対応サブレンズについて対応サブ画素を抽出したと判別すると(ステップS305;YES)、画素値加算部3270が、各対応サブ画素の値と、その対応サブ画素に応じた対応サブレンズに定義された重みWMLとを用いて重み加算平均値を算出して、注目再構成画素の画素値とする(ステップS307)。
そして、画素値加算処理1は終了する。
On the other hand, if it is determined that the corresponding sub-pixel has been extracted for all the corresponding sub-lenses (step S305; YES), the pixel value adding unit 3270 determines the value of each corresponding sub-pixel and the corresponding sub-lens corresponding to the corresponding sub-pixel. The weighted average value is calculated using the defined weight W ML and is set as the pixel value of the reconstructed pixel of interest (step S307).
Then, the pixel value addition process 1 ends.

図9に戻って、画素値加算処理によって注目再構成画素の画素値が決定すると、次に全ての再構成画素について画素値を決定する処理が実行されたか判別する(ステップS207)。
全ての再構成画素について画素値が決定されていないと判別すると(ステップS207;NO)、カウンタ変数iをインクリメントし(ステップS208)、次の注目再構成画素についてステップS202から処理を繰り返す。
一方、全ての再構成画素について画素値を決定したと判別すると(ステップS207;YES)、出力部3040が再構成画素を画像記憶部420に出力して(ステップS209)画像再構成処理は終了する。
Returning to FIG. 9, when the pixel value of the target reconstructed pixel is determined by the pixel value addition process, it is determined whether or not the process of determining the pixel value for all the reconstructed pixels has been executed (step S207).
If it is determined that pixel values have not been determined for all the reconstructed pixels (step S207; NO), the counter variable i is incremented (step S208), and the process is repeated from step S202 for the next reconstructed pixel of interest.
On the other hand, if it is determined that the pixel values have been determined for all the reconstructed pixels (step S207; YES), the output unit 3040 outputs the reconstructed pixels to the image storage unit 420 (step S209), and the image reconstruction process ends. .

図8に戻って、画像再構成処理(ステップS103)で再構成画像の生成が終わると、デジタルカメラ1は画像記憶部420に記憶された再構成画像を表示部520に出力する(ステップS104)。あるいは、I/O部510を用いて外部装置に出力しても良い。
そして、デジタルカメラ1及び画像再構成装置30は画像出力処理を終了する。
Returning to FIG. 8, when the generation of the reconstructed image is completed in the image reconstruction process (step S103), the digital camera 1 outputs the reconstructed image stored in the image storage unit 420 to the display unit 520 (step S104). . Alternatively, it may be output to an external device using the I / O unit 510.
Then, the digital camera 1 and the image reconstruction device 30 end the image output process.

以上説明したとおり、本実施形態の画像再構成装置30によれば、撮影時の設定(撮影パラメータ)に応じたMLB重みテーブルを用いて再構成画像を生成する。そのため、少ない計算量で高い精度で再構成した、画質の高い再構成画像を生成できる。   As described above, according to the image reconstruction device 30 of the present embodiment, a reconstructed image is generated using the MLB weight table corresponding to the setting (shooting parameters) at the time of shooting. Therefore, it is possible to generate a reconstructed image with high image quality that is reconstructed with high accuracy with a small amount of calculation.

このとき、複数のMLB重みテーブルからメインレンズの焦点距離応じたテーブルを用いて画素値を決定するので、撮影時のメインレンズの焦点距離を反映した精度の高い再構成画像を少ない計算量で生成できる。 At this time, since the pixel value is determined from a plurality of MLB weight tables using a table corresponding to the focal length of the main lens, a highly accurate reconstructed image reflecting the focal length of the main lens at the time of shooting can be obtained with a small amount of calculation. Can be generated.

また、再構成面とメインレンズとの距離に応じたパラメータaに応じたMLB重みテーブルを用いて画素値を決定するので、再構成面の位置に合致する重みにより精度の高い再構成画像を少ない計算量で生成できる。   Further, since the pixel value is determined using the MLB weight table corresponding to the parameter a corresponding to the distance between the reconstruction surface and the main lens, there are few reconstructed images with high accuracy due to the weight matching the position of the reconstruction surface. Can be generated with computational complexity.

さらに、中心座標CP(メインレンズ中心MLBCに対応)に応じたMLB重みテーブルを用いて画素値を加算平均する。そのため、再構成画素のそれぞれから発した光が、サブレンズに到達した位置に応じたより精度の高い再構成画像を少ない計算量で生成できる。   Further, the pixel values are averaged using an MLB weight table corresponding to the center coordinates CP (corresponding to the main lens center MLBC). Therefore, it is possible to generate a reconstructed image with higher accuracy according to the position where the light emitted from each of the reconstructed pixels reaches the sub lens with a small amount of calculation.

これらのパラメータに対応するMLB重みテーブルを用いて再構成画像を生成するので、再構成画素からの光がどのサブレンズにどの程度到達しているか、その大きさに応じた重みを用いて対応サブ画素を重み付き加算して再構成画素の画素値を決定できる。そのため、メインレンズの位置・焦点距離・サブレンズの位置・到達点・等の多くのパラメータに応じた重みを少ない計算量で求めることができる。この重みを用いることで精度の高い再構成画像を少ない計算量で生成できる。   Since the reconstructed image is generated using the MLB weight table corresponding to these parameters, how much light from the reconstructed pixel has reached which sub-lens and the weight corresponding to the size of the corresponding sub-lens. The pixel value of the reconstructed pixel can be determined by weighted addition of the pixels. Therefore, the weight corresponding to many parameters such as the position of the main lens, the focal length, the position of the sub lens, the arrival point, etc. can be obtained with a small amount of calculation. By using this weight, a highly accurate reconstructed image can be generated with a small amount of calculation.

なお、このMLB重みテーブルでは、中心座標CPから所定の距離(メインレンズブラー径に対応、メイン距離)以上遠い位置にあるサブレンズに対しては小さい重みを定義している。メインレンズブラー径は再構成面までの距離が小さくなれば、また、メインレンズの焦点距離が小さくなれば大きくなる。一方、メインレンズの有効径が大きくなれば大きくなる。このため、再構成面までの距離又はメインレンズの焦点距離の何れかが小さくなれば、あるいは有効径が大きくなれば、メインテーブル径が小さくなるようにMLB重みテーブルは設定されている。このようなMLB重みテーブルを用いることにより、メインレンズブラー径に応じた重みを用いて生成した精度の高い再構成画像を、少ない計算量で生成できる。   In this MLB weight table, a small weight is defined for a sub lens located at a predetermined distance (corresponding to the main lens blur diameter, main distance) from the center coordinate CP. The main lens blur diameter increases as the distance to the reconstruction surface decreases and as the focal length of the main lens decreases. On the other hand, it increases as the effective diameter of the main lens increases. For this reason, the MLB weight table is set so that the main table diameter decreases as either the distance to the reconstruction surface or the focal length of the main lens decreases or the effective diameter increases. By using such an MLB weight table, a highly accurate reconstructed image generated using a weight corresponding to the main lens blur diameter can be generated with a small amount of calculation.

また、本実施形態のデジタルカメラ1によれば、画像再構成装置30を用いて画像を再構成するため、ライトフィールド画像を撮影し、そのライトフィールド画像から精密な再構成画素を、少ない計算量で生成して表示・記録できる。   In addition, according to the digital camera 1 of the present embodiment, since an image is reconstructed using the image reconstruction device 30, a light field image is taken, and precise reconstruction pixels are reduced from the light field image with a small amount of calculation. Can be generated, displayed and recorded.

(実施形態2)
次に、本発明の実施形態2に係る画像再構成装置31について説明する。画像再構成装置31は、図11に示すデジタルカメラ2に含まれる。
デジタルカメラ2は、実施形態1に係るデジタルカメラ1と比べて、撮像部が図12に示す構成を持つ撮像部11であること、及び画像再構成処理を画像再構成装置31が担う点が異なる。
(Embodiment 2)
Next, the image reconstruction device 31 according to the second embodiment of the present invention will be described. The image reconstruction device 31 is included in the digital camera 2 shown in FIG.
Compared to the digital camera 1 according to the first embodiment, the digital camera 2 is different in that the imaging unit is the imaging unit 11 having the configuration illustrated in FIG. 12 and the image reconstruction device 31 performs image reconstruction processing. .

撮像部11の光学装置113は、図12に示すように、注目部位Pからの光をサブレンズアレイSLAがイメージセンサ120の撮像面IEとは異なる平面(サブレンズ結像面SIP)に結像させることを特徴とする。このため、一つの注目部位Pについて、各サブレンズを通過して撮像面IEに到達する領域(サブレンズブラーSLB、図1の白の楕円)は、一つの画素内に収まらない場合がある。そこで、サブレンズブラーSLBに含まれる各画素について重み付け加算を実行するためのテーブル(SLBテーブル)を用いて注目再構成画素の画素値を決定する。 As shown in FIG. 12, the optical device 113 of the imaging unit 11 forms an image of light from the target region P on a plane (sub-lens imaging plane SIP) in which the sub-lens array SLA is different from the imaging plane IE of the image sensor 120. It is characterized by making it. Therefore, for one region of interest P, region that reaches the imaging surface IE through the respective sub-lens (sub-lens blur SLB, oval white 1 2) may not fit within one pixel . Therefore, the pixel value of the target reconstruction pixel is determined using a table (SLB table) for performing weighted addition for each pixel included in the sub-lens blur SLB.

画像再構成装置31の物理構成は実施形態1にかかる画像再構成装置30と同様である。   The physical configuration of the image reconstruction device 31 is the same as that of the image reconstruction device 30 according to the first embodiment.

画像再構成装置31は、図13に示すように、I/O部300と記憶部311と情報処理部321として機能する。
I/O部300は、実施形態1にかかる画像再構成装置30のI/O部300と同様である。ただし、撮影設定取得部3020が取得する撮影設定情報は、各サブレンズの径(サブレンズ径DSL)と、サブレンズアレイSLAと撮像面IEとの距離c2と、各サブレンズの焦点距離fSBと、を示す情報をさらに含む。サブレンズSLの焦点距離fSBは全て共通であり、デジタルカメラ2に固有の不変値とする。
As illustrated in FIG. 13, the image reconstruction device 31 functions as an I / O unit 300, a storage unit 311, and an information processing unit 321.
The I / O unit 300 is the same as the I / O unit 300 of the image reconstruction device 30 according to the first embodiment. However, the shooting setting information acquired by the shooting setting acquisition unit 3020 includes the diameter of each sub lens (sub lens diameter DSL), the distance c2 between the sub lens array SLA and the imaging surface IE, and the focal length f SB of each sub lens. And information indicating that. The focal lengths f SB of the sub lenses SL are all common, and are invariable values unique to the digital camera 2.

記憶部311は、実施形態1にかかる画像再構成装置30の記憶部310に対し、さらにSLBテーブル記憶部3140を含む。
SLBテーブル記憶部3140は、サブレンズに対応する対応画素に適用される重みWSLを定義するテーブルであるSLBテーブルを記憶する。SLBテーブルについては後述する。
The storage unit 311 further includes an SLB table storage unit 3140 in addition to the storage unit 310 of the image reconstruction device 30 according to the first embodiment.
The SLB table storage unit 3140 stores an SLB table that is a table that defines the weight W SL applied to the corresponding pixel corresponding to the sub lens. The SLB table will be described later.

情報処理部321は、再構成設定記憶部3110に記憶された再構成設定に合致する再構成画像を、画像取得部3030が取得したLFIと、撮影設定取得部3020が取得した撮影設定情報と、MLBテーブル記憶部3120が記憶するMLBテーブルと、SLBテーブル記憶部3140が記憶するSLBテーブルと、を用いて生成する。情報処理部321はこのような処理を実行するために、原型定義部3210と、注目再構成画素選択部3220と、到達点取得部3230と、MLB重みテーブル取得部3240と、サブレンズ選択部3250と、撮像面到達点取得部3280と、SLB重みテーブル取得部3290と、対応画素特定部3261と、画素値加算部3271と、を含む。   The information processing unit 321 includes the LFI acquired by the image acquisition unit 3030, the shooting setting information acquired by the shooting setting acquisition unit 3020, and the shooting setting information acquired by the image setting unit 3020, and the reconstruction image that matches the reconstruction setting stored in the reconstruction setting storage unit 3110. It is generated using the MLB table stored in the MLB table storage unit 3120 and the SLB table stored in the SLB table storage unit 3140. In order to execute such processing, the information processing unit 321 performs a prototype definition unit 3210, a focused reconstruction pixel selection unit 3220, a reaching point acquisition unit 3230, an MLB weight table acquisition unit 3240, and a sub lens selection unit 3250. An imaging plane arrival point acquisition unit 3280, an SLB weight table acquisition unit 3290, a corresponding pixel specification unit 3261, and a pixel value addition unit 3271.

原型定義部3210からサブレンズ選択部3250の機能は、実施形態1にかかる情報処理部320の同名の部位と同一である。   The functions of the prototype definition unit 3210 to the sub lens selection unit 3250 are the same as the parts of the same name in the information processing unit 320 according to the first embodiment.

撮像面到達点取得部3280は、注目部位Pからの主光線が注目サブレンズを通って撮像面IEに到達する到達点PEを、前述した式(5)を用いて取得する。そして、到達点PEが、撮像素子上のどの位置にあるかを示す座標(iSL,jSL)を、撮像設定情報に含まれる撮像素子の位置情報から特定する。 The imaging plane arrival point acquisition unit 3280 acquires the arrival point PE at which the principal ray from the target site P passes through the target sub lens and reaches the imaging plane IE using the above-described equation (5). Then, coordinates (i SL , j SL ) indicating where the arrival point PE is on the image sensor are specified from the position information of the image sensor included in the image setting information.

そして、SLB重みテーブル取得部3290が、SLBテーブル記憶部3140が記憶するSLBテーブルを参照し、再構成設定が示す距離a1に対応するパラメータaと、座標(isL,jsL)と、に合致するSLB重みテーブルを取得する。 Then, the SLB weight table acquisition unit 3290 refers to the SLB table stored in the SLB table storage unit 3140 and matches the parameter a corresponding to the distance a1 indicated by the reconstruction setting and the coordinates (i sL , j sL ). The SLB weight table to be acquired is acquired.

ここで、サブレンズブラーSLBと、座標(iSL,jSL)と、SLBテーブル記憶部3140が記憶するSLBテーブルについて、図14及び図15を参照して説明する。 Here, the sub lens blur SLB, the coordinates (i SL , j SL ), and the SLB table stored in the SLB table storage unit 3140 will be described with reference to FIGS.

まず、撮像面IE上に投影されたサブレンズブラーSLBの例を図14(a)を参照して説明する。注目部位Pから発せられた主光線がメインレンズMLと注目サブレンズを通じて撮像面IEに達する部位を、図14(a)で黒丸(●)を用いて示している。この部位を到達点PEあるいはサブレンズブラー中心SLBCと呼ぶ。サブレンズブラーSLBは、サブレンズブラー中心SLBCを中心とする、直径がサブレンズブラー径DSLBの円に近似できる。   First, an example of the sub-lens blur SLB projected on the imaging surface IE will be described with reference to FIG. A region where the principal ray emitted from the target region P reaches the imaging surface IE through the main lens ML and the target sub lens is indicated by a black circle (●) in FIG. This portion is referred to as a reaching point PE or a sub lens blur center SLBC. The sub-lens blur SLB can be approximated to a circle whose diameter is the sub-lens blur diameter DSLB centered on the sub-lens blur center SLBC.

サブレンズブラー中心SLBCを含む撮像素子をPS(0,0)とする。PS(0,0)を中心に座標系を定義し、Y軸をYSL、X軸をXSL、とする。
そして、PS(0,0)を中心に、Y軸方向にySlX軸方向にxSl個だけ移動した撮像素子PSをPS(xsl,ysl)とする。
An image sensor including the sub lens blur center SLBC is assumed to be PS (0, 0). A coordinate system is defined around PS (0, 0), and the Y axis is Y SL and the X axis is X SL .
Then, an image sensor PS that has moved by xSl in the Y-axis direction and ySl in the Y-axis direction around PS (0,0) is defined as PS ( xsl , ysl ).

サブレンズブラー径は、次のように定義することが出来る。
まず既知の数値を変数とする下記式(6)を用いて、サブレンズアレイSLAとサブレンズ結像面SIPとの距離b2を求める。
b2=a2・fSB/(a2−fSB)…(6)
The sub-lens blur diameter can be defined as follows.
First, the distance b2 between the sub-lens array SLA and the sub-lens imaging surface SIP is obtained using the following equation (6) with a known numerical value as a variable.
b2 = a2 · f SB / (a2−f SB ) (6)

そして、求めたb2と、既知の数値である距離c2と、から下記式(7)を用いてサブレンズ結像面SIPと撮像面IEとの距離c3を求める。
c3=c2−c3…(7)
Then, the distance c3 between the sub-lens imaging surface SIP and the imaging surface IE is obtained from the obtained b2 and the distance c2 that is a known numerical value using the following equation (7).
c3 = c2-c3 (7)

さらに、式(6)で求めた距離b2と、式(7)で用いた距離c3と、撮像設定情報が示す対応サブレンズの径(サブレンズ径DSL)と、から式(8)を用いてサブレンズブラー径DSLBを算出する。
DSLB=DSL・c3/b2…(8)
Furthermore, from the distance b2 obtained by Expression (6), the distance c3 used in Expression (7), and the diameter of the corresponding sublens (sublens diameter DSL) indicated by the imaging setting information, Expression (8) is used. The sub lens blur diameter DSLB is calculated.
DSLB = DSL · c3 / b2 (8)

すなわち、サブレンズブラー径DSLBは、再構成設定が示す再構成面RFとメインレンズMLとの距離a1と、メインレンズの焦点距離fMLと、サブレンズの焦点距離fSB等によって定まる数である。 That is, the sub lens blur diameter DSLB is a number determined by the distance a1 between the reconstruction surface RF and the main lens ML indicated by the reconstruction setting, the focal length f ML of the main lens, the focal length f SB of the sub lens, and the like. .

撮像素子PS(0,0)を拡大し、部分領域SAPSに分割した様子を図14(b)に示す。図14(b)の例では、撮像素子PSを、横軸をiSL、縦軸をjSLとして、左上を原点として5×5の方形に分割している。各部分領域SAPSを、SAPS(iSL,jSL)とあらわすとすると、図14(b)でサブレンズブラー中心SLBC(到達点PEに対応)が存在する領域(到達領域EA)は、SAPS(2,1)である。このとき(2,1)を到達領域EAの座標(到達座標EP)と表現する。 FIG. 14B shows a state in which the imaging element PS (0, 0) is enlarged and divided into partial areas SAPS. In the example of FIG. 14B, the image sensor PS is divided into 5 × 5 squares with the horizontal axis as i SL , the vertical axis as j SL , and the upper left as the origin. Assuming that each partial area SAPS is expressed as SAPS (i SL , j SL ), an area (arrival area EA) in which the sub-lens blur center SLBC (corresponding to the arrival point PE) exists in FIG. 2, 1). At this time, (2, 1) is expressed as the coordinates of the arrival area EA (arrival coordinates EP).

到達座標EPとサブレンズブラー径DSLBが定まると、各撮像素子PS(xsl,ysl)上でサブレンズブラーSLBが占める面積が定まる。本実施形態では注目部位Pから発せられた光は、サブレンズブラーSLB上に均等に投影されると近似する。そのため、サブレンズブラーSLBがある撮像素子PS上に占める面積は、対応する注目部位Pから発せられた光がその撮像素子上にどの程度到達するか、その光の総和に対応すると仮定することが出来る。 When the arrival coordinate EP and the sub-lens blur diameter DSLB are determined, the area occupied by the sub-lens blur SLB on each image sensor PS (x sl , y sl ) is determined. In this embodiment, the light emitted from the site of interest P is approximated when projected evenly on the sub-lens blur SLB. Therefore, it is assumed that the area occupied by the sub-lens blur SLB on the image sensor PS corresponds to how much the light emitted from the corresponding target site P reaches the image sensor, or the sum of the light. I can do it.

そこで、本実施形態では、撮像素子PSに占めるサブレンズブラーSLBの面積を、各撮像素子PS(及びその撮像素子に対応するサブ画素)と、注目部位Pと、の対応の強さを示す係数(重みWSL)とする。重みWSLは、撮像素子PSに対応する再構成画素と、注目部位に対応する対応画素と、の対応の強さ(サブ画素重み)に相当する。各撮像素子PSが略同一の面積を持つ場合、重みWSLは撮像素子PS上でサブレンズブラーSLBが占める割合(0から1までの実数)として定義できる。以下、重みWSLは0から1までの実数であるとして説明する。 Therefore, in the present embodiment, the area of the sub lens blur SLB occupying the image sensor PS is a coefficient indicating the strength of correspondence between each image sensor PS (and the sub pixel corresponding to the image sensor) and the target site P. (Weight W SL ). The weight W SL corresponds to the strength of correspondence (sub-pixel weight) between the reconstructed pixel corresponding to the image sensor PS and the corresponding pixel corresponding to the region of interest. When each image sensor PS has substantially the same area, the weight W SL can be defined as a ratio (a real number from 0 to 1) occupied by the sub-lens blur SLB on the image sensor PS. In the following description, it is assumed that the weight W SL is a real number from 0 to 1.

再構成面への距離a1を示すインデックスであるパラメータaと、到達座標EP(isL,jsL)と、に対応するサブレンズブラーの重みWSLのセットを定義したテーブル(SLBテーブル)を定義し、SLBテーブル記憶部3140に予め記憶する。 Defines a table (SLB table) defining a set of sub lens blur weights W SL corresponding to a parameter a which is an index indicating the distance a1 to the reconstruction plane and the arrival coordinates EP (i sL , j sL ). And stored in advance in the SLB table storage unit 3140.

SLBテーブルは、図15に示すようにSLBインデックステーブルと、SLB重みテーブルと、から構成される。SLBインデックステーブル(図15(a))は、到達座標EP(isL,jsL)と、パラメータaと、に対応するSL重みリストを示すインデックスを定義するテーブルである。
図15(a)の例では、SLBインデックステーブルはパラメータaが1〜NaのNa個の値を取り、到達座標EPが(0,0)〜(4,4)の何れかである場合のそれぞれの場合に対応するSLB重みテーブルを示すインデックス(インデックス#01〜インデックス#NaN)を対応付けて記憶している。
The SLB table includes an SLB index table and an SLB weight table as shown in FIG. The SLB index table (FIG. 15A) is a table that defines an index indicating an SL weight list corresponding to the arrival coordinates EP (i sL , j sL ) and the parameter a.
In the example of FIG. 15A, the SLB index table takes Na values where the parameter a is 1 to Na and each of the arrival coordinates EP is any of (0, 0) to (4, 4). The index (index # 01 to index #NaN) indicating the SLB weight table corresponding to the case is stored in association with each other.

SLB重みテーブルは、そのインデックスが対応するパラメータaの値と、到達座標EPと、に基づいて定まる重みWSLを、考慮すべき相対位置にある撮像素子PS(すなわち、これに対応するサブ画素)のそれぞれについて対応付けて記憶している。 In the SLB weight table, the imaging element PS (that is, the sub-pixel corresponding to this) at the relative position to consider the weight W SL determined based on the value of the parameter a corresponding to the index and the arrival coordinate EP. Are stored in association with each other.

図15(b)の例では、SLB重みテーブルは、考慮すべき相対位置にあるサブ画素、即ち到達座標EPが位置する画素(到達画素)との相対位置が(+XslMax,+YslMax)〜(−XslMax,−YslMax)(ここでは(−4,−4)〜(4,4))であるそれぞれのサブ画素(XSL,YSL)について登録したテーブルである。なお、XslMax及びYslMaxは予め実験により定められた自然数であり、設定上最もサブレンズブラー径が大きくなる場合にサブレンズブラーが覆う撮像素子PSの数に対応する。 In the example of FIG. 15B, the SLB weight table indicates that the relative position with respect to the sub-pixel at the relative position to be considered, that is, the pixel (arrival pixel) where the arrival coordinate EP is located is (+ X sl Max, + Y sl Max). It is a table registered for each sub-pixel (X SL , Y SL ) that is (−X sl Max, −Y sl Max) (here, (−4, −4) to (4, 4)). Note that X sl Max and Y sl Max are natural numbers determined in advance by experiment, and correspond to the number of image sensors PS covered by the sub lens blur when the sub lens blur diameter is the largest in the setting.

SLB重みテーブル取得部3290は、距離a1に合致するパラメータaと、撮像面到達点取得部3280が算出した到達座標EP(iSL,jSL)と、に合致するSLB重みテーブルのインデックスをSLBインデックステーブルから取得する。そして、そのインデックスが示すSLB重みテーブルをSLBテーブル記憶部3140から取得する。 The SLB weight table acquisition unit 3290 sets an index of the SLB weight table that matches the parameter a that matches the distance a1 and the arrival coordinates EP (i SL , j SL ) calculated by the imaging surface arrival point acquisition unit 3280 as the SLB index. Get from table. Then, the SLB weight table indicated by the index is acquired from the SLB table storage unit 3140.

対応画素特定部3261は、SLB重みテーブル取得部3290が取得したSLB重みテーブルで定義されたサブ画素を全て抽出し、重みWSLと対応付けて一時記憶する。 Corresponding pixel specifying unit 3261, all extracts sub-pixels defined in SLB weight table SLB weight table acquisition unit 3290 acquires, temporarily stores in association with the weight W SL.

SLBテーブルでは、到達点PEから所定の範囲(サブレンズブラー径DSLBに完全に収まる範囲)にある撮像素子PSについて重みWSLの最大値(ここでは1)が対応づけられる。また、所定の範囲外の位置(サブレンズブラー径DSLBから完全に外れる位置)にある撮像素子PSについて重みWSLの最小値(ここでは0)が対応付けられる。中間の位置にある撮像素子PSについては、中間の値が定義される。このとき、到達位置がよりその撮像素子PSよりである場合に、よりサブレンズブラーSLBが占める部分が大きくなるので、より大きい中間値が対応付けられる。
また、再構成面との距離a1が小さいほど、メインレンズブラー径DMLBが大きくなるので、より遠いサブレンズSLについて大きい重みWSLが得られる。なお、焦点距離fMLが大きい場合にもサブレンズブラー径DSLBが大きくなるので、その他の条件が同じ場合はより遠い撮像素子PSに大きい重みWSLが対応づけされる。
In the SLB table, the maximum value (here, 1) of the weight W SL is associated with the image sensor PS that is within a predetermined range (a range that is completely within the sub-lens blur diameter DSLB) from the arrival point PE. The minimum value of the weight W SL for image sensor PS in a position outside a predetermined range (sub-lens blur diameter DSLB from a fully disengaged position) (here 0) is associated. An intermediate value is defined for the image sensor PS at an intermediate position. At this time, when the arrival position is closer to the image sensor PS, the portion occupied by the sub-lens blur SLB becomes larger, and therefore a larger intermediate value is associated.
Further, the smaller the distance a1 from the reconstruction surface, the larger the main lens blur diameter DMLB, so that a larger weight W SL is obtained for the farther sub-lens SL. Even when the focal length f ML is large, the sub-lens blur diameter DSLB is large. Therefore, when the other conditions are the same, the farther imaging element PS is associated with a larger weight W SL .

サブレンズ選択部3250から対応画素特定部3261は、全ての対応サブレンズを順次注目サブレンズとして、注目部位Pに対応する全てのサブ画素について、画素値と、重みWMLと、重みWSLと、を対応付ける。 The corresponding pixel specifying unit 3261 from the sub-lens selection unit 3250 sequentially sets all the corresponding sub-lens as the target sub-lens, and sets pixel values, weights W ML , and weights W SL for all the sub-pixels corresponding to the target region P. , Are associated.

そして、画素値加算部3271が、注目部位Pに対応する再構成画素の画素値を、上記処理で抽出した画素値を重みWMLと重みWSLとを用いて重み付き加算平均して定める。 Then, the pixel value adding unit 3271 is the pixel value of the reconstructed pixels corresponding to the attention site P, determined by averaging weighted sum by using the weight W ML and the weight W SL the extracted pixel value in the above process.

次に、デジタルカメラ2及び画像再構成装置31が実行する処理について、フローチャート(図16)を参照して説明する。   Next, processing executed by the digital camera 2 and the image reconstruction device 31 will be described with reference to a flowchart (FIG. 16).

デジタルカメラ2及び画像再構成装置31は、実施形態1と同様に図8に示す画像出力処理及び図9に示す画像再構成処理を実行する。   The digital camera 2 and the image reconstruction device 31 execute the image output process shown in FIG. 8 and the image reconstruction process shown in FIG. 9 as in the first embodiment.

画像再構成装置31は、画像再構成処理のステップS206で、画素値加算処理として図16に示す画素値加算処理2を実行する。   In step S206 of the image reconstruction process, the image reconstruction device 31 executes the pixel value addition process 2 illustrated in FIG. 16 as the pixel value addition process.

画素値加算処理2では、まずステップS401〜ステップS403を、図10に示す画素値加算処理1のステップS301〜ステップS303までと同様に実行する。   In the pixel value addition process 2, first, steps S401 to S403 are executed in the same manner as steps S301 to S303 of the pixel value addition process 1 shown in FIG.

次に、撮像面到達点取得部3280が、式(5)を用いて到達点PEの位置を取得する(ステップS404)。   Next, the imaging surface arrival point acquisition unit 3280 acquires the position of the arrival point PE using Expression (5) (step S404).

そして、SLB重みテーブル取得部3290が到達座標EP(iSL,jSL)と、再構成設定が示す距離a1に対応するパラメータaに合致するSLB重みテーブルを取得する(ステップS405)。 Then, the SLB weight table acquisition unit 3290 acquires an SLB weight table that matches the arrival coordinate EP (i SL , j SL ) and the parameter a corresponding to the distance a1 indicated by the reconstruction setting (step S405).

そして、対応画素特定部3261が、SLB重みテーブルで定義された対応画素(対応する重みWSLが0でない画素)の画素値と、その重みWSLを取得する(ステップS406)。 Then, the corresponding pixel specifying unit 3261 acquires the pixel value of the corresponding pixel (the pixel whose corresponding weight W SL is not 0) defined in the SLB weight table and the weight W SL (step S406).

次に、ステップS401で抽出した全対応サブレンズについて、対応画素の画素値とその重みを取得する処理が実行済みか判別する(ステップS407)。
未処理のサブレンズSLが存在すると判別すると(ステップS407;NO)、カウンタ変数jをインクリメントし(ステップS408)、次のサブレンズを注目サブレンズとしてステップS402から処理を繰り返す。
Next, it is determined whether or not the processing for obtaining the pixel value of the corresponding pixel and its weight has been executed for all the corresponding sub-lenses extracted in step S401 (step S407).
If it is determined that there is an unprocessed sub lens SL (step S407; NO), the counter variable j is incremented (step S408), and the process is repeated from step S402 with the next sub lens as the target sub lens.

一方、全ての対応サブレンズについて対応サブ画素を抽出したと判別すると(ステップS407;YES)、画素値加算部3271が、各対応サブ画素の値を、その対応サブ画素に応じた対応サブレンズに定義された重みWMLと、各サブ画素に対応する重みWSLと、を用いて重み加算平均値を算出して、注目再構成画素の画素値とする(ステップS409)。 On the other hand, if it is determined that the corresponding sub-pixels have been extracted for all the corresponding sub-lenses (step S407; YES), the pixel value adding unit 3271 sets the value of each corresponding sub-pixel to the corresponding sub-lens corresponding to the corresponding sub-pixel. and the weight W ML defined, and the weight W SL corresponding to each sub-pixel, and calculates the weight average value is used to the pixel value of the target reconstructed pixel (step S409).

以上説明したとおり、本実施形態の画像再構成装置31によれば、メインレンズブラーだけでなく、サブレンズブラーも考慮して再構成画素を構成するため、サブメンズ結像面が撮像素子と離れている場合でも精度の高い再構成画像を生成することが出来る。また、テーブルを用いてサブレンズブラーを考慮した重みを算出するため、サブレンズブラーを考慮した高画質の再構成画像を生成するための必要計算量が少なくて済む。   As described above, according to the image reconstruction device 31 of the present embodiment, the reconstruction pixel is configured in consideration of not only the main lens blur but also the sub lens blur. Even if it is, it is possible to generate a reconstructed image with high accuracy. In addition, since the weight considering the sub-lens blur is calculated using the table, the necessary calculation amount for generating a high-quality reconstructed image considering the sub-lens blur is small.

(変形例)
本発明は、上記実施形態に限定されず、さまざまな変形が可能である。
たとえば、上記実施形態1乃至2では、メインレンズの焦点距離fML及びメインレンズの有効径EDは変化しなかった。しかし、本発明はこれに限らず、焦点距離fML及び有効径EDの何れか、あるいは両方が可変してもよい。
このような場合の光学装置110の構成例を図17に示す。図17の光学装置110は、ユーザが絞り112を操作することにより有効径EDを変化させることが出来る。
(Modification)
The present invention is not limited to the above embodiment, and various modifications can be made.
For example, in Embodiments 1 and 2, the focal length f ML of the main lens and the effective diameter ED of the main lens did not change. However, the present invention is not limited to this, and either or both of the focal length f ML and the effective diameter ED may be varied.
A configuration example of the optical device 110 in such a case is shown in FIG. The optical device 110 in FIG. 17 can change the effective diameter ED by the user operating the diaphragm 112.

図18(a)に、メインレンズの焦点距離fML及びメインレンズの有効径EDの双方が可変する場合のMLBインデックステーブルを示す。WMLは有効径ED及び焦点距離fMLに依存して変化するため、MLBインデックステーブルは(iML,jML)、パラメータaに加えて、パラメータED(有効径EDの所定の範囲にそれぞれ対応する自然数)、及びパラメータ#fMLの(焦点距離fMLの所定の範囲にそれぞれ対応する自然数)それぞれが変化した場合に対応するMLB重みテーブルのインデックスを登録している。 FIG. 18A shows an MLB index table when both the focal length f ML of the main lens and the effective diameter ED of the main lens are variable. Since W ML varies depending on the effective diameter ED and the focal length f ML , the MLB index table corresponds to (i ML , j ML ) and parameter ED (a predetermined range of effective diameter ED) in addition to parameter a. Index of the MLB weight table corresponding to the case where each of the parameter #f ML (natural number corresponding to a predetermined range of the focal length f ML ) is changed.

一方、重みWSLは焦点距離fMLに依存して変化するが、メインレンズの有効径EDが変化する場合でも一定である。そのため、SLBインデックステーブルは、図18(b)に示すように、パラメータEDを含まない。
このような構成によれば、メインレンズがズームレンズである場合、あるいは絞りを持つ場合でも、撮影時の焦点距離や絞りを考慮して再構成画像を生成することができる。そのため、焦点距離や絞りが変化した場合でも再構成画像の精度が低下しない。
On the other hand, the weight W SL will vary depending on the focal length f ML, it is constant even when the effective diameter ED of the main lens changes. Therefore, the SLB index table does not include the parameter ED as shown in FIG.
According to such a configuration, even when the main lens is a zoom lens or has a diaphragm, a reconstructed image can be generated in consideration of the focal length and diaphragm at the time of shooting. Therefore, the accuracy of the reconstructed image does not decrease even when the focal length or the aperture changes.

なお、上記実施例では、重みWML及び重みWSLは任意の数であるとしたが、WML及びWSLは、0又は1の何れかの値をとるとしてもよい。この場合、例えばメインレンズブラーがサブレンズ上でしめる面積が所定の閾値以上(例えばサブレンズの面積の半分以上)であるばあいに重みを1とし、そうでない場合に0とする、とすることができる。重みWSLについても同様に定義できる。このような構成によれば、再構成画像の生成のための計算量を減少させることが出来る。 In the above-described embodiment, the weight W ML and the weight W SL are arbitrary numbers, but the W ML and W SL may take either 0 or 1. In this case, for example, the weight is set to 1 when the area of the main lens blur on the sub lens is equal to or larger than a predetermined threshold (for example, half or more of the area of the sub lens), and is set to 0 otherwise. Can do. The weight W SL can be similarly defined. According to such a configuration, it is possible to reduce the calculation amount for generating the reconstructed image.

また、上記実施例では画素値を算出するにあたって、対応画素の画素値を重みを用いて加算平均した。しかし、重みWML重みSLを用いて画素値を算出する方法はこれに限らず、対応画素について得られた重みが大きくなればその画素の画素値が算出する画素の画素値に大きく影響を与えるような任意の方法で画素値を求めることが出来る。 In the above embodiment, the pixel values of the corresponding pixels are averaged using weights when calculating the pixel values. However, the method of calculating the pixel value using the weight W ML or the weight W SL is not limited to this, and if the weight obtained for the corresponding pixel increases, the pixel value of the pixel greatly affects the pixel value of the calculated pixel. The pixel value can be obtained by any method that gives

また、MLBテーブルは、上記説明で例示した構成に限られない。MLBテーブルでは、中心座標CPから近い位置にあるサブレンズSLについて大きい重みWMLが対応づけられ、遠い位置にあるサブレンズSLについて小さい重みWMLが対応付けられる。また、再構成面との距離a1が近いほど、メインレンズブラー径DMLBが大きくなるので、より遠いサブレンズSLについて大きい重みWMLが得られる。また、焦点距離fMLが小さい場合、あるいはメインレンズMLの有効径EDが大きい場合、にはその他の条件が同じ場合は、より遠いサブレンズSLに大きい重みWMLが対応づけされることが望まれる。
MLBテーブルは、このような条件で重み係数とサブレンズSLとを対応付けた任意のテーブルで代替可能である。
The MLB table is not limited to the configuration exemplified in the above description. The MLB table, large weight W ML for sub-lens SL is associated in the position close to the center coordinates CP, associated small weight W ML for sub-lenses SL in the distant position. Further, as the distance a1 to the reconstruction surface is closer, the main lens blur diameter DMLB becomes larger, so that a larger weight W ML is obtained for the farther sub-lens SL. In addition, when the focal length f ML is small, or when the effective diameter ED of the main lens ML is large, and the other conditions are the same, it is desirable that a larger weight W ML is associated with the far sub lens SL. It is.
The MLB table can be replaced with an arbitrary table in which the weighting coefficient and the sub lens SL are associated with each other under such conditions.

さらに、SLBテーブルも、上記説明で例示した構成に限られない。SLBテーブルでは、到達座標EPから近い位置(所定範囲)にある撮像素子PSについて大きい重みWSLが対応づけられ、遠い位置にある撮像素子PSについて小さい重みWSLが対応付けられる。また、再構成面との距離a1が遠いほど、サブレンズブラー径DSLBが大きくなるので、より遠いサブレンズSLについて大きい重みW が得られる。なお、焦点距離fMLが大きい場合にはその他の条件が同じ場合は、より遠い撮像素子PSに大きい重みWSLが対応づけされる。
SLBテーブルは、このような条件で重み係数と撮像素子PSとを対応付けた任意のテーブルで代替可能である。
Further, the SLB table is not limited to the configuration exemplified in the above description. The SLB table associated weight is larger W SL for image sensor PS in the position close to the arrival coordinates EP (predetermined range), it is associated a small weight W SL for image sensor PS in the distant position. Further, as the distance a1 to the reconstruction surface is further increased, the sub lens blur diameter DSLB is increased, so that a larger weight W S L is obtained for the farther sub lens SL. When the focal length f ML is large and the other conditions are the same, a larger weight W SL is associated with the farther image sensor PS.
The SLB table can be replaced with an arbitrary table in which the weighting coefficient and the image sensor PS are associated with each other under such conditions.

また、上記実施例では、画像をグレースケール画像であるとして説明したが、本発明の処理対象となる画像はグレースケール画像に限らない。例えば、画像は各画素にR(レッド)、G(グリーン)、B(ブルー)、の三つの画素値が定義されたRGB画像であってよい。この場合、画素値をRGBのベクトル値として同様に処理する。また、R、G、B、の各値をそれぞれ独立したグレースケール画像として、それぞれ上記処理を行っても良い。この構成によれば、カラー画像であるライトフィールド画像からカラー画像である再構成画像を生成できる。   In the above embodiment, the image is described as a grayscale image. However, the image to be processed according to the present invention is not limited to a grayscale image. For example, the image may be an RGB image in which three pixel values of R (red), G (green), and B (blue) are defined for each pixel. In this case, the pixel value is similarly processed as an RGB vector value. Alternatively, the above processing may be performed using each of R, G, and B values as independent grayscale images. According to this configuration, a reconstructed image that is a color image can be generated from a light field image that is a color image.

その他、前記のハードウェア構成やフローチャートは一例であり、任意に変更および修正が可能である。   In addition, the hardware configuration and the flowchart described above are merely examples, and can be arbitrarily changed and modified.

情報処理部31a、主記憶部32、外部記憶部33、などから構成される画像再構成のための処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROMなど)に格納して配布し、前記コンピュータプログラムをコンピュータにインストールし、画像再構成のための処理を行う中心となる部分を構成してもよい。また、インターネットなどの通信ネットワーク上のサーバ装置が有する記憶装置に前記コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロードなどすることで画像正構成装置を構成してもよい。   The central part that performs processing for image reconstruction composed of the information processing unit 31a, the main storage unit 32, the external storage unit 33, and the like is realized using a normal computer system, not a dedicated system. Is possible. For example, a computer program for executing the above operation is stored and distributed in a computer-readable recording medium (flexible disk, CD-ROM, DVD-ROM, etc.), and the computer program is installed in the computer. You may comprise the center part which performs the process for image reconstruction. Further, the image corrector may be configured by storing the computer program in a storage device included in a server device on a communication network such as the Internet and downloading it by a normal computer system.

画像再構成装置の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。   When realizing the functions of the image reconstruction device by sharing the OS (operating system) and application programs, or by cooperating the OS and application programs, store only the application program portion in a recording medium or storage device. Also good.

また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。   It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, the computer program may be posted on a bulletin board (BBS: Bulletin Board System) on a communication network, and the computer program may be distributed via the network. The computer program may be started and executed in the same manner as other application programs under the control of the OS, so that the above-described processing may be executed.

また、MLBテーブルまたはSLBテーブルの何れかまたは両方を外部装置に保存し、通信装置を通じてインデックス(パラメータa等)を送信して外部装置からMLB重みテーブルを取得する構成も可能である。   It is also possible to store either or both of the MLB table and the SLB table in an external device, transmit an index (such as parameter a) through the communication device, and acquire the MLB weight table from the external device.

以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to the specific embodiment which concerns, This invention includes the invention described in the claim, and its equivalent range It is. Hereinafter, the invention described in the scope of claims of the present application will be appended.

(付記1)
被写体を異なる視点から撮影した複数のサブ画像から構成されるライトフィールド画像を取得するライトフィールド画像取得部と、
前記ライトフィールド画像を取得した撮影パラメータを取得する撮影パラメータ取得部と、
前記ライトフィールド画像から再構成した被写体の画像である再構成画像のひな形を定義するひな形定義部と、
前記ひな形定義部が定義した再構成画像を構成する画素である再構成画素と、前記サブ画像の少なくとも一つと、の対応の強さを示す係数である画像重みを定義したテーブルである、前記撮影パラメータ取得部が取得した撮影パラメータに応じるメインテーブルを取得するメインテーブル取得部と、
前記複数のサブ画像を構成するサブ画像画素から、前記ひな形定義部が定義した再構成画像を構成する再構成画素に対応する画素である対応画素を抽出する対応画素抽出部と、
前記再構成画素の画素値を、前記対応画素抽出部が抽出した対応画素の画素値と、前記メインテーブル取得部が取得したメインテーブルが定義する当該再構成画素と当該対応画素の属するサブ画像とに対応する画像重みと、に基づいて求めることにより、前記再構成画像を生成する再構成画像生成部と、
を有することを特徴とする再構成画像生成装置。
(Appendix 1)
A light field image acquisition unit for acquiring a light field image composed of a plurality of sub-images obtained by photographing a subject from different viewpoints;
A shooting parameter acquisition unit for acquiring a shooting parameter for acquiring the light field image;
A model definition unit that defines a model of a reconstructed image that is an image of a subject reconstructed from the light field image;
A table defining image weights, which are coefficients indicating the strength of correspondence between a reconstructed pixel that is a pixel constituting a reconstructed image defined by the template definition unit and at least one of the sub-images, A main table acquisition unit for acquiring a main table corresponding to the imaging parameters acquired by the imaging parameter acquisition unit;
A corresponding pixel extracting unit that extracts a corresponding pixel that is a pixel corresponding to a reconstructed pixel constituting a reconstructed image defined by the template defining unit from sub image pixels constituting the plurality of sub-images;
The pixel value of the reconstructed pixel, the pixel value of the corresponding pixel extracted by the corresponding pixel extracting unit, the reconstructed pixel defined by the main table acquired by the main table acquiring unit, and the sub-image to which the corresponding pixel belongs A reconstructed image generating unit that generates the reconstructed image by obtaining based on the image weight corresponding to
A reconstructed image generating apparatus comprising:

(付記2)
前記ライトフィールド画像は、前記被写体からの光線を捉えるメインレンズと、前記メインレンズが捉えた光線をさらに捉える前記複数の視点のそれぞれに対応する複数のサブレンズと、を用いて撮影され、
前記撮影パラメータは、前記メインレンズの焦点距離を少なくとも含む、
ことを特徴とする付記1に記載の再構成画像生成装置。
(Appendix 2)
The light field image is captured using a main lens that captures light rays from the subject, and a plurality of sub-lenses corresponding to each of the plurality of viewpoints that further capture light rays captured by the main lens,
The shooting parameter includes at least a focal length of the main lens,
The reconstructed image generating apparatus according to Supplementary Note 1, wherein

(付記3)
前記再構成画像を含む面と前記メインレンズとの距離を示す情報を含む再構成設定を取得する再構成設定取得部をさらに有し、
前記メインテーブル取得部は、前記撮影パラメータ取得部が取得した撮影パラメータと前記再構成設定取得部が取得した再構成設定に応じるメインテーブルを取得する、
ことを特徴とする付記2に記載の再構成画像生成装置。
(Appendix 3)
A reconstruction setting acquisition unit that acquires a reconstruction setting including information indicating a distance between the surface including the reconstructed image and the main lens;
The main table acquisition unit acquires a main table according to the imaging parameter acquired by the imaging parameter acquisition unit and the reconstruction setting acquired by the reconstruction setting acquisition unit.
The reconstructed image generation apparatus according to Supplementary Note 2, wherein

(付記4)
前記撮影パラメータ取得部が取得した撮影パラメータと前記再構成設定取得部が取得した再構成設定と、予め記憶されている前記メインレンズと前記サブレンズとの相対位置と、から前記再構成画素に対応する被写体の部分から発された光線が前記サブレンズに到達する点であるサブレンズ到達点を取得するサブレンズ到達点取得部をさらに備え、
前記メインテーブル取得部が取得するメインテーブルは、前記サブレンズ到達点取得部が取得したサブレンズ到達点から所定距離以上遠い位置にある前記サブレンズに対応するサブ画像の前記画像重みが小さい、
ことを特徴とする付記3に記載の再構成画像生成装置。
(Appendix 4)
Corresponding to the reconstruction pixel from the imaging parameter acquired by the imaging parameter acquisition unit, the reconstruction setting acquired by the reconstruction setting acquisition unit, and the relative position of the main lens and the sub lens stored in advance. A sub-lens arrival point acquisition unit that acquires a sub-lens arrival point, which is a point where a light beam emitted from a portion of the subject that reaches the sub lens
The main table acquired by the main table acquisition unit has a small image weight of the sub image corresponding to the sub lens located at a predetermined distance or more from the sub lens arrival point acquired by the sub lens arrival point acquisition unit,
The reconstructed image generating apparatus according to Supplementary Note 3, wherein

(付記5)
前記再構成設定取得部が取得した再構成設定に含まれる前記再構成画像を含む面と前記メインレンズとの距離が小さいほど、前記メインテーブル取得部が取得するメインテーブルの画像重みに係る所定距離が大きくなる、
ことを特徴とする付記4に記載の再構成画像生成装置。
(Appendix 5)
The predetermined distance related to the image weight of the main table acquired by the main table acquisition unit as the distance between the surface including the reconstructed image included in the reconstruction setting acquired by the reconstruction setting acquisition unit and the main lens is smaller Becomes larger,
The reconstructed image generating apparatus according to Supplementary Note 4, wherein

(付記6)
前記撮影パラメータ取得部が取得した撮影パラメータに含まれる前記メインレンズの焦点距離が小さいほど、前記メインテーブル取得部が取得するメインテーブルの画像重みに係る所定距離が大きくなる、
ことを特徴とする付記4又は5に記載の再構成画像生成装置。
(Appendix 6)
The smaller the focal length of the main lens included in the imaging parameter acquired by the imaging parameter acquisition unit, the larger the predetermined distance related to the image weight of the main table acquired by the main table acquisition unit.
The reconstructed image generating apparatus according to appendix 4 or 5, characterized in that:

(付記7)
前記撮影パラメータ取得部が取得する撮影パラメータは、前記メインレンズの有効径をさらに含み、
前記撮影パラメータ取得部が取得した撮影パラメータに含まれる前記メインレンズの有効径が大きいほど、前記メインテーブル取得部が取得するメインテーブルの画像重みに係る所定距離が大きくなる、
ことを特徴とする付記4乃至6の何れか1つに記載の再構成画像生成装置。
(Appendix 7)
The shooting parameter acquired by the shooting parameter acquisition unit further includes an effective diameter of the main lens,
The larger the effective diameter of the main lens included in the imaging parameter acquired by the imaging parameter acquisition unit, the larger the predetermined distance related to the image weight of the main table acquired by the main table acquisition unit.
The reconstructed image generating apparatus according to any one of appendices 4 to 6, characterized in that:

(付記8)
前記ひな形定義部が定義した再構成画像を構成する画素である再構成画素と、前記サブ画像の一つである注目サブ画像に含まれるサブ画素の少なくとも一つと、の対応の強さを示す係数である画素重みを定義したテーブルである、前記撮影パラメータ取得部が取得した撮影パラメータに応じるサブテーブルを取得するサブテーブル取得部をさらに有し、
前記再構成画像生成部は、前記再構成画素の画素値を、前記対応画素抽出部が抽出した対応画素の画素値と、前記メインテーブル取得部が取得したメインテーブルが定義する当該再構成画素と当該対応画素の属するサブ画像とに対応する画像重みと、前記サブテーブル取得部が取得したサブテーブルが定義する当該再構成画素と当該対応画素とに対応する画素重みに基づいて決定する、
ことを特徴とする付記1乃至7の何れか1つに記載の再構成画像生成装置。
(Appendix 8)
Indicates the strength of correspondence between a reconstructed pixel that is a pixel constituting a reconstructed image defined by the template definition unit and at least one subpixel included in a target subimage that is one of the subimages A table that defines pixel weights that are coefficients, and further includes a sub-table acquisition unit that acquires a sub-table corresponding to the imaging parameter acquired by the imaging parameter acquisition unit;
The reconstructed image generation unit includes a pixel value of the reconstructed pixel, a pixel value of the corresponding pixel extracted by the corresponding pixel extraction unit, and the reconstructed pixel defined by the main table acquired by the main table acquisition unit, Determine based on the image weight corresponding to the sub-image to which the corresponding pixel belongs, and the pixel weight corresponding to the reconstructed pixel and the corresponding pixel defined by the sub-table acquired by the sub-table acquiring unit,
The reconstructed image generating apparatus according to any one of appendices 1 to 7, characterized in that:

(付記9)
被写体を異なる視点から撮影した複数のサブ画像から構成されるライトフィールド画像を取得する工程と、
前記ライトフィールド画像を取得した撮影パラメータを取得する工程と、
前記ライトフィールド画像から再構成した被写体の画像である再構成画像のひな形を定義する工程と、
前記定義した再構成画像を構成する画素である再構成画素と、前記サブ画像の少なくとも一つと、の対応の強さを示す係数である画像重みを定義したテーブルである、前記取得した撮影パラメータに応じるメインテーブルを取得する工程と、
前記複数のサブ画像を構成するサブ画像画素から、前記定義した再構成画像を構成する再構成画素に対応する画素である対応画素を抽出する工程と、
前記再構成画素の画素値を、前記抽出した対応画素の画素値と、前記取得したメインテーブルが定義する当該再構成画素と当該対応画素の属するサブ画像とに対応する画像重みと、に基づいて求めることにより、前記再構成画像を生成する工程と、
を含むことを特徴とする再構成画像生成方法。
(Appendix 9)
Obtaining a light field image composed of a plurality of sub-images obtained by photographing a subject from different viewpoints;
Obtaining a shooting parameter for obtaining the light field image;
Defining a model of a reconstructed image that is an image of a subject reconstructed from the light field image;
The acquired imaging parameter is a table that defines image weights that are coefficients indicating the strength of correspondence between the reconstructed pixels that constitute the defined reconstructed image and at least one of the sub-images. Obtaining a main table to respond;
Extracting corresponding pixels, which are pixels corresponding to the reconstructed pixels constituting the defined reconstructed image, from the sub-image pixels constituting the plurality of sub-images;
The pixel value of the reconstructed pixel is determined based on the pixel value of the extracted corresponding pixel and the image weight corresponding to the reconstructed pixel defined by the acquired main table and the sub-image to which the corresponding pixel belongs. Obtaining the reconstructed image by obtaining;
A reconstructed image generation method comprising:

(付記10)
コンピュータに、
被写体を異なる視点から撮影した複数のサブ画像から構成されるライトフィールド画像を取得する処理、
前記ライトフィールド画像を取得した撮影パラメータを取得する処理、
前記ライトフィールド画像から再構成した被写体の画像である再構成画像のひな形を定義する処理、
前記定義した再構成画像を構成する画素である再構成画素と、前記サブ画像の少なくとも一つと、の対応の強さを示す係数である画像重みを定義したテーブルである、前記取得した撮影パラメータに応じるメインテーブルを取得する処理、
前記複数のサブ画像を構成するサブ画像画素から、前記定義した再構成画像を構成する再構成画素に対応する画素である対応画素を抽出する処理、
前記再構成画素の画素値を、前記抽出した対応画素の画素値と、前記取得したメインテーブルが定義する当該再構成画素と当該対応画素の属するサブ画像とに対応する画像重みと、に基づいて求めることにより、前記再構成画像を生成する処理、
を実行させることを特徴とするプログラム。
(Appendix 10)
On the computer,
Processing to obtain a light field image composed of a plurality of sub-images obtained by photographing the subject from different viewpoints;
A process for acquiring a shooting parameter for acquiring the light field image;
Processing for defining a model of a reconstructed image that is an image of a subject reconstructed from the light field image;
The acquired imaging parameter is a table that defines image weights that are coefficients indicating the strength of correspondence between the reconstructed pixels that constitute the defined reconstructed image and at least one of the sub-images. Process to get the main table to respond,
A process of extracting corresponding pixels which are pixels corresponding to the reconstructed pixels constituting the defined reconstructed image from the sub-image pixels constituting the plurality of sub-images;
The pixel value of the reconstructed pixel is determined based on the pixel value of the extracted corresponding pixel and the image weight corresponding to the reconstructed pixel defined by the acquired main table and the sub-image to which the corresponding pixel belongs. A process for generating the reconstructed image by obtaining,
A program characterized by having executed.

1…デジタルカメラ、10…撮像部、11…撮像部、110…光学装置、111…シャッタ、112…絞り、113…光学装置、120…イメージセンサ、20…情報処理部、30…画像再構成装置、31…画像再構成装置、31a…情報処理部、32…主記憶部、33…外部記憶部、34…操作部、35…表示部、36…入出力部、37…内部バス、38…プログラム、210…画像処理部、220…撮像制御部、300…I/O部、3010…操作部、3020…撮影設定取得部、3030…画像取得部、3040…出力部、310…記憶部、311…記憶部、3110…再構成設定記憶部、3120…MLBテーブル記憶部、3130…再構成画像記憶部、3140…SLBテーブル記憶部、320…情報処理部、321…情報処理部、3210…原型定義部、3220…注目再構成画素選択部、3230…到達点取得部、3240…MLB重みテーブル取得部、3250…サブレンズ選択部、3260…対応画素特定部、3261…対応画素特定部、3270…画素値加算部、3271…画素値加算部、3280…撮像面到達点取得部、3290…SLB重みテーブル取得部、40…記憶部、410…撮像設定記憶部、420…画像記憶部、50…インターフェース部(I/F部)、510…I/O部、520…表示部、530…操作部、LFI…ライトフィールド画像、OA…光軸、OB…被写体、POB…被写体の部分、P…注目部位、PS…撮像素子、ML…メインレンズ、PF…結像点、MIP…メインレンズ結像面、SIP…サブレンズ結像面、PE…到達点、EP…到達座標、IE…撮像面、SLA…サブレンズアレイ、SL…サブレンズ、SL1、SL5…サブレンズ、MLB…メインレンズブラー、MLBC…メインレンズブラー中心、SLB…サブレンズブラー、S11〜SMN…サブ画像、RI…再構成画像、RF…再構成面 DESCRIPTION OF SYMBOLS 1 ... Digital camera, 10 ... Imaging part, 11 ... Imaging part, 110 ... Optical apparatus, 111 ... Shutter, 112 ... Aperture, 113 ... Optical apparatus, 120 ... Image sensor, 20 ... Information processing part, 30 ... Image reconstruction apparatus 31 ... Image reconstruction device, 31a ... Information processing unit, 32 ... Main storage unit, 33 ... External storage unit, 34 ... Operation unit, 35 ... Display unit, 36 ... Input / output unit, 37 ... Internal bus, 38 ... Program , 210 ... Image processing unit, 220 ... Imaging control unit, 300 ... I / O unit, 3010 ... Operation unit, 3020 ... Shooting setting acquisition unit, 3030 ... Image acquisition unit, 3040 ... Output unit, 310 ... Storage unit, 311 ... Storage unit, 3110 ... Reconfiguration setting storage unit, 3120 ... MLB table storage unit, 3130 ... Reconstructed image storage unit, 3140 ... SLB table storage unit, 320 ... Information processing unit, 321 ... Information processing unit 3210 ... Prototype definition unit, 3220 ... Attention reconstruction pixel selection unit, 3230 ... Reaching point acquisition unit, 3240 ... MLB weight table acquisition unit, 3250 ... Sub lens selection unit, 3260 ... Corresponding pixel specifying unit, 3261 ... Corresponding pixel specifying unit 3270 ... Pixel value addition unit, 3271 ... Pixel value addition unit, 3280 ... Imaging surface arrival point acquisition unit, 3290 ... SLB weight table acquisition unit, 40 ... Storage unit, 410 ... Imaging setting storage unit, 420 ... Image storage unit, 50: Interface unit (I / F unit), 510 ... I / O unit, 520 ... Display unit, 530 ... Operation unit, LFI ... Light field image, OA ... Optical axis, OB ... Subject, POB ... Subject part, P ... site of interest, PS ... imaging element, ML ... main lens, PF ... imaging point, MIP ... main lens imaging plane, SIP ... sub-lens imaging plane, PE ... arrival point, P ... arrival coordinates, IE ... imaging surface, SLA ... sub-lens array, SL ... sub-lens, SL1, SL5 ... sub-lens, MLB ... main lens blur, MLBC ... main lens blur center, SLB ... sub-lens blur, S 11 ~ S MN ... Sub-image, RI ... Reconstructed image, RF ... Reconstructed surface

Claims (11)

被写体からの光線を捉えるメインレンズと前記メインレンズが捉えた前記光線をさらに捉える複数の視点のそれぞれに対応する複数のサブレンズとを用いて、前記被写体を異なる前記視点から撮影した複数のサブ画像から構成されるライトフィールド画像を取得するライトフィールド画像取得部と、
前記ライトフィールド画像から再構成した前記被写体の画像である再構成画像の原型画像を定義する原型画像定義部と、
前記原型画像定義部が定義した前記原型画像を構成する画素である原型画素と、前記サブ画像に対応する前記サブレンズと、の対応の強さを示す係数である画像重みを定義する画像重み定義部と、
前記複数のサブ画像を構成するサブ画像画素から、前記原型画像定義部が定義した前記原型画像を構成する前記原型画素に対応する画素である対応画素を抽出する対応画素抽出部と、
記対応画素抽出部が抽出した前記対応画素の画素値と、前記対応画素の属する前記サブ画像に対応する前記サブレンズに応じて前記画像重み定義部が定義した前記画像重みと、に基づいて前記再構成画像の再構成画素の画素値を求め、前記再構成画像を生成する再構成画像生成部と、
を有し、
前記被写体からの前記光線が前記メインレンズを通過して前記複数のサブレンズ上に投影される領域をメインレンズブラー領域とすると、前記画像重みは、前記各サブレンズ上で前記メインレンズブラー領域が占める比率で定義される、
ことを特徴とする再構成画像生成装置。
Using a plurality of sub-lenses corresponding to the plurality of viewpoints further capture the light main lens and the main lens captures to capture light from an object, a plurality of sub-images taken the subject from a different said viewpoint A light field image acquisition unit for acquiring a light field image composed of:
A prototype image definition unit that defines the original image of the reconstructed image is an image of the subject reconstructed from the light-field image,
Image weight definition that defines an image weight that is a coefficient indicating the strength of correspondence between a prototype pixel that is a pixel constituting the prototype image defined by the prototype image definition unit and the sub lens corresponding to the sub image And
A corresponding pixel extracting unit that extracts a corresponding pixel that is a pixel corresponding to the original pixel constituting the original image defined by the original image defining unit from the sub image pixels constituting the plurality of sub images;
And the pixel value of the corresponding pixel before SL corresponding pixel extracting portion is extracted, the said image weight said image weight definition portion is defined in accordance with the sub-lenses corresponding to said sub-image belonging paired pixels, on the basis Obtaining a pixel value of the reconstructed pixel of the reconstructed image and generating the reconstructed image;
I have a,
When an area in which the light beam from the subject passes through the main lens and is projected onto the plurality of sub lenses is a main lens blur area, the image weight is determined by the main lens blur area on each sub lens. Defined as a percentage,
A reconstructed image generating apparatus characterized by that.
前記ライトフィールド画像を取得した撮影パラメータを取得する撮影パラメータ取得部をさらに有し、
前記画像重み定義部は、
前記原型画像定義部が定義した前記原型画像を構成する画素である前記原型画像と、前記サブ画像に対応する前記サブレンズと、の対応の強さを示す係数である前記画像重みを定義したテーブルである、前記撮影パラメータ取得部が取得した前記撮影パラメータに応じるメインテーブルを取得するメインテーブル取得部を有し、
前記再構成画像生成部は、
前記再構成画素の画素値を、前記対応画素抽出部が抽出した前記対応画素の画素値と、前記メインテーブル取得部が取得した前記メインテーブルが定義する前記対応画素の属する前記サブ画像に対応する前記サブレンズに応じた前記画像重みと、に基づいて求めることにより、前記再構成画像を生成する、
ことを特徴とする請求項1に記載の再構成画像生成装置。
A shooting parameter acquisition unit for acquiring a shooting parameter for acquiring the light field image;
The image weight definition unit includes:
Table defining said original image is a pixel constituting the original image in which the original image definition section is defined, and the sub-lenses corresponding to said sub-image, the image weighting a coefficient indicating the corresponding strength of the in it, it has a main table acquisition unit that acquires a main table responsive to the imaging parameters which the imaging parameter acquisition unit has acquired,
The reconstructed image generation unit
The pixel values of the reconstructed pixel and the pixel value of the corresponding pixel in which the corresponding pixel extracting portion is extracted, corresponding to the sub-image belonging of said corresponding pixels, wherein the main table in which the main table acquisition unit has acquired is defined Generating the reconstructed image by determining based on the image weight according to the sub-lens ,
The reconstructed image generating apparatus according to claim 1.
記撮影パラメータは、前記メインレンズの焦点距離を少なくとも含む、
ことを特徴とする請求項2に記載の再構成画像生成装置。
Before SL imaging parameters include at least a focal length of the main lens,
The reconstructed image generating apparatus according to claim 2.
前記再構成画像を含む面と前記メインレンズとの距離を示す情報を含む再構成設定を取得する再構成設定取得部をさらに有し、
前記メインテーブル取得部は、前記撮影パラメータ取得部が取得した前記撮影パラメータと前記再構成設定取得部が取得した前記再構成設定に応じる前記メインテーブルを取得する、
ことを特徴とする請求項2又は3に記載の再構成画像生成装置。
A reconstruction setting acquisition unit that acquires a reconstruction setting including information indicating a distance between the surface including the reconstructed image and the main lens;
The main table acquisition unit acquires the main table responsive to said reconfiguration and that the imaging parameter and the reconfiguration acquiring unit which the imaging parameter acquisition unit has acquired is acquired,
The reconstructed image generating apparatus according to claim 2 , wherein the reconstructed image generating apparatus is a reconstructed image generating apparatus.
前記撮影パラメータ取得部が取得した前記撮影パラメータと前記再構成設定取得部が取得した前記再構成設定と、予め記憶されている前記メインレンズと前記サブレンズとの相対位置と、から前記再構成画素に対応する前記被写体の部分から発された前記光線が前記サブレンズに到達する点であるサブレンズ到達点を取得するサブレンズ到達点取得部をさらに備え、
前記メインテーブル取得部が取得する前記メインテーブルは、前記サブレンズ到達点取得部が取得した前記サブレンズ到達点から所定距離以上遠い位置にある前記サブレンズに対応する前記サブ画像の前記画像重みが小さい、
ことを特徴とする請求項4に記載の再構成画像生成装置。
Said imaging said imaging parameter parameter acquiring unit has acquired, wherein the reconfiguration acquiring unit said reconfiguration acquired, the reconstruction of the relative position of the said main lens which is previously stored sub-lens, further comprising a sub-lens reaches point acquiring unit, wherein the light beam emitted from a portion of the subject corresponding to the pixel to obtain a sub-lens reaches point is a point to reach the sub-lens,
The main table in which the main table acquisition unit acquires, the image weight of said sub-images corresponding to the said sub-lenses from the sub-lens reaches point sub-lens reaches point obtaining unit has obtained a predetermined distance or more far position small,
The reconstructed image generating apparatus according to claim 4.
前記再構成設定取得部が取得した前記再構成設定に含まれる前記再構成画像を含む面と前記メインレンズとの距離が小さいほど、前記メインテーブル取得部が取得する前記メインテーブルの前記画像重みに係る前記所定距離が大きくなる、
ことを特徴とする請求項5に記載の再構成画像生成装置。
The shorter the distance between the main lens and the plane including the reconstructed image included in the reconfiguration of reconfiguration acquisition unit has acquired is smaller, the image weight of the main table, wherein the main table acquisition unit acquires wherein the predetermined distance is increased according,
The reconstructed image generating apparatus according to claim 5.
前記撮影パラメータ取得部が取得した撮影パラメータに含まれる前記メインレンズの焦点距離が小さいほど、前記メインテーブル取得部が取得する前記メインテーブルの前記画像重みに係る前記所定距離が大きくなる、
ことを特徴とする請求項5又は6に記載の再構成画像生成装置。
The imaging as the focal length of the main lens parameter acquisition unit is included in the captured parameters acquired is smaller, the predetermined distance is increased according to the image weight of the main table in which the main table acquisition unit acquires,
The reconstructed image generating apparatus according to claim 5 or 6.
前記撮影パラメータ取得部が取得する前記撮影パラメータは、前記メインレンズの有効径をさらに含み、
前記撮影パラメータ取得部が取得した前記撮影パラメータに含まれる前記メインレンズの前記有効径が大きいほど、前記メインテーブル取得部が取得する前記メインテーブルの前記画像重みに係る前記所定距離が大きくなる、
ことを特徴とする請求項5乃至7の何れか1項に記載の再構成画像生成装置。
The imaging parameter the imaging parameter acquisition unit acquires further includes an effective diameter of the main lens,
The photographing as the effective diameter of the main lens parameter acquisition unit is included in the imaging parameters acquired is larger, the predetermined distance is increased according to the image weight of the main table in which the main table acquisition unit acquires,
The reconstructed image generation apparatus according to claim 5, wherein the reconstructed image generation apparatus is a reconstructed image generation apparatus.
前記原型画像定義部が定義した前記原型画像を構成する画素である前記原型画素と、前記サブ画像の一つである注目サブ画像に含まれるサブ画素の少なくとも一つと、の対応の強さを示す係数である画素重みを定義したテーブルである、前記撮影パラメータ取得部が取得した前記撮影パラメータに応じるサブテーブルを取得するサブテーブル取得部をさらに有し、
前記再構成画像生成部は、前記再構成画素の画素値を、前記対応画素抽出部が抽出した前記対応画素の画素値と、前記メインテーブル取得部が取得した前記メインテーブルが定義する前記対応画素の属する前記サブ画像に対応する前記サブレンズに応じた前記画像重みと、前記サブテーブル取得部が取得した前記サブテーブルが定義する前記対応画素に応じた前記画素重みと、に基づいて決定する、
ことを特徴とする請求項2乃至の何れか1項に記載の再構成画像生成装置。
Indicates the strength of correspondence between the original pixel that is a pixel constituting the original image defined by the original image definition unit and at least one of the sub-pixels included in the target sub-image that is one of the sub-images. a table that defines the pixel weighting coefficients, further comprising a sub-table acquisition unit that acquires a sub-table responding to the shooting parameters which the imaging parameter acquisition unit has acquired,
The reconstructed image generation unit, the corresponding pixel, wherein the pixel values of the reconstructed pixel, the pixel values of the corresponding pixels corresponding pixel extracting portion is extracted, the main table in which the main table acquisition unit has acquired is defined It said image weight according to the sub-lenses corresponding to said sub-image to the genus, and said pixel weighting the sub-table sub table acquisition unit has acquired in accordance with the corresponding pixel defining, determined based on,
Reconstructed image generating apparatus according to any one of claims 2 to 8, characterized in that.
被写体からの光線を捉えるメインレンズと前記メインレンズが捉えた前記光線をさらに捉える複数の視点のそれぞれに対応する複数のサブレンズとを用いて、前記被写体を異なる前記視点から撮影した複数のサブ画像から構成されるライトフィールド画像を取得する工程と、
前記ライトフィールド画像から再構成した前記被写体の画像である再構成画像の原型画像を定義する工程と、
義した前記原型画像を構成する画素である原型画素と、前記サブ画像に対応する前記サブレンズと、の対応の強さを示す係数である画像重みを定義する工程と、
前記複数のサブ画像を構成するサブ画像画素から、定義した前記原型画像を構成する前記原型画素に対応する画素である対応画素を抽出する工程と、
出した前記対応画素の画素値と、前記対応画素の属する前記サブ画像に対応する前記サブレンズに応じて定義した前記画像重みと、に基づいて前記再構成画像の再構成画素の画素値を求め、前記再構成画像を生成する工程と、
を含み、
前記被写体からの前記光線が前記メインレンズを通過して前記複数のサブレンズ上に投影される領域をメインレンズブラー領域とすると、前記画像重みは、前記各サブレンズ上で前記メインレンズブラー領域が占める比率で定義される、
ことを特徴とする再構成画像生成方法。
Using a plurality of sub-lenses corresponding to the plurality of viewpoints further capture the light main lens and the main lens captures to capture light from an object, a plurality of sub-images taken the subject from a different said viewpoint Obtaining a light field image comprising:
A step of defining a prototype image of a reconstructed image which is an image of the subject reconstructed from the light-field image,
A step of defining the original pixel is a pixel constituting the original image defined, and the sub-lenses corresponding to said sub-image, the image weight is a factor that indicates the strength of the corresponding,
Sub image pixels constituting the plurality of sub-images, a step of extracting the corresponding pixel is a pixel corresponding to the original pixels constituting the original image defined,
And pixel values of the corresponding pixels out extraction, the said image weight as defined according to the sub-lenses corresponding to said sub-image belongs corresponding pixel, the pixel value of the reconstructed pixels of the reconstructed image based on Determining and generating the reconstructed image; and
Only including,
When an area in which the light beam from the subject passes through the main lens and is projected onto the plurality of sub lenses is a main lens blur area, the image weight is determined by the main lens blur area on each sub lens. Defined as a percentage,
A reconstructed image generation method characterized by the above.
コンピュータに、
被写体からの光線を捉えるメインレンズと前記メインレンズが捉えた前記光線をさらに捉える複数の視点のそれぞれに対応する複数のサブレンズとを用いて、前記被写体を異なる前記視点から撮影した複数のサブ画像から構成されるライトフィールド画像を取得する処理、
前記ライトフィールド画像から再構成した前記被写体の画像である再構成画像の原型画像を定義する処理、
義した前記原型画像を構成する画素である原型画素と、前記サブ画像に対応する前記サブレンズと、の対応の強さを示す係数である画像重みを定義する処理、
前記複数のサブ画像を構成するサブ画像画素から、定義した前記原型画像を構成する前記原型画素に対応する画素である対応画素を抽出する処理、
出した前記対応画素の画素値と、前記対応画素の属する前記サブ画像に対応する前記サブレンズに応じて定義した前記画像重みと、に基づいて前記再構成画像の再構成画素の画素値を求め、前記再構成画像を生成する処理、
を実行させ、
前記被写体からの前記光線が前記メインレンズを通過して前記複数のサブレンズ上に投影される領域をメインレンズブラー領域とすると、前記画像重みは、前記各サブレンズ上で前記メインレンズブラー領域が占める比率で定義される、
ことを特徴とするプログラム。
On the computer,
Using a plurality of sub-lenses corresponding to the plurality of viewpoints further capture the light main lens and the main lens captures to capture light from an object, a plurality of sub-images taken the subject from a different said viewpoint Processing to obtain a light field image consisting of
The procedure for defining original image of a reconstructed image which is an image of the subject reconstructed from the light-field image,
Process that defines the original pixel is a pixel constituting the original image defined, and the sub-lenses corresponding to said sub-image, the image weighting a coefficient indicating the corresponding strength of,
Wherein the plurality of sub-images from the sub-image pixels constituting the process of extracting the corresponding pixel is a pixel corresponding to the original pixels constituting the original image defined,
And pixel values of the corresponding pixels out extraction, the said image weight as defined according to the sub-lenses corresponding to said sub-image belongs corresponding pixel, the pixel value of the reconstructed pixels of the reconstructed image based on Determining and generating the reconstructed image;
Was executed,
When an area in which the light beam from the subject passes through the main lens and is projected onto the plurality of sub lenses is a main lens blur area, the image weight is determined by the main lens blur area on each sub lens. Defined as a percentage,
A program characterized by that.
JP2011290174A 2011-12-28 2011-12-28 Reconstructed image generating apparatus, reconstructed image generating method, and program Active JP5942428B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011290174A JP5942428B2 (en) 2011-12-28 2011-12-28 Reconstructed image generating apparatus, reconstructed image generating method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011290174A JP5942428B2 (en) 2011-12-28 2011-12-28 Reconstructed image generating apparatus, reconstructed image generating method, and program

Publications (3)

Publication Number Publication Date
JP2013140450A JP2013140450A (en) 2013-07-18
JP2013140450A5 JP2013140450A5 (en) 2015-02-12
JP5942428B2 true JP5942428B2 (en) 2016-06-29

Family

ID=49037842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011290174A Active JP5942428B2 (en) 2011-12-28 2011-12-28 Reconstructed image generating apparatus, reconstructed image generating method, and program

Country Status (1)

Country Link
JP (1) JP5942428B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4826152B2 (en) * 2005-06-23 2011-11-30 株式会社ニコン Image composition method and imaging apparatus

Also Published As

Publication number Publication date
JP2013140450A (en) 2013-07-18

Similar Documents

Publication Publication Date Title
JP6168794B2 (en) Information processing method and apparatus, program.
JP5820257B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP4752918B2 (en) Image processing apparatus, image collation method, and program
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
JP5310837B2 (en) Image generating apparatus, digital camera, method, and program
JPWO2016076400A1 (en) Calibration apparatus, calibration method, optical apparatus, photographing apparatus, projection apparatus, measurement system, and measurement method
JP6786225B2 (en) Image processing equipment, imaging equipment and image processing programs
JP2015197745A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP7123736B2 (en) Image processing device, image processing method, and program
JP2013040791A (en) Image processing device, image processing method, and program
US8937662B2 (en) Image processing device, image processing method, and program
US20210377432A1 (en) Information processing apparatus, information processing method, program, and interchangeable lens
JP2013061850A (en) Image processing apparatus and image processing method for noise reduction
US20190355101A1 (en) Image refocusing
JP2014010783A (en) Image processing apparatus, image processing method, and program
JP6021489B2 (en) Imaging apparatus, image processing apparatus and method thereof
JP5900017B2 (en) Depth estimation apparatus, reconstructed image generation apparatus, depth estimation method, reconstructed image generation method, and program
JP2015188251A (en) Image processing system, imaging apparatus, image processing method, and program
JP5310890B2 (en) Image generating apparatus, image generating method, and program
JP2017103695A (en) Image processing apparatus, image processing method, and program of them
JP5942428B2 (en) Reconstructed image generating apparatus, reconstructed image generating method, and program
JP5310895B2 (en) Image generating apparatus, image generating method, and program
JP2018017568A (en) Distance measurement device, imaging device and distance measurement method
JP2014011639A (en) Imaging device
JP2013110711A (en) Image processing apparatus, image processing method and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151020

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160509

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5942428

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150