JP6106026B2 - Image processing apparatus, imaging apparatus, playback apparatus, control method, and program - Google Patents

Image processing apparatus, imaging apparatus, playback apparatus, control method, and program Download PDF

Info

Publication number
JP6106026B2
JP6106026B2 JP2013109391A JP2013109391A JP6106026B2 JP 6106026 B2 JP6106026 B2 JP 6106026B2 JP 2013109391 A JP2013109391 A JP 2013109391A JP 2013109391 A JP2013109391 A JP 2013109391A JP 6106026 B2 JP6106026 B2 JP 6106026B2
Authority
JP
Japan
Prior art keywords
image
field data
light field
reconstructed
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013109391A
Other languages
Japanese (ja)
Other versions
JP2014230172A5 (en
JP2014230172A (en
Inventor
岩下 幸司
幸司 岩下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013109391A priority Critical patent/JP6106026B2/en
Publication of JP2014230172A publication Critical patent/JP2014230172A/en
Publication of JP2014230172A5 publication Critical patent/JP2014230172A5/ja
Application granted granted Critical
Publication of JP6106026B2 publication Critical patent/JP6106026B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、画像処理装置、撮像装置、制御方法、及びプログラムに関し、特に撮影後に出力データから任意の被写体距離に合焦した画像を生成する技術に関する。 The present invention relates to an image processing apparatus, an imaging apparatus, a control method, and a program, and more particularly to a technique for generating an image focused on an arbitrary subject distance from output data after shooting.

デジタルカメラ等の撮像装置により撮像された画像のデジタルデータは、各種画像編集ツール等を用いることで、ユーザが所望する調整を行うことができる。ユーザが所望する画像編集機能の1つに撮影後に画像の合焦状態を調整する機能があるが、従来、撮影後の1枚の画像について合焦状態を変更することは困難である。このため、特許文献1のようにフォーカスレンズを駆動させながら焦点状態の異なる画像を複数撮影して記録し、撮影後に所望の合焦状態の画像を選択して使用可能にするものがある。   Digital data of an image captured by an imaging device such as a digital camera can be adjusted as desired by the user by using various image editing tools. One of the image editing functions desired by the user is a function of adjusting the in-focus state of the image after shooting. Conventionally, it is difficult to change the in-focus state of one image after shooting. For this reason, as disclosed in Japanese Patent Application Laid-Open No. H10-260260, there is a technique in which a plurality of images with different focus states are captured and recorded while the focus lens is driven, and an image in a desired in-focus state can be selected and used after shooting.

一方、近年ではデジタルカメラ等の撮像装置において、撮影時に光の強度分布との進行方向とを出力データとして記録することで、記録後に該出力データから任意の被写体距離に合焦した画像を生成する技術が提案されている。 On the other hand, in recent years, in an imaging apparatus such as a digital camera, an image focused on an arbitrary subject distance is generated from the output data after recording, by recording the traveling direction of the light intensity distribution and the traveling direction as output data. Technology has been proposed.

このような技術の1つにマイクロレンズアレイを介して撮像素子の各画素(光電変換素子)に撮像レンズの異なる分割瞳領域を通過した光束を結像させることにより、様々な方向から入射した光を分離して記録する方法(Light Field Photography)がある。得られた出力データ(Light Field Data。以下、LFデータ)は、隣り合う画素が異なる方向から入射した光束を記録している。LFデータからは、また、任意の被写体距離を設定し、該被写体距離に対応する焦点面における1点を通過した光束を記録している画素の出力を加算することで、撮影後に特定の被写体距離に合焦した画像のピクセルを擬似的に生成(再構成)することができる。 One such technique is to form light beams that have passed through different divided pupil regions of the imaging lens on each pixel (photoelectric conversion element) of the imaging device via a microlens array, thereby allowing light incident from various directions. There is a method (Light Field Photography) to record separately. The obtained output data (Light Field Data, hereinafter referred to as LF data) records the light flux that is incident from different directions on adjacent pixels. From the LF data, an arbitrary subject distance is set, and the output of a pixel that records a light beam that has passed through one point on the focal plane corresponding to the subject distance is added, so that a specific subject distance is obtained after shooting. It is possible to artificially generate (reconstruct) the pixels of the image focused on.

特開2005−277813号公報JP 2005-277813 A

しかしながら、上述したようにLFデータから任意の焦点面に対応した画像を再構成する場合、焦点面に応じて加算する画素を特定し、各画素について加算処理を行って画像を生成する必要がある。つまり、選択した被写体距離に対応する焦点面における再構成画像を生成するには、都度、演算処理に係る時間が必要となる。 However, when an image corresponding to an arbitrary focal plane is reconstructed from the LF data as described above, it is necessary to specify pixels to be added according to the focal plane and perform an addition process for each pixel to generate an image. . That is, in order to generate a reconstructed image on the focal plane corresponding to the selected subject distance, time for calculation processing is required each time.

例えば1つの被写体に合焦した再構成画像を生成する場合、ユーザは生成する被写体距離を選択する必要があるが、このとき必ずしも該被写体に合焦する被写体距離を選択できない可能性がある。即ち、再構成画像が生成されるまで、ユーザは、選択した被写体距離が該被写体に合焦する被写体距離であるかを判断できないため、繰り返し被写体距離を選択して再構成画像を生成する必要があり、結果的に所望の焦点状態の再構成画像が得られるまでに時間を要する可能性があった。 For example, when generating a reconstructed image focused on one subject, the user needs to select the subject distance to be generated. At this time, there is a possibility that the subject distance focused on the subject cannot always be selected. That is, until the reconstructed image is generated, the user cannot determine whether the selected subject distance is the subject distance focused on the subject. Therefore, it is necessary to repeatedly select the subject distance and generate the reconstructed image. As a result, it may take time until a reconstructed image having a desired focus state is obtained.

本発明は、上述の問題点に鑑みてなされたものであり、所望の被写体に対して好適に合焦する被写体距離を容易に特定可能な画像信号を生成する画像処理装置、撮像装置、制御方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of the above-described problems, and an image processing apparatus, an imaging apparatus, and a control method for generating an image signal that can easily specify a subject distance that is suitably focused on a desired subject. And to provide a program.

前述の目的を達成するために、本発明の画像処理装置は、以下の構成を備えることを特徴とする。具体的には画像処理装置は、被写体の光線空間情報であるライトフィールドデータを取得する取得手段と、取得手段により取得されたライトフィールドデータから特定の被写体距離に合焦した再構成画像を生成する生成手段であって、ライトフィールドデータから生成可能な再構成画像における所定の領域について、焦点状態の異なる複数の再構成画像を生成する生成手段と、生成手段により生成された複数の再構成画像を、ライトフィールドデータに関連付けて記憶する記憶手段と、を有することを特徴とする。 In order to achieve the above object, an image processing apparatus of the present invention is characterized by having the following configuration. Specifically, the image processing device generates light field data that is light field information of the subject , and generates a reconstructed image focused on a specific subject distance from the light field data acquired by the acquisition unit. Generating means for generating a plurality of reconstructed images having different focus states for a predetermined region in a reconstructed image that can be generated from light field data; and a plurality of reconstructed images generated by the generating means. And storage means for storing the light field data in association with the light field data.

このような構成により本発明によれば、所望の被写体に対して好適に合焦する被写体距離を容易に特定可能な画像信号を生成することが可能となる。 With such a configuration, according to the present invention, it is possible to generate an image signal that can easily specify a subject distance that is suitably focused on a desired subject.

本発明の実施形態に係るデジタルカメラ100の機能構成を示したブロック図1 is a block diagram showing a functional configuration of a digital camera 100 according to an embodiment of the present invention. 本発明の実施形態に係るマイクロレンズアレイ105と撮像部106の関係を説明するための図The figure for demonstrating the relationship between the microlens array 105 which concerns on embodiment of this invention, and the imaging part 106. FIG. 本発明の実施形態に係る射出瞳301の各領域を通過した光束と、該光束を光電変換する光電変換素子の関係を説明するための図The figure for demonstrating the relationship between the light beam which passed each area | region of the exit pupil 301 which concerns on embodiment of this invention, and the photoelectric conversion element which photoelectrically converts this light beam. 本発明の実施形態に係る射出瞳301の各領域と、各マイクロレンズに対応付けられた光電変換素子との対応を示した図The figure which showed the response | compatibility with each area | region of the exit pupil 301 which concerns on embodiment of this invention, and the photoelectric conversion element matched with each micro lens 本発明の実施形態に係るデジタルカメラ100で実行される撮影処理を例示したフローチャートThe flowchart which illustrated the imaging | photography process performed with the digital camera 100 which concerns on embodiment of this invention. 本発明の実施形態に係る撮影処理において、領域について生成される参照用画像を説明するための図The figure for demonstrating the image for a reference produced | generated about an area | region in the imaging | photography process which concerns on embodiment of this invention. 本発明の実施形態に係る撮影処理において、LFデータに関連付けられる参照用画像についての詳細情報を示した図The figure which showed the detailed information about the image for a reference linked | related with LF data in the imaging | photography process which concerns on embodiment of this invention. 本発明の実施形態に係るデジタルカメラ100で実行される再生処理を例示したフローチャートThe flowchart which illustrated the reproduction | regeneration processing performed with the digital camera 100 which concerns on embodiment of this invention. 本発明の実施形態に係る再生処理における表示態様を例示した図The figure which illustrated the display mode in the reproduction processing concerning the embodiment of the present invention

[実施形態]
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下に説明する一実施形態は、画像処理装置の一例としての、撮影後にLFデータから任意の被写体距離に合焦した画像を生成可能なデジタルカメラに、本発明を適用した例を説明する。しかし本発明は、LFデータから任意の被写体距離に合焦した画像を生成することが可能な任意の機器に適用可能である。
[Embodiment]
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following embodiment, an example in which the present invention is applied to a digital camera that can generate an image focused on an arbitrary subject distance from LF data after shooting as an example of an image processing apparatus will be described. . However, the present invention can be applied to any device capable of generating an image focused on an arbitrary subject distance from LF data.

また、本明細書において、以下の用語を定義して説明する。   In this specification, the following terms are defined and described.

・「ライトフィールドデータ(LFデータ:Light Field Data)」
被写体空間の3次元的な情報を示すデータ。本実施形態では、デジタルカメラ100が有する撮像部106から出力される画像信号。画像信号の画素の各々は、通過した撮像光学系104の瞳領域及び入射方向の組み合わせが異なる光束に対応した信号強度を示している。LFデータは、光線空間情報とも呼ばれる。なお、本実施形態では、図1〜4に示すような光学系によってLFデータを取得しているが、撮像手段としてはこれに限らない。例えば特開2011−22796号公報のように、複数の視点の異なるカメラをまとめて撮像部106とみなす構成でもよい。また、図3の光学系と異なり、物体平面と撮像素子が共役の関係にあるように、マイクロレンズアレイ上で撮影光学系からの光束を結像させ、その結像面に撮像素子を設ける構成でもよい。さらには、マイクロレンズアレイ上で撮影光学系からの光束を再結像させ(一度結像した光束が拡散する状態にあるものを結像させるので再結像と呼んでいる)、その結像面に撮像素子を設けるような構成でも良い。また、適当なパターンを施したマスク(ゲイン変調素子)を撮影光学系の光路中に挿入する方法も利用できる。
・ "Light field data (LF data: Light Field Data)"
Data indicating three-dimensional information of the subject space. In the present embodiment, an image signal output from the imaging unit 106 included in the digital camera 100. Each pixel of the image signal indicates a signal intensity corresponding to a light beam having a different combination of the pupil region and the incident direction of the imaging optical system 104 that has passed. The LF data is also called ray space information. In the present embodiment, LF data is acquired by an optical system as shown in FIGS. 1 to 4, but the imaging means is not limited to this. For example, as in JP 2011-22796 A, a configuration in which a plurality of cameras with different viewpoints are collectively regarded as the imaging unit 106 may be used. In addition, unlike the optical system of FIG. 3, a configuration in which the light beam from the imaging optical system is imaged on the microlens array and the imaging device is provided on the imaging surface so that the object plane and the imaging device are in a conjugate relationship. But you can. Furthermore, the image from the imaging optical system is re-imaged on the microlens array (this is called re-imaging because the image once formed is diffused), and the image plane A configuration in which an image pickup element is provided in the apparatus may be used. A method of inserting a mask (gain modulation element) with an appropriate pattern into the optical path of the photographing optical system can also be used.

・「再構成画像」
LFデータから生成される、任意の被写体距離に合焦した画像。具体的には生成する被写体距離に対応する焦点面(再構成面)での画素配置に従ってLFデータの画素を並び替え、再構成画像の1画素に対応する画素の画素値を合算することで該画素の画素値を得る。再構成面における画素配置は、再構成面に撮像素子が存在した場合に入射する光束を入射方向に基づいて決定される。該画素配置において1つのマイクロレンズに対応する画素の画素値を足し合わせることで、再構成画像の1画素を生成することができる。
・ "Reconstructed image"
An image generated from LF data and focused on an arbitrary subject distance. Specifically, the pixels of the LF data are rearranged according to the pixel arrangement on the focal plane (reconstruction plane) corresponding to the object distance to be generated, and the pixel values of the pixels corresponding to one pixel of the reconstructed image are summed. Get the pixel value of the pixel. The pixel arrangement on the reconstruction plane is determined based on the incident direction of the incident light beam when the image sensor is present on the reconstruction plane. One pixel of the reconstructed image can be generated by adding pixel values of pixels corresponding to one microlens in the pixel arrangement.

《デジタルカメラ100の構成》
図1は、本発明の実施形態に係るデジタルカメラ100の機能構成を示すブロック図である。
<< Configuration of Digital Camera 100 >>
FIG. 1 is a block diagram showing a functional configuration of a digital camera 100 according to an embodiment of the present invention.

制御部101は、例えばCPUであり、デジタルカメラ100が有する各ブロックの動作を制御する。具体的には制御部101は、ROM102に記憶されている、後述する撮影処理あるいはリフォーカス動画生成処理の動作プログラムを読み出し、RAM103に展開して実行することにより、各ブロックの動作を制御する。   The control unit 101 is a CPU, for example, and controls the operation of each block included in the digital camera 100. Specifically, the control unit 101 controls an operation of each block by reading an operation program for a shooting process or a refocus moving image generation process, which will be described later, stored in the ROM 102, and developing and executing the program on the RAM 103.

ROM102は、例えば書き換え可能な不揮発性メモリであり、デジタルカメラ100が有する各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。   The ROM 102 is, for example, a rewritable nonvolatile memory, and stores parameters necessary for the operation of each block in addition to the operation program for each block of the digital camera 100.

RAM103は、揮発性メモリである。RAM103は、デジタルカメラ100が有する各ブロックの動作プログラムの展開領域としてだけでなく、各ブロックの動作において出力された中間データ等を記憶する格納領域としても用いられる。   The RAM 103 is a volatile memory. The RAM 103 is used not only as a development area for the operation program of each block included in the digital camera 100 but also as a storage area for storing intermediate data output in the operation of each block.

撮像部106は、例えばCCDやCMOSセンサ等の撮像素子である。撮像部106は、制御部101の指示により不図示のタイミングジェネレータ(TG)から出力されるタイミング信号を受けて、撮像光学系104により撮像素子の光電変換素子面に結像された光学像を光電変換し、アナログ画像信号を出力する。なお、撮像光学系104は例えば対物レンズ、フォーカスレンズ、絞り等を含む。また、本実施形態のデジタルカメラ100は、撮像素子の各光電変換素子に設けられているマイクロレンズとは別に、光軸上の撮像光学系104と撮像素子との間にマイクロレンズアレイ105を有する。   The imaging unit 106 is an imaging element such as a CCD or a CMOS sensor. The imaging unit 106 receives a timing signal output from a timing generator (TG) (not shown) according to an instruction from the control unit 101, and photoelectrically converts an optical image formed on the photoelectric conversion element surface of the imaging element by the imaging optical system 104. Convert and output analog image signal. Note that the imaging optical system 104 includes, for example, an objective lens, a focus lens, a diaphragm, and the like. In addition, the digital camera 100 according to the present embodiment includes a microlens array 105 between the imaging optical system 104 on the optical axis and the imaging element separately from the microlens provided in each photoelectric conversion element of the imaging element. .

〈マイクロレンズと光電変換素子との関係〉
ここで、本実施形態のデジタルカメラ100において、光軸上の撮像光学系104と撮像素子との間に設けられたマイクロレンズアレイ105について、図を用いて説明する。
<Relationship between microlens and photoelectric conversion element>
Here, the microlens array 105 provided between the imaging optical system 104 on the optical axis and the imaging element in the digital camera 100 of the present embodiment will be described with reference to the drawings.

図2に示すように、本実施形態のマイクロレンズアレイ105は複数のマイクロレンズ201で構成される。図2では、撮像光学系104の光軸をz軸とし、デジタルカメラ100の横位置における水平方向をx軸、鉛直方向をy軸としている。なお、図2の例では簡単のため、マイクロレンズアレイ105は6行6列に並んだマイクロレンズ201で構成されるものとして説明するが、マイクロレンズアレイ105の構成はこれに限られるものではない。   As shown in FIG. 2, the microlens array 105 of the present embodiment includes a plurality of microlenses 201. In FIG. 2, the optical axis of the imaging optical system 104 is the z axis, the horizontal direction of the digital camera 100 is the x axis, and the vertical direction is the y axis. In the example of FIG. 2, for the sake of simplicity, the microlens array 105 will be described as being configured by microlenses 201 arranged in 6 rows and 6 columns, but the configuration of the microlens array 105 is not limited to this. .

また図2では、撮像部106を構成する撮像素子の光電変換素子202が格子で示されている。各マイクロレンズ201には、所定数の光電変換素子202が対応づけられており、図2の例では1つのマイクロレンズ201に対して6×6=36画素の光電変換素子202が対応づけられている。1つのマイクロレンズ201を通過した光束は、入射した方向に応じて分離され、対応する光電変換素子202に結像される。   In FIG. 2, the photoelectric conversion element 202 of the image pickup element that forms the image pickup unit 106 is shown by a lattice. A predetermined number of photoelectric conversion elements 202 are associated with each microlens 201, and in the example of FIG. 2, a photoelectric conversion element 202 of 6 × 6 = 36 pixels is associated with one microlens 201. Yes. The light beam that has passed through one microlens 201 is separated according to the incident direction, and is imaged on the corresponding photoelectric conversion element 202.

図3は、1つのマイクロレンズ201に対応する光電変換素子202p乃至pに入射する光束を図示している。図3において、上方向は鉛直上向き方向に対応している。図では、デジタルカメラ100が横位置にある状態における、横方向から見た、各光電変換素子202に入射する光束の光路を例示している。図示されるように、水平方向に並んだ光電変換素子202p乃至pには、1つのマイクロレンズ201を介して、撮像光学系104の射出瞳301を垂直方向に6分割した領域a乃至aを通過した光束がそれぞれ入射する。なお、各領域に付された数字は、通過した光束が入射する光電変換素子202との対応関係を示している。 FIG. 3 illustrates light beams incident on the photoelectric conversion elements 202p 1 to p 6 corresponding to one microlens 201. In FIG. 3, the upward direction corresponds to the vertically upward direction. In the figure, an optical path of a light beam incident on each photoelectric conversion element 202 viewed from the horizontal direction in a state where the digital camera 100 is in the horizontal position is illustrated. As shown in the figure, the photoelectric conversion elements 202p 1 to p 6 arranged in the horizontal direction have regions a 1 to a which are obtained by dividing the exit pupil 301 of the imaging optical system 104 into six in the vertical direction via one micro lens 201. The light beams that have passed through a 6 are incident on each. In addition, the number attached | subjected to each area | region has shown the correspondence with the photoelectric conversion element 202 in which the light beam which passed through enters.

なお、図3の例では横方向から見た、各光電変換素子202に入射する光束の光路を示したが、光束の分離は垂直方向に限らず、水平方向においても同様に行われる。即ち、撮像光学系104の射出瞳301を撮像素子側から見て図4(a)のような領域に分類した場合、各領域を通過した光束は、図4(b)に示されるような光電変換素子202のうち、同一の識別数字が付された光電変換素子に入射する。なお、ここでは、撮像光学系104とマイクロレンズアレイ105の各マイクロレンズのFナンバー(F値)は略一致しているものとする。   In the example of FIG. 3, the optical path of the light beam incident on each photoelectric conversion element 202 viewed from the horizontal direction is shown, but the light beam separation is not limited to the vertical direction, and is similarly performed in the horizontal direction. That is, when the exit pupil 301 of the image pickup optical system 104 is classified into the regions as shown in FIG. 4A when viewed from the image pickup device side, the light beam that has passed through each region has a photoelectric as shown in FIG. Of the conversion elements 202, the light enters the photoelectric conversion elements with the same identification numbers. Here, it is assumed that the F numbers (F values) of the microlenses of the imaging optical system 104 and the microlens array 105 are substantially the same.

AFE107及びDFE108は、撮像部106により生成された画像信号に対する補正処理等を行う。具体的にはAFE107は、撮像部106から出力されたアナログ画像信号に対して、基準レベルの調整(クランプ処理)やA/D変換処理を行い、LFデータをDFE108に出力する。DFE108は、入力されたLFデータに対して微少な基準レベルのずれ等を補正する。   The AFE 107 and the DFE 108 perform a correction process on the image signal generated by the imaging unit 106. Specifically, the AFE 107 performs reference level adjustment (clamp processing) and A / D conversion processing on the analog image signal output from the imaging unit 106, and outputs LF data to the DFE 108. The DFE 108 corrects a slight reference level shift or the like with respect to the input LF data.

画像処理部109は、DFE108による補正処理が適用されたLFデータに対して、色変換処理等の各種画像処理を適用する。また本実施形態では画像処理部109は、LFデータから任意の被写体距離に合焦する画像(再構成画像)の生成する処理も行う。また本実施形態では画像処理部109は、顔検出部121、顔認識部122、及び距離検出部123を有する。 The image processing unit 109 applies various image processing such as color conversion processing to the LF data to which the correction processing by the DFE 108 is applied. In the present embodiment, the image processing unit 109 also performs processing for generating an image (reconstructed image) that focuses on an arbitrary subject distance from the LF data. In the present embodiment, the image processing unit 109 includes a face detection unit 121, a face recognition unit 122, and a distance detection unit 123.

顔検出部121は、画像処理部109によりLFデータから生成された再構成画像から、人物の顔のパターンに相当する領域を検出する。顔検出処理では、例えば眼、鼻、口の各端点、顔の輪郭点等の特徴点を再構成画像から抽出し、これらの特徴点に基づいて被写体の顔領域の大きさが取得される。なお、LFデータの撮影時において、撮影範囲にはデジタルカメラ100との距離が様々な位置に人物被写体が存在することが考えられるため、顔検出処理は様々な被写体距離について生成された再構成画像について行われてよい。あるいは、例えばマイクロレンズ201により分離された光束のうち、1つの分割瞳領域を通過した光束に対応した画素のみで生成した再構成画像は、絞り状態で撮影した画像と等価であるため、これを顔検出処理に利用してもよい。即ち、このような再構成画像は絞り状態と同様に被写界深度が深い画像であるため、デジタルカメラ100との距離が様々である人物被写体の各々を同時に検出可能である。 The face detection unit 121 detects an area corresponding to a human face pattern from the reconstructed image generated from the LF data by the image processing unit 109. In the face detection process, for example, feature points such as eye, nose and mouth end points and face contour points are extracted from the reconstructed image, and the size of the face area of the subject is acquired based on these feature points. Note that when photographing LF data, it is considered that there are human subjects at various positions in the photographing range with respect to the digital camera 100. Therefore, the face detection process is a reconstructed image generated for various subject distances. May be done about. Alternatively, for example, a reconstructed image generated only with pixels corresponding to the light beam that has passed through one divided pupil region among the light beams separated by the microlens 201 is equivalent to an image photographed in the aperture state. You may utilize for a face detection process. That is, since such a reconstructed image is an image having a deep depth of field as in the aperture state, it is possible to simultaneously detect human subjects having various distances from the digital camera 100.

顔認識部122は、顔検出部121により検出された顔領域について、予め特徴量が登録されている人物の顔領域であるかを認識する顔認識処理を行う。顔認識処理には、上述した特徴点の配置情報と顔領域の大きさとを用いて、予め登録されている人物の特徴量との類似度を算出し、同一人物の顔領域であるか否かが判断される。   The face recognition unit 122 performs face recognition processing for recognizing whether the face area detected by the face detection unit 121 is a face area of a person whose feature amount is registered in advance. In the face recognition process, using the feature point arrangement information and the size of the face area described above, a similarity with a feature quantity of a person registered in advance is calculated, and whether or not the face area is the same person. Is judged.

距離検出部123は、LFデータの撮影時に撮影範囲に存在していた各人物被写体とデジタルカメラ100との距離を検出する。距離検出部123は、例えば不図示のラインセンサを利用して位相差検出方式により各人物被写体の距離を検出する。あるいは、本実施形態のようにLFデータを取得する場合、例えば異なる2つの分割瞳領域を通過した光束を用いて生成された2種類の画像を用いて、位相差検出方式により各人物被写体の距離を検出するものであってもよい。また、上述したように被写体距離を変更しながら再構成画像を生成して顔検出部121による顔検出処理が行われる場合、顔領域の各々についてコントラスト評価値が最も高くなる被写体距離を特定することで、距離検出部123は各人物被写体の距離を検出してもよい。 The distance detection unit 123 detects the distance between each person subject existing in the shooting range at the time of shooting the LF data and the digital camera 100. The distance detection unit 123 detects the distance of each human subject by a phase difference detection method using a line sensor (not shown), for example. Alternatively, when acquiring LF data as in the present embodiment, for example, using two types of images generated using light beams that have passed through two different divided pupil regions, the distance between each person subject using the phase difference detection method May be detected. Also, as described above, when the reconstructed image is generated while changing the subject distance and the face detection processing is performed by the face detection unit 121, the subject distance that gives the highest contrast evaluation value is specified for each face region. Thus, the distance detection unit 123 may detect the distance of each person subject.

表示部110は、例えば小型LCD等のデジタルカメラ100が有する表示装置である。表示部110は、画像処理部109により生成された、任意の被写体距離に合焦した画像を表示する。上述したように、本実施形態の撮像部106から出力されるアナログ画像信号をA/D変換して得られるLFデータは、隣り合う画素において像が連結しない。このため表示部110には、LFデータではなく画像処理部109により生成された画像データが表示される。 The display unit 110 is a display device included in the digital camera 100 such as a small LCD. The display unit 110 displays an image generated by the image processing unit 109 and focused on an arbitrary subject distance. As described above, the LF data obtained by A / D converting the analog image signal output from the imaging unit 106 according to the present embodiment does not connect the images in adjacent pixels. Therefore, not the LF data but the image data generated by the image processing unit 109 is displayed on the display unit 110.

記録媒体111は、例えばデジタルカメラ100が有する内蔵メモリや、メモリカードやHDD等のデジタルカメラ100に着脱可能に接続される記録装置である。記録媒体111には、LFデータ、及びこれらのLFデータから生成された任意の被写体距離に合焦する画像が記録される。 The recording medium 111 is a recording device that is detachably connected to the digital camera 100 such as a built-in memory of the digital camera 100, a memory card, or an HDD. The recording medium 111 records LF data and an image focused on an arbitrary subject distance generated from these LF data.

操作入力部112は、例えば電源ボタンやシャッタボタン等の、デジタルカメラ100が有するユーザインタフェースである。操作入力部112は、ユーザによりユーザインタフェースが操作されたことを検出すると、該操作に対応する制御信号を制御部101に出力する。なお、本実施形態では表示部110は、タッチパネルセンサを備えるタッチパネルディスプレイであり、タッチパネルセンサにより検出されたタッチ操作は、操作入力部112により検出され、制御部101に伝達される。   The operation input unit 112 is a user interface that the digital camera 100 has, such as a power button and a shutter button. When the operation input unit 112 detects that the user interface has been operated by the user, the operation input unit 112 outputs a control signal corresponding to the operation to the control unit 101. In the present embodiment, the display unit 110 is a touch panel display including a touch panel sensor, and a touch operation detected by the touch panel sensor is detected by the operation input unit 112 and transmitted to the control unit 101.

《撮影処理》
このような構成をもつ本実施形態のデジタルカメラ100において実行されるLFデータの撮影処理について、図5のフローチャートを用いて具体的な処理を説明する。なお、本撮影処理は、例えばデジタルカメラ100においてLFデータの撮影指示がなされた際に開始されるものとして説明する。
<Shooting process>
A specific process of the LF data shooting process executed in the digital camera 100 of the present embodiment having such a configuration will be described with reference to the flowchart of FIG. Note that this imaging process will be described as being started when, for example, a digital camera 100 is instructed to shoot LF data.

S501で、制御部101は、撮像部106に受光した光束の撮影を行わせ、AFE107、DFE108、及び画像処理部109によるLFデータ生成に係る処理が適用されたLFデータを取得し、例えばRAM103に格納する。   In step S <b> 501, the control unit 101 causes the imaging unit 106 to capture the received light beam, acquires LF data to which processing related to LF data generation by the AFE 107, DFE 108, and image processing unit 109 is applied. Store.

S502で、顔検出部121は制御部101の制御の下、LFデータに含まれる人物被写体の顔領域を検出する。また距離検出部123は制御部101の制御の下、各顔領域に合焦する被写体距離の情報を取得する。得られた顔領域の位置及びサイズの情報と、該顔領域に合焦する被写体距離の情報とは、例えばRAM103に格納される。 In step S <b> 502, the face detection unit 121 detects the face area of the human subject included in the LF data under the control of the control unit 101. Further, the distance detection unit 123 acquires information on the subject distance focused on each face area under the control of the control unit 101. Information on the position and size of the obtained face area and information on the subject distance focused on the face area are stored in the RAM 103, for example.

S503で、画像処理部109は制御部101の制御の下、LFデータの代表画像となる再構成画像を生成する。代表画像となる再構成画像は、例えば撮影時の撮像光学系104のフォーカスレンズの設定に対応する被写体距離に合焦する画像であってよい。具体的には画像処理部109は、各マイクロレンズ201を通過した光束に対応している画素を加算することで代表画像となる再構成画像の各画素の画素値を取得する。 In step S <b> 503, the image processing unit 109 generates a reconstructed image that is a representative image of LF data under the control of the control unit 101. The reconstructed image serving as the representative image may be an image focused on the subject distance corresponding to the setting of the focus lens of the imaging optical system 104 at the time of shooting, for example. Specifically, the image processing unit 109 acquires the pixel value of each pixel of the reconstructed image serving as the representative image by adding the pixels corresponding to the light beams that have passed through each microlens 201.

S504で、制御部101は、焦点状態の異なる再構成画像を参照可能にする領域の設定がユーザによりなされているか否かを判断する。   In step S <b> 504, the control unit 101 determines whether the user has set an area in which reconstructed images with different focus states can be referred to.

本実施形態のデジタルカメラ100では、LFデータから再構成画像を生成する被写体距離を決定するための指標になるよう、所定の領域について複数の異なる被写体距離について合焦するように生成された再構成画像(参照用画像)をLFデータに関連付けて記録する。即ち、記録されたLFデータは、撮影範囲の全体に対応した再構成画像を生成することなく、該領域について焦点状態の異なる参照用画像を参照可能なように構成されて記録される。該領域は、ユーザにより表示部110の表面へのタッチ操作がなされることでLFデータの撮影前に予め設定されてよく、本ステップではこのような領域の設定がなされているか否かを判断する。なお、本実施形態のデジタルカメラ100では、このような領域はユーザにより設定される領域の他に、
・人物の認識用の特徴量の情報が登録されている人物の顔領域
・主被写体が存在すると想定される撮影画角の中央領域に存在する顔領域
の2種類が使用されうる。以下の説明では、これらの領域は「ユーザにより設定された領域」、「特徴量が登録されている人物の顔領域」、「中央領域に存在する顔領域」の順番に優先度が設定され、いずれか1つの基準により選択された領域について参照用画像の生成が行われる。しかしながら、本発明の実施はこれに限られるものではなく、任意の条件により選択された所定の領域について、焦点状態の異なる複数の参照用画像が生成され、LFデータに関連付けて記録されるものであれば適用可能である。
In the digital camera 100 of the present embodiment, the reconstruction generated to focus on a plurality of different subject distances for a predetermined region so as to be an index for determining the subject distance for generating the reconstructed image from the LF data. An image (reference image) is recorded in association with the LF data. That is, the recorded LF data is configured and recorded so that a reference image having a different focus state can be referred to for the region without generating a reconstructed image corresponding to the entire imaging range. The area may be set in advance before photographing the LF data by performing a touch operation on the surface of the display unit 110 by the user. In this step, it is determined whether or not such an area has been set. . In the digital camera 100 of the present embodiment, such an area is not only an area set by the user,
A face area of a person in which information about a feature amount for human recognition is registered. Two types of face areas existing in a central area of a shooting angle of view where a main subject is assumed to be present can be used. In the following description, priority is set for these areas in the order of "area set by the user", "face area of the person whose feature value is registered", and "face area existing in the center area" A reference image is generated for an area selected according to any one of the criteria. However, the implementation of the present invention is not limited to this, and a plurality of reference images having different focus states are generated and recorded in association with LF data for a predetermined region selected according to an arbitrary condition. Applicable if available.

制御部101は、参照用画像を参照可能にする領域の設定がなされていると判断した場合は処理をS505に移し、なされていないと判断した場合は処理をS506に移す。   The control unit 101 moves the process to S <b> 505 if it is determined that an area that allows the reference image to be referred to has been set, and moves the process to S <b> 506 if it is determined that the area has not been set.

S505で、制御部101は、ユーザにより設定された領域について、焦点状態の異なる複数の参照用画像を生成する被写体距離を決定する。本実施形態では領域について生成される複数の参照用画像には、少なくとも該領域の被写体に合焦する被写体距離に対応する焦点面について再構成された再構成画像を含むものとする。領域が人物の顔領域に対応する領域でない場合は、本ステップにおいて該領域の被写体とデジタルカメラ100との距離の情報が取得されたのち、該被写体に合焦する被写体距離が再構成画像を生成する被写体距離の1つとして決定される。また本実施形態のデジタルカメラ100では、設定された領域について、該領域の被写体に合焦する被写体距離の他に、6種類の被写体距離が再構成画像の生成用に決定される。6種類の被写体距離は、例えば図6に示されるようにLFデータから合焦した再構成画像を生成可能な被写体距離の範囲について、均等な分布となるように選択されてよい。図6は、領域の被写体に合焦する被写体距離が6mであり、LFデータから再構成画像を生成可能な被写体距離の範囲が1m〜11mの範囲である例を示しており、この場合1m、3m、5m、7m、9m、11mが再構成画像の生成用に決定される。 In step S <b> 505, the control unit 101 determines subject distances for generating a plurality of reference images having different focus states for the region set by the user. In the present embodiment, the plurality of reference images generated for a region include at least a reconstructed image reconstructed with respect to the focal plane corresponding to the subject distance focused on the subject in the region. If the area is not an area corresponding to a human face area, information about the distance between the subject in the area and the digital camera 100 is acquired in this step, and then the subject distance focused on the subject generates a reconstructed image. Is determined as one of the subject distances. In the digital camera 100 of the present embodiment, for the set region, in addition to the subject distance that focuses on the subject in the region, six types of subject distances are determined for generating a reconstructed image. For example, the six types of subject distances may be selected so as to have an even distribution over a range of subject distances in which a reconstructed image focused from LF data can be generated as shown in FIG. FIG. 6 shows an example in which the subject distance focused on the subject in the area is 6 m, and the range of the subject distance from which the reconstructed image can be generated from the LF data is 1 m to 11 m. 3m, 5m, 7m, 9m, and 11m are determined for generating a reconstructed image.

また制御部101は、ユーザによる設定がなされていない領域であるS502で検出された顔領域については、重要度が低いと考え、例えば生成可能な被写体距離の範囲のうちの最も短い被写体距離を、参照用画像を生成する被写体距離として決定する。 Further, the control unit 101 considers that the face area detected in S502, which is an area not set by the user, is low in importance, and for example, sets the shortest subject distance in the range of subject distances that can be generated, This is determined as the subject distance for generating the reference image.

一方、S504において領域の設定がなされていないと判断した場合、制御部101はS506で、検出された顔領域について顔認識部122に顔認識処理を実行させ、該顔領域の中に予め特徴量の登録がなされている人物の顔領域が存在するか否かを判断する。制御部101は、検出された顔領域に予め特徴量の登録がなされている人物の顔領域が存在すると判断した場合は処理をS507に移し、存在しないと判断した場合は処理をS508に移す。   On the other hand, if it is determined in S504 that no area has been set, the control unit 101 causes the face recognition unit 122 to execute face recognition processing for the detected face area in S506, and the feature amount is previously stored in the face area. It is determined whether or not there is a face area of the person who has been registered. If the controller 101 determines that there is a face area of a person whose feature value has been registered in advance in the detected face area, the control section 101 moves the process to S507, and if it does not exist, moves the process to S508.

S507で、制御部101は、S505と同様に、予め特徴量の登録がなされている人物の顔領域については、該人物に合焦する被写体距離を含む7種類の被写体距離を、参照用画像の生成用に決定する。また制御部101は、特徴量の登録がなされていない人物の顔領域については、例えば生成可能な被写体距離の範囲のうちの最も短い被写体距離を、参照用画像の生成用に決定する。 In step S507, as in step S505, the control unit 101 determines seven types of subject distances including the subject distance focused on the person for the face area of the person whose feature amount has been registered in advance for the reference image. Decide for production. The control unit 101 determines, for example, the shortest subject distance in the range of subject distances that can be generated for generating a reference image for a face area of a person whose feature value is not registered.

さらに、S506において検出された顔領域の中に予め特徴量の登録がなされている人物の顔領域が存在しないと判断した場合、制御部101はS508で、LFデータから生成可能な再構成画像の中央領域に位置する顔領域が存在するか否かを判断する。制御部101は、中央領域に位置する顔領域が存在すると判断した場合は処理をS509に移し、存在しないと判断した場合は処理をS511に移す。   Further, when it is determined that the face area of the person whose feature amount has been registered in advance does not exist in the face area detected in S506, the control unit 101 determines in S508 that the reconstructed image that can be generated from the LF data. It is determined whether or not there is a face area located in the central area. If the control unit 101 determines that there is a face region located in the central region, the process proceeds to S509. If it is determined that there is no face region, the control unit 101 proceeds to S511.

S509で、制御部101は、S505と同様に、中央領域に存在する顔領域については、該顔領域の人物に合焦する被写体距離を含む7種類の被写体距離を参照用画像の生成用に決定する。また制御部101は、中央領域に存在しない顔領域については、例えば生成可能な被写体距離の範囲のうちの最も短い被写体距離を参照用画像の生成用に決定する。 In step S509, as in step S505, the control unit 101 determines, for the face area existing in the central area, seven types of subject distances including a subject distance focused on a person in the face area for generating a reference image. To do. For the face region that does not exist in the central region, the control unit 101 determines, for example, the shortest subject distance in the range of subject distances that can be generated for generating a reference image.

S510で、画像処理部109は制御部101の制御の下、参照用画像を生成する各領域について、決定した被写体距離に合焦する参照用画像を生成する。そして制御部101は、LFデータ及び代表画像に関連付けて、参照用画像及び参照用画像の詳細情報を記録媒体111に記録し、本撮影処理を完了する。なお、参照用画像の各々には、該画像が生成された被写体距離の情報が含まれているものとする。 In S510, under the control of the control unit 101, the image processing unit 109 generates a reference image that focuses on the determined subject distance for each region in which the reference image is generated. Then, the control unit 101 records the reference image and the detailed information of the reference image on the recording medium 111 in association with the LF data and the representative image, and completes the main photographing process. Each of the reference images includes information on the subject distance at which the image is generated.

詳細情報は、例えば図7に示されるような情報であってよい。図7の例では詳細情報は、1つのLFデータについて、参照用画像が生成された領域ごとにその情報を管理する。具体的には、AREA_IDは領域ごとに設定される識別情報、AREA_Rectは領域の代表座標(例えば左上座標)及び領域の水平方向及び垂直方向のサイズが列挙された情報、AREA_Filesが領域について生成された参照用画像のファイル名の情報である。またJPEG_FileはLFデータの代表画像を特定する情報である。AREA_Flagは、複数の異なる焦点状態の参照用画像が生成された領域を示す情報であり、本実施形態では「ユーザにより設定された領域」、「特徴量が登録されている人物の顔領域」、「中央領域に存在する顔領域」について「1」が入力される。   The detailed information may be information as shown in FIG. In the example of FIG. 7, the detailed information is managed for each region in which the reference image is generated for one LF data. Specifically, AREA_ID is identification information set for each area, AREA_Rect is information representative of the area's representative coordinates (for example, upper left coordinates) and the horizontal and vertical sizes of the area, and AREA_Files is generated for the area This is information on the file name of the reference image. JPEG_File is information for specifying a representative image of LF data. AREA_Flag is information indicating an area where a plurality of reference images in different focus states are generated. In the present embodiment, “area set by a user”, “a face area of a person whose feature value is registered”, “1” is input for “the face region existing in the central region”.

一方、S508で中央領域に位置する顔領域が存在しないと判断した場合、制御部101はS511で、参照用画像を関連付けることなく、LFデータと代表画像とを関連付けて記録し、本撮影処理を完了する。   On the other hand, if it is determined in S508 that the face area located in the central area does not exist, the control unit 101 records the LF data and the representative image in association with each other in S511 without associating the reference image, and performs the main photographing process. Complete.

このように本実施形態の撮影処理を実行することで、LFデータから再構成画像を生成する際の焦点状態の指標となる参照用画像を、LFデータとともに記録することができる。   As described above, by performing the imaging processing of the present embodiment, it is possible to record a reference image that serves as an index of a focus state when generating a reconstructed image from LF data, together with the LF data.

《再生処理》
次に、上述の撮影処理により記録されたLFデータを閲覧モードで閲覧する際の再生処理について、図8を用いて詳細を説明する。なお、本再生処理は、例えばデジタルカメラ100が記録媒体111に記録されたLFデータあるいはJPEGデータを閲覧する閲覧モードに設定されて起動された際に開始されるものとして説明する。また以下の説明では簡単のため、LFデータの閲覧指示があった場合の処理についてのみ説明する。その他の画像データの閲覧指示があった場合は、例えば従前の撮像装置において行われている再生処理と同様の処理が行われればよいため、本明細書ではその詳細を省略する。
《Reproduction processing》
Next, details of the reproduction process when browsing the LF data recorded by the above-described shooting process in the browsing mode will be described with reference to FIG. Note that this playback process will be described assuming that the digital camera 100 is started when the digital camera 100 is activated in a browsing mode for browsing LF data or JPEG data recorded on the recording medium 111, for example. Further, in the following description, for the sake of simplicity, only a process when an instruction to browse LF data is given will be described. When there is an instruction to browse other image data, for example, the same processing as the reproduction processing performed in the conventional imaging apparatus may be performed, and thus the details are omitted in this specification.

S801で、制御部101は、LFデータの閲覧指示がなされたか否かを判断する。制御部101は、LFデータの閲覧指示がなされたと判断した場合は処理をS802に移し、なされていないと判断した場合は本ステップの処理を繰り返す。   In step S <b> 801, the control unit 101 determines whether an instruction to browse LF data has been issued. If the control unit 101 determines that an instruction to browse the LF data has been issued, the control unit 101 moves the process to S802. If the control unit 101 determines that an instruction has not been given, the process of this step is repeated.

S802で、制御部101は、LFデータに関連付けられた代表画像を読み出し、表示部110に表示させる。具体的には制御部101は、代表画像の表示に係る復号処理や映像信号への変換処理を画像処理部109に適用させた後、得られた映像信号を表示部110に出力することで代表画像の表示を行う。   In step S <b> 802, the control unit 101 reads a representative image associated with the LF data and causes the display unit 110 to display the representative image. Specifically, the control unit 101 applies a decoding process related to display of a representative image and a conversion process to a video signal to the image processing unit 109, and then outputs the obtained video signal to the display unit 110. Displays an image.

S803で、制御部101は、表示部110に表示されている画像について領域を選択するタッチ操作がなされたか否かを判断する。本実施形態のデジタルカメラ100では、ユーザは、LFデータの閲覧時に図9(a)に示されるように画像へのタッチ操作を行うことで、タッチした領域について生成された参照用画像を閲覧することができる。このとき参照用画像は図9(b)に示されるようにタッチした領域の周囲に選択可能に表示され、ユーザは表示されたいずれかの参照用画像を選択することで、選択した参照用画像が生成された被写体距離についての再構成画像を閲覧することができる。即ち、参照用画像は再構成画像を生成する被写体距離の選択に使用されるものであり、ユーザは所望の領域の焦点状態を確認した上で再構成画像の生成を指示することができる。つまり、このような構成によりユーザは、所望の焦点状態となる再構成画像を表示させるために、被写体距離の選択のトライアンドエラーを行う必要がなくなり、所望の焦点状態の再構成画像を表示させるまでに要する時間の短縮することができる。 In step S <b> 803, the control unit 101 determines whether a touch operation for selecting an area has been performed on the image displayed on the display unit 110. In the digital camera 100 of the present embodiment, the user browses the reference image generated for the touched region by performing a touch operation on the image as shown in FIG. 9A when browsing the LF data. be able to. At this time, the reference image is displayed so as to be selectable around the touched area as shown in FIG. 9B, and the user selects one of the displayed reference images to select the selected reference image. It is possible to view a reconstructed image for the subject distance for which is generated. That is, the reference image is used for selecting a subject distance for generating a reconstructed image, and the user can instruct generation of a reconstructed image after confirming the focus state of a desired region. That is, with such a configuration, in order to display a reconstructed image in a desired focus state, the user does not need to perform a trial-and-error for selecting a subject distance, and displays a reconstructed image in a desired focus state. It is possible to shorten the time required for the process.

制御部101は、領域を選択するタッチ操作がなされたと判断した場合は処理をS804に移し、なされていないと判断した場合は本ステップの処理を繰り返す。   If the control unit 101 determines that a touch operation for selecting an area has been performed, the control unit 101 proceeds to step S804. If it is determined that no touch operation has been performed, the control unit 101 repeats the process of this step.

S804で、制御部101は、LFデータに関連付けられた詳細情報を参照し、タッチ操作がなされた領域に対応する参照用画像を表示部110に表示されている画像に重畳して表示させる。このとき参照用画像は、上述したようにタッチ操作がなされた領域の周囲に配置されるものとする。なお、本再生処理ではLFデータに詳細情報が関連付けられ、タッチ操作がなされた領域について参照用画像が存在するものとして説明するが、これに該当しない場合は、本ステップの処理を行わずに制御部101は処理をS803に戻せばよい。   In step S <b> 804, the control unit 101 refers to the detailed information associated with the LF data, and displays a reference image corresponding to the area where the touch operation has been performed, superimposed on the image displayed on the display unit 110. At this time, the reference image is arranged around the area where the touch operation is performed as described above. In this playback process, it is assumed that detailed information is associated with the LF data and a reference image exists for the touched area. However, if this is not the case, control is performed without performing the process of this step. The unit 101 may return the process to S803.

S805で、制御部101は、表示部110に表示された参照用画像のうち、いずれかの参照用画像がユーザにより選択されたか否かを判断する。制御部101は、表示された参照用画像のうち、いずれかの参照用画像が選択されたと判断した場合は、選択された参照用画像に対応する被写体距離の情報をRAM103に格納した後、処理をS806に移す。また制御部101は、表示された参照用画像がいずれも選択されていないと判断した場合は本ステップの処理を繰り返す。なお、参照用画像の選択は、該当の参照用画像へのタッチ操作がなされたことにより行われてよい。 In step S <b> 805, the control unit 101 determines whether any reference image among the reference images displayed on the display unit 110 has been selected by the user. If the control unit 101 determines that one of the displayed reference images has been selected, the control unit 101 stores the subject distance information corresponding to the selected reference image in the RAM 103, and then performs processing. To S806. When the control unit 101 determines that none of the displayed reference images is selected, the control unit 101 repeats the process of this step. The selection of the reference image may be performed by performing a touch operation on the corresponding reference image.

S806で、画像処理部109は制御部101の制御の下、RAM103に格納された、S805において選択された参照用画像に対応する被写体距離の情報を参照し、該被写体距離に合焦する再構成画像をLFデータから生成する。そして制御部101は、生成された再構成画像を表示部110に表示させ、処理をS803に戻す。 In step S <b> 806, the image processing unit 109 refers to the subject distance information corresponding to the reference image selected in step S <b> 805 stored in the RAM 103 under the control of the control unit 101, and reconstructs to focus on the subject distance. An image is generated from LF data. Then, the control unit 101 displays the generated reconstructed image on the display unit 110, and returns the process to S803.

このようにすることで、ユーザは所望の領域の焦点状態を確認した上で再構成画像の生成を指示することができる。   By doing in this way, the user can instruct | indicate the production | generation of a reconstruction image, after confirming the focus state of a desired area | region.

以上説明したように、本実施形態の画像処理装置は、所望の被写体に対して好適に合焦する被写体距離を容易に特定可能な画像信号を生成することができる。具体的には画像処理装置は、画素の各々が、撮像装置の撮像光学系において通過した分割瞳領域及び入射方向の組み合わせが異なる光束に対応した画像信号について、該画像信号から生成可能な再構成画像における所定の領域を選択する。そして画像処理装置は、該領域について焦点状態の異なる複数の再構成画像を生成し、画像信号に関連付けて記憶する。また該画像信号の再生時には、画像処理装置は該画像信号について再構成画像を生成する指標となるように、領域に関連付けられた焦点状態の異なる複数の再構成画像を選択可能に表示する。そして再構成画像の選択がなされた場合に、該再構成画像に対応する被写体距離について、画像信号から撮影範囲の全域について再構成画像を生成する。 As described above, the image processing apparatus of the present embodiment can generate an image signal that can easily specify a subject distance that is suitably focused on a desired subject. Specifically, the image processing apparatus can reconstruct an image signal corresponding to light beams having different combinations of divided pupil regions and incident directions that have passed through the imaging optical system of the imaging apparatus from the image signal. A predetermined area in the image is selected. Then, the image processing apparatus generates a plurality of reconstructed images having different focus states for the region, and stores them in association with the image signal. Further, at the time of reproducing the image signal, the image processing apparatus displays a plurality of reconstructed images having different focus states associated with the region so as to be an index for generating a reconstructed image for the image signal. When a reconstructed image is selected, a reconstructed image is generated from the image signal over the entire shooting range for the subject distance corresponding to the reconstructed image.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (12)

被写体の光線空間情報であるライトフィールドデータを取得する取得手段と、
前記取得手段により取得された前記ライトフィールドデータから特定の被写体距離に合焦した再構成画像を生成する生成手段であって、前記ライトフィールドデータから生成可能な再構成画像における所定の領域について、焦点状態の異なる複数の再構成画像を生成する生成手段と、
前記生成手段により生成された前記複数の再構成画像を、前記ライトフィールドデータに関連付けて記憶する記憶手段と、を有する
ことを特徴とする画像処理装置。
An acquisition means for acquiring light field data which is light space information of the subject;
A generating unit that generates a reconstructed image focused on a specific subject distance from the light field data acquired by the acquiring unit, the focus on a predetermined region in the reconstructed image that can be generated from the light field data. Generating means for generating a plurality of reconstructed images in different states;
An image processing apparatus comprising: a storage unit that stores the plurality of reconstructed images generated by the generation unit in association with the light field data.
前記ライトフィールドデータから生成可能な再構成画像から、人物を検出する検出手段と、
前記検出手段により検出された人物が、予め定められた人物であるか否かを認識する認識手段と、を有し、
前記所定の領域は、前記認識手段により予め定められた人物であると認識された人物に対応する領域である
ことを特徴とする請求項1に記載の画像処理装置。
Detecting means for detecting a person from a reconstructed image that can be generated from the light field data;
Recognizing means for recognizing whether or not the person detected by the detecting means is a predetermined person,
The predetermined area, the image processing apparatus according to claim 1, characterized in <br/> be a region corresponding to the recognized person to be predetermined person by the recognizing means.
前記生成手段は、前記認識手段により予め定められた人物であると認識された人物に対応する領域が存在しない場合に、前記ライトフィールドデータから生成可能な再構成画像の中央領域に存在する人物に対応する領域を前記所定の領域として、前記複数の再構成画像を生成することを特徴とする請求項2に記載の画像処理装置。 The generation means determines whether a person existing in a central area of a reconstructed image that can be generated from the light field data when there is no area corresponding to a person recognized as a person predetermined by the recognition means. The image processing apparatus according to claim 2, wherein the plurality of reconstructed images are generated with a corresponding region as the predetermined region . 前記所定の領域を設定する指示を受け付ける入力手段をさらに有することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising an input unit that receives an instruction to set the predetermined area. 前記複数の再構成画像は、少なくとも前記所定の領域の被写体に合焦した焦点状態の再構成画像を含むことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   5. The image processing apparatus according to claim 1, wherein the plurality of reconstructed images include at least a reconstructed image in a focused state focused on a subject in the predetermined region. 前記ライトフィールドデータは、撮像装置により撮像された画像信号であって、画素の各々が、前記撮像装置の撮像光学系において通過した分割瞳領域及び入射方向の組み合わせが異なる光束に対応した画像信号であることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。   The light field data is an image signal picked up by an image pickup device, and each of the pixels is an image signal corresponding to a luminous flux having a different combination of divided pupil regions and incident directions that have passed through the image pickup optical system of the image pickup device. The image processing apparatus according to claim 1, wherein the image processing apparatus is provided. 画素の各々が、撮像光学系において通過した分割瞳領域及び入射方向の組み合わせが異なる光束に対応している画像信号を出力する撮像手段と、
請求項1乃至6のいずれか1項に記載の画像処理装置と、
を有することを特徴とする撮像装置。
An imaging unit that outputs an image signal in which each of the pixels corresponds to a luminous flux having a different combination of divided pupil regions and incident directions that have passed through the imaging optical system;
The image processing apparatus according to any one of claims 1 to 6,
An imaging device comprising:
被写体の光線空間情報であるライトフィールドデータを選択する選択手段と、
前記選択手段により選択された前記ライトフィールドデータに対応する画像を表示手段に表示する制御手段と、
前記表示手段に表示された前記画像について、異なる焦点状態に変更する領域を決定する決定手段と、
前記ライトフィールドデータから特定の被写体距離に合焦した再構成画像を生成する生成手段と、を有し、
前記制御手段は、
前記決定手段により決定された前記領域について、焦点状態の異なる該領域の再構成画像が前記ライトフィールドデータに関連付けられている場合に、前記画像とともに該領域の再構成画像を選択可能に前記表示手段に表示し、
前記表示手段に表示された前記領域の再構成画像のうちの1つの再構成画像が選択された場合に、前記生成手段により生成された、該1つの再構成画像に対応する被写体距離に合焦した再構成画像を前記表示手段に表示する
ことを特徴とする再生装置。
A selection means for selecting light field data which is light space information of the subject;
Control means for displaying an image corresponding to the light field data selected by the selection means on a display means;
Determining means for determining a region to be changed to a different focus state for the image displayed on the display means;
Generating means for generating a reconstructed image focused on a specific subject distance from the light field data,
The control means includes
For the area determined by the determining means, when a reconstructed image of the area having a different focus state is associated with the light field data, the reconstructed image of the area can be selected together with the image Displayed on the
When one reconstructed image among the reconstructed images of the region displayed on the display unit is selected, the object distance corresponding to the one reconstructed image generated by the generating unit is focused. A reconstructed image is displayed on the display means.
画像処理装置の取得手段が、被写体の光線空間情報であるライトフィールドデータを取得する取得工程と、
前記画像処理装置の生成手段が、前記取得工程において取得された前記ライトフィールドデータから特定の被写体距離に合焦した再構成画像を生成する生成工程であって、前記ライトフィールドデータから生成可能な再構成画像における所定の領域について、焦点状態の異なる複数の再構成画像を生成する生成工程と、
前記画像処理装置の記憶手段が、前記生成工程において生成された前記複数の再構成画像を、前記ライトフィールドデータに関連付けて記憶する記憶工程と、を有する
ことを特徴とする画像処理装置の制御方法。
An acquisition step in which an acquisition unit of the image processing apparatus acquires light field data that is light space information of the subject;
The generation means of the image processing device is a generation step of generating a reconstructed image focused on a specific subject distance from the light field data acquired in the acquisition step, and a reconstructable image that can be generated from the light field data. Generating a plurality of reconstructed images having different focus states for a predetermined region in the composition image;
A storage method of the image processing device, comprising: a storage step of storing the plurality of reconstructed images generated in the generation step in association with the light field data. .
再生装置の選択手段が、被写体の光線空間情報であるライトフィールドデータを選択する選択工程と、
前記再生装置の制御手段が、前記選択工程において選択された前記ライトフィールドデータに対応する画像を表示手段に表示する制御工程と、
前記再生装置の決定手段が、前記表示手段に表示された前記画像について、異なる焦点状態に変更する領域を決定する決定工程と、
前記再生装置の生成手段が、前記ライトフィールドデータから特定の被写体距離に合焦した再構成画像を生成する生成工程と、を有し、
前記制御手段は前記制御工程において、
前記決定工程において決定された前記領域について、焦点状態の異なる該領域の再構成画像が前記ライトフィールドデータに関連付けられている場合に、前記画像とともに該領域の再構成画像を選択可能に前記表示手段に表示し、
前記表示手段に表示された前記領域の再構成画像のうちの1つの再構成画像が選択された場合に、前記生成工程において生成された、該1つの再構成画像に対応する被写体距離に合焦した再構成画像を前記表示手段に表示する
ことを特徴とする再生装置の制御方法。
A selection step in which the selection means of the playback device selects light field data that is light space information of the subject;
A control step in which the control means of the playback device displays an image corresponding to the light field data selected in the selection step on a display means;
A determination step of determining a region to be changed to a different focus state with respect to the image displayed on the display unit;
Generating means for generating a reconstructed image focused on a specific subject distance from the light field data, the generating means of the playback device,
The control means in the control step,
For the region determined in the determining step, when a reconstructed image of the region having a different focus state is associated with the light field data, the display unit can select the reconstructed image of the region together with the image Displayed on the
When one reconstructed image of the reconstructed image of the area displayed on the display means is selected, the object distance corresponding to the one reconstructed image generated in the generating step is focused. A control method for a reproducing apparatus, wherein the reconstructed image is displayed on the display means.
コンピュータを、請求項1乃至6のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 6. コンピュータを、請求項8に記載の再生装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the reproducing | regenerating apparatus of Claim 8.
JP2013109391A 2013-05-23 2013-05-23 Image processing apparatus, imaging apparatus, playback apparatus, control method, and program Active JP6106026B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013109391A JP6106026B2 (en) 2013-05-23 2013-05-23 Image processing apparatus, imaging apparatus, playback apparatus, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013109391A JP6106026B2 (en) 2013-05-23 2013-05-23 Image processing apparatus, imaging apparatus, playback apparatus, control method, and program

Publications (3)

Publication Number Publication Date
JP2014230172A JP2014230172A (en) 2014-12-08
JP2014230172A5 JP2014230172A5 (en) 2016-07-07
JP6106026B2 true JP6106026B2 (en) 2017-03-29

Family

ID=52129628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013109391A Active JP6106026B2 (en) 2013-05-23 2013-05-23 Image processing apparatus, imaging apparatus, playback apparatus, control method, and program

Country Status (1)

Country Link
JP (1) JP6106026B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6780762B2 (en) * 2019-11-14 2020-11-04 株式会社ニコン Electronics

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4710983B2 (en) * 2009-01-28 2011-06-29 株式会社ニコン Image composition device, imaging device, and image composition method
JP5446311B2 (en) * 2009-02-20 2014-03-19 株式会社ニコン Imaging device
JP5875839B2 (en) * 2011-11-21 2016-03-02 オリンパス株式会社 Plenoptic camera

Also Published As

Publication number Publication date
JP2014230172A (en) 2014-12-08

Similar Documents

Publication Publication Date Title
JP5854984B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP5898501B2 (en) Image processing apparatus, imaging apparatus, control method, program, and recording medium
JP6159097B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP2013145314A5 (en)
JP2013201752A5 (en)
US9924155B2 (en) Imaging apparatus and method for controlling same
US9554054B2 (en) Imaging apparatus and its control method and program
JP2014153890A5 (en)
JP2014157425A (en) Imaging device and control method thereof
JP6095266B2 (en) Image processing apparatus and control method thereof
WO2017130522A1 (en) Image processing device, image capturing device, image processing method and program
JP6881909B2 (en) Image pickup device and its control method, and image processing device and method
JP6053276B2 (en) Imaging apparatus, control method therefor, and image processing apparatus
JP6106026B2 (en) Image processing apparatus, imaging apparatus, playback apparatus, control method, and program
JP6087719B2 (en) Image processing apparatus and image processing method
JP5704885B2 (en) Imaging device, imaging method, and imaging control program
JP6478536B2 (en) Image processing apparatus and imaging apparatus, and control method and program thereof
JP6502640B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM
JP6074201B2 (en) Image processing apparatus, control method, and program
JP6491442B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP6138222B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP6757245B2 (en) Video playback device, imaging device, video playback method and program
JP6387149B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP2014064214A5 (en)
JP6272099B2 (en) Image processing apparatus, control method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160520

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170303

R151 Written notification of patent or utility model registration

Ref document number: 6106026

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151