JP2014230172A5 - - Google Patents

Download PDF

Info

Publication number
JP2014230172A5
JP2014230172A5 JP2013109391A JP2013109391A JP2014230172A5 JP 2014230172 A5 JP2014230172 A5 JP 2014230172A5 JP 2013109391 A JP2013109391 A JP 2013109391A JP 2013109391 A JP2013109391 A JP 2013109391A JP 2014230172 A5 JP2014230172 A5 JP 2014230172A5
Authority
JP
Japan
Prior art keywords
image
field data
light field
reconstructed
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013109391A
Other languages
Japanese (ja)
Other versions
JP6106026B2 (en
JP2014230172A (en
Filing date
Publication date
Application filed filed Critical
Priority to JP2013109391A priority Critical patent/JP6106026B2/en
Priority claimed from JP2013109391A external-priority patent/JP6106026B2/en
Publication of JP2014230172A publication Critical patent/JP2014230172A/en
Publication of JP2014230172A5 publication Critical patent/JP2014230172A5/ja
Application granted granted Critical
Publication of JP6106026B2 publication Critical patent/JP6106026B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、撮像装置、制御方法、及びプログラムに関し、特に撮影後に出力データから任意の被写体距離に合焦した画像を生成する技術に関する。 The present invention relates to an image processing apparatus, an imaging apparatus, a control method, and a program, and more particularly to a technique for generating an image focused on an arbitrary subject distance from output data after shooting.

一方、近年ではデジタルカメラ等の撮像装置において、撮影時に光の強度分布との進行方向とを出力データとして記録することで、記録後に該出力データから任意の被写体距離に合焦した画像を生成する技術が提案されている。 On the other hand, in recent years, in an imaging apparatus such as a digital camera, an image focused on an arbitrary subject distance is generated from the output data after recording, by recording the traveling direction of the light intensity distribution and the traveling direction as output data. Technology has been proposed.

このような技術の1つにマイクロレンズアレイを介して撮像素子の各画素(光電変換素子)に撮像レンズの異なる分割瞳領域を通過した光束を結像させることにより、様々な方向から入射した光を分離して記録する方法(Light Field Photography)がある。得られた出力データ(Light Field Data。以下、LFデータ)は、隣り合う画素が異なる方向から入射した光束を記録している。LFデータからは、また、任意の被写体距離を設定し、該被写体距離に対応する焦点面における1点を通過した光束を記録している画素の出力を加算することで、撮影後に特定の被写体距離に合焦した画像のピクセルを擬似的に生成(再構成)することができる。 One such technique is to form light beams that have passed through different divided pupil regions of the imaging lens on each pixel (photoelectric conversion element) of the imaging device via a microlens array, thereby allowing light incident from various directions. There is a method (Light Field Photography) to record separately. The obtained output data (Light Field Data, hereinafter referred to as LF data) records the light flux that is incident from different directions on adjacent pixels. From the LF data, an arbitrary subject distance is set, and the output of a pixel that records a light beam that has passed through one point on the focal plane corresponding to the subject distance is added, so that a specific subject distance is obtained after shooting. It is possible to artificially generate (reconstruct) the pixels of the image focused on.

しかしながら、上述したようにLFデータから任意の焦点面に対応した画像を再構成する場合、焦点面に応じて加算する画素を特定し、各画素について加算処理を行って画像を生成する必要がある。つまり、選択した被写体距離に対応する焦点面における再構成画像を生成するには、都度、演算処理に係る時間が必要となる。 However, when an image corresponding to an arbitrary focal plane is reconstructed from the LF data as described above, it is necessary to specify pixels to be added according to the focal plane and perform an addition process for each pixel to generate an image. . That is, in order to generate a reconstructed image on the focal plane corresponding to the selected subject distance, time for calculation processing is required each time.

例えば1つの被写体に合焦した再構成画像を生成する場合、ユーザは生成する被写体距離を選択する必要があるが、このとき必ずしも該被写体に合焦する被写体距離を選択できない可能性がある。即ち、再構成画像が生成されるまで、ユーザは、選択した被写体距離が該被写体に合焦する被写体距離であるかを判断できないため、繰り返し被写体距離を選択して再構成画像を生成する必要があり、結果的に所望の焦点状態の再構成画像が得られるまでに時間を要する可能性があった。 For example, when generating a reconstructed image focused on one subject, the user needs to select the subject distance to be generated. At this time, there is a possibility that the subject distance focused on the subject cannot always be selected. That is, until the reconstructed image is generated, the user cannot determine whether the selected subject distance is the subject distance focused on the subject. Therefore, it is necessary to repeatedly select the subject distance and generate the reconstructed image. As a result, it may take time until a reconstructed image having a desired focus state is obtained.

本発明は、上述の問題点に鑑みてなされたものであり、所望の被写体に対して好適に合焦する被写体距離を容易に特定可能な画像信号を生成する画像処理装置、撮像装置、制御方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of the above-described problems, and an image processing apparatus, an imaging apparatus, and a control method for generating an image signal that can easily specify a subject distance that is suitably focused on a desired subject. And to provide a program.

前述の目的を達成するために、本発明の画像処理装置は、以下の構成を備えることを特徴とする。具体的には画像処理装置は、被写体の光線空間情報であるライトフィールドデータを取得する取得手段と、取得手段により取得されたライトフィールドデータから特定の被写体距離に合焦した再構成画像を生成する生成手段であって、ライトフィールドデータから生成可能な再構成画像における所定の領域について、焦点状態の異なる複数の再構成画像を生成する生成手段と、生成手段により生成された複数の再構成画像を、ライトフィールドデータに関連付けて記憶する記憶手段と、を有することを特徴とする。 In order to achieve the above object, an image processing apparatus of the present invention is characterized by having the following configuration. Specifically, the image processing device generates light field data that is light field information of the subject , and generates a reconstructed image focused on a specific subject distance from the light field data acquired by the acquisition unit. Generating means for generating a plurality of reconstructed images having different focus states for a predetermined region in a reconstructed image that can be generated from light field data; and a plurality of reconstructed images generated by the generating means. And storage means for storing the light field data in association with the light field data.

このような構成により本発明によれば、所望の被写体に対して好適に合焦する被写体距離を容易に特定可能な画像信号を生成することが可能となる。 With such a configuration, according to the present invention, it is possible to generate an image signal that can easily specify a subject distance that is suitably focused on a desired subject.

[実施形態]
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下に説明する一実施形態は、画像処理装置の一例としての、撮影後にLFデータから任意の被写体距離に合焦した画像を生成可能なデジタルカメラに、本発明を適用した例を説明する。しかし本発明は、LFデータから任意の被写体距離に合焦した画像を生成することが可能な任意の機器に適用可能である。
[Embodiment]
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following embodiment, an example in which the present invention is applied to a digital camera that can generate an image focused on an arbitrary subject distance from LF data after shooting as an example of an image processing apparatus will be described. . However, the present invention can be applied to any device capable of generating an image focused on an arbitrary subject distance from LF data.

・「再構成画像」
LFデータから生成される、任意の被写体距離に合焦した画像。具体的には生成する被写体距離に対応する焦点面(再構成面)での画素配置に従ってLFデータの画素を並び替え、再構成画像の1画素に対応する画素の画素値を合算することで該画素の画素値を得る。再構成面における画素配置は、再構成面に撮像素子が存在した場合に入射する光束を入射方向に基づいて決定される。該画素配置において1つのマイクロレンズに対応する画素の画素値を足し合わせることで、再構成画像の1画素を生成することができる。
・ "Reconstructed image"
An image generated from LF data and focused on an arbitrary subject distance. Specifically, the pixels of the LF data are rearranged according to the pixel arrangement on the focal plane (reconstruction plane) corresponding to the object distance to be generated, and the pixel values of the pixels corresponding to one pixel of the reconstructed image are summed. Get the pixel value of the pixel. The pixel arrangement on the reconstruction plane is determined based on the incident direction of the incident light beam when the image sensor is present on the reconstruction plane. One pixel of the reconstructed image can be generated by adding pixel values of pixels corresponding to one microlens in the pixel arrangement.

画像処理部109は、DFE108による補正処理が適用されたLFデータに対して、色変換処理等の各種画像処理を適用する。また本実施形態では画像処理部109は、LFデータから任意の被写体距離に合焦する画像(再構成画像)の生成する処理も行う。また本実施形態では画像処理部109は、顔検出部121、顔認識部122、及び距離検出部123を有する。 The image processing unit 109 applies various image processing such as color conversion processing to the LF data to which the correction processing by the DFE 108 is applied. In the present embodiment, the image processing unit 109 also performs processing for generating an image (reconstructed image) that focuses on an arbitrary subject distance from the LF data. In the present embodiment, the image processing unit 109 includes a face detection unit 121, a face recognition unit 122, and a distance detection unit 123.

顔検出部121は、画像処理部109によりLFデータから生成された再構成画像から、人物の顔のパターンに相当する領域を検出する。顔検出処理では、例えば眼、鼻、口の各端点、顔の輪郭点等の特徴点を再構成画像から抽出し、これらの特徴点に基づいて被写体の顔領域の大きさが取得される。なお、LFデータの撮影時において、撮影範囲にはデジタルカメラ100との距離が様々な位置に人物被写体が存在することが考えられるため、顔検出処理は様々な被写体距離について生成された再構成画像について行われてよい。あるいは、例えばマイクロレンズ201により分離された光束のうち、1つの分割瞳領域を通過した光束に対応した画素のみで生成した再構成画像は、絞り状態で撮影した画像と等価であるため、これを顔検出処理に利用してもよい。即ち、このような再構成画像は絞り状態と同様に被写界深度が深い画像であるため、デジタルカメラ100との距離が様々である人物被写体の各々を同時に検出可能である。 The face detection unit 121 detects an area corresponding to a human face pattern from the reconstructed image generated from the LF data by the image processing unit 109. In the face detection process, for example, feature points such as eye, nose and mouth end points and face contour points are extracted from the reconstructed image, and the size of the face area of the subject is acquired based on these feature points. Note that when photographing LF data, it is considered that there are human subjects at various positions in the photographing range with respect to the digital camera 100. Therefore, the face detection process is a reconstructed image generated for various subject distances. May be done about. Alternatively, for example, a reconstructed image generated only with pixels corresponding to the light beam that has passed through one divided pupil region among the light beams separated by the microlens 201 is equivalent to an image photographed in the aperture state. You may utilize for a face detection process. That is, since such a reconstructed image is an image having a deep depth of field as in the aperture state, it is possible to simultaneously detect human subjects having various distances from the digital camera 100.

距離検出部123は、LFデータの撮影時に撮影範囲に存在していた各人物被写体とデジタルカメラ100との距離を検出する。距離検出部123は、例えば不図示のラインセンサを利用して位相差検出方式により各人物被写体の距離を検出する。あるいは、本実施形態のようにLFデータを取得する場合、例えば異なる2つの分割瞳領域を通過した光束を用いて生成された2種類の画像を用いて、位相差検出方式により各人物被写体の距離を検出するものであってもよい。また、上述したように被写体距離を変更しながら再構成画像を生成して顔検出部121による顔検出処理が行われる場合、顔領域の各々についてコントラスト評価値が最も高くなる被写体距離を特定することで、距離検出部123は各人物被写体の距離を検出してもよい。 The distance detection unit 123 detects the distance between each person subject existing in the shooting range at the time of shooting the LF data and the digital camera 100. The distance detection unit 123 detects the distance of each human subject by a phase difference detection method using a line sensor (not shown), for example. Alternatively, when acquiring LF data as in the present embodiment, for example, using two types of images generated using light beams that have passed through two different divided pupil regions, the distance between each person subject using the phase difference detection method May be detected. Also, as described above, when the reconstructed image is generated while changing the subject distance and the face detection processing is performed by the face detection unit 121, the subject distance that gives the highest contrast evaluation value is specified for each face region. Thus, the distance detection unit 123 may detect the distance of each person subject.

表示部110は、例えば小型LCD等のデジタルカメラ100が有する表示装置である。表示部110は、画像処理部109により生成された、任意の被写体距離に合焦した画像を表示する。上述したように、本実施形態の撮像部106から出力されるアナログ画像信号をA/D変換して得られるLFデータは、隣り合う画素において像が連結しない。このため表示部110には、LFデータではなく画像処理部109により生成された画像データが表示される。 The display unit 110 is a display device included in the digital camera 100 such as a small LCD. The display unit 110 displays an image generated by the image processing unit 109 and focused on an arbitrary subject distance. As described above, the LF data obtained by A / D converting the analog image signal output from the imaging unit 106 according to the present embodiment does not connect the images in adjacent pixels. Therefore, not the LF data but the image data generated by the image processing unit 109 is displayed on the display unit 110.

記録媒体111は、例えばデジタルカメラ100が有する内蔵メモリや、メモリカードやHDD等のデジタルカメラ100に着脱可能に接続される記録装置である。記録媒体111には、LFデータ、及びこれらのLFデータから生成された任意の被写体距離に合焦する画像が記録される。 The recording medium 111 is a recording device that is detachably connected to the digital camera 100 such as a built-in memory of the digital camera 100, a memory card, or an HDD. The recording medium 111 records LF data and an image focused on an arbitrary subject distance generated from these LF data.

S502で、顔検出部121は制御部101の制御の下、LFデータに含まれる人物被写体の顔領域を検出する。また距離検出部123は制御部101の制御の下、各顔領域に合焦する被写体距離の情報を取得する。得られた顔領域の位置及びサイズの情報と、該顔領域に合焦する被写体距離の情報とは、例えばRAM103に格納される。 In step S <b> 502, the face detection unit 121 detects the face area of the human subject included in the LF data under the control of the control unit 101. Further, the distance detection unit 123 acquires information on the subject distance focused on each face area under the control of the control unit 101. Information on the position and size of the obtained face area and information on the subject distance focused on the face area are stored in the RAM 103, for example.

S503で、画像処理部109は制御部101の制御の下、LFデータの代表画像となる再構成画像を生成する。代表画像となる再構成画像は、例えば撮影時の撮像光学系104のフォーカスレンズの設定に対応する被写体距離に合焦する画像であってよい。具体的には画像処理部109は、各マイクロレンズ201を通過した光束に対応している画素を加算することで代表画像となる再構成画像の各画素の画素値を取得する。 In step S <b> 503, the image processing unit 109 generates a reconstructed image that is a representative image of LF data under the control of the control unit 101. The reconstructed image serving as the representative image may be an image focused on the subject distance corresponding to the setting of the focus lens of the imaging optical system 104 at the time of shooting, for example. Specifically, the image processing unit 109 acquires the pixel value of each pixel of the reconstructed image serving as the representative image by adding the pixels corresponding to the light beams that have passed through each microlens 201.

本実施形態のデジタルカメラ100では、LFデータから再構成画像を生成する被写体距離を決定するための指標になるよう、所定の領域について複数の異なる被写体距離について合焦するように生成された再構成画像(参照用画像)をLFデータに関連付けて記録する。即ち、記録されたLFデータは、撮影範囲の全体に対応した再構成画像を生成することなく、該領域について焦点状態の異なる参照用画像を参照可能なように構成されて記録される。該領域は、ユーザにより表示部110の表面へのタッチ操作がなされることでLFデータの撮影前に予め設定されてよく、本ステップではこのような領域の設定がなされているか否かを判断する。なお、本実施形態のデジタルカメラ100では、このような領域はユーザにより設定される領域の他に、
・人物の認識用の特徴量の情報が登録されている人物の顔領域
・主被写体が存在すると想定される撮影画角の中央領域に存在する顔領域
の2種類が使用されうる。以下の説明では、これらの領域は「ユーザにより設定された領域」、「特徴量が登録されている人物の顔領域」、「中央領域に存在する顔領域」の順番に優先度が設定され、いずれか1つの基準により選択された領域について参照用画像の生成が行われる。しかしながら、本発明の実施はこれに限られるものではなく、任意の条件により選択された所定の領域について、焦点状態の異なる複数の参照用画像が生成され、LFデータに関連付けて記録されるものであれば適用可能である。
In the digital camera 100 of the present embodiment, the reconstruction generated to focus on a plurality of different subject distances for a predetermined region so as to be an index for determining the subject distance for generating the reconstructed image from the LF data. An image (reference image) is recorded in association with the LF data. That is, the recorded LF data is configured and recorded so that a reference image having a different focus state can be referred to for the region without generating a reconstructed image corresponding to the entire imaging range. The area may be set in advance before photographing the LF data by performing a touch operation on the surface of the display unit 110 by the user. In this step, it is determined whether or not such an area has been set. . In the digital camera 100 of the present embodiment, such an area is not only an area set by the user,
A face area of a person in which information about a feature amount for human recognition is registered. Two types of face areas existing in a central area of a shooting angle of view where a main subject is assumed to be present can be used. In the following description, priority is set for these areas in the order of "area set by the user", "face area of the person whose feature value is registered", and "face area existing in the center area" A reference image is generated for an area selected according to any one of the criteria. However, the implementation of the present invention is not limited to this, and a plurality of reference images having different focus states are generated and recorded in association with LF data for a predetermined region selected according to an arbitrary condition. Applicable if available.

S505で、制御部101は、ユーザにより設定された領域について、焦点状態の異なる複数の参照用画像を生成する被写体距離を決定する。本実施形態では領域について生成される複数の参照用画像には、少なくとも該領域の被写体に合焦する被写体距離に対応する焦点面について再構成された再構成画像を含むものとする。領域が人物の顔領域に対応する領域でない場合は、本ステップにおいて該領域の被写体とデジタルカメラ100との距離の情報が取得されたのち、該被写体に合焦する被写体距離が再構成画像を生成する被写体距離の1つとして決定される。また本実施形態のデジタルカメラ100では、設定された領域について、該領域の被写体に合焦する被写体距離の他に、6種類の被写体距離が再構成画像の生成用に決定される。6種類の被写体距離は、例えば図6に示されるようにLFデータから合焦した再構成画像を生成可能な被写体距離の範囲について、均等な分布となるように選択されてよい。図6は、領域の被写体に合焦する被写体距離が6mであり、LFデータから再構成画像を生成可能な被写体距離の範囲が1m〜11mの範囲である例を示しており、この場合1m、3m、5m、7m、9m、11mが再構成画像の生成用に決定される。 In step S <b> 505, the control unit 101 determines subject distances for generating a plurality of reference images having different focus states for the region set by the user. In the present embodiment, the plurality of reference images generated for a region include at least a reconstructed image reconstructed with respect to the focal plane corresponding to the subject distance focused on the subject in the region. If the area is not an area corresponding to a human face area, information about the distance between the subject in the area and the digital camera 100 is acquired in this step, and then the subject distance focused on the subject generates a reconstructed image. Is determined as one of the subject distances. In the digital camera 100 of the present embodiment, for the set region, in addition to the subject distance that focuses on the subject in the region, six types of subject distances are determined for generating a reconstructed image. For example, the six types of subject distances may be selected so as to have an even distribution over a range of subject distances in which a reconstructed image focused from LF data can be generated as shown in FIG. FIG. 6 shows an example in which the subject distance focused on the subject in the area is 6 m, and the range of the subject distance from which the reconstructed image can be generated from the LF data is 1 m to 11 m. 3m, 5m, 7m, 9m, and 11m are determined for generating a reconstructed image.

また制御部101は、ユーザによる設定がなされていない領域であるS502で検出された顔領域については、重要度が低いと考え、例えば生成可能な被写体距離の範囲のうちの最も短い被写体距離を、参照用画像を生成する被写体距離として決定する。 Further, the control unit 101 considers that the face area detected in S502, which is an area not set by the user, is low in importance, and for example, sets the shortest subject distance in the range of subject distances that can be generated, This is determined as the subject distance for generating the reference image.

S507で、制御部101は、S505と同様に、予め特徴量の登録がなされている人物の顔領域については、該人物に合焦する被写体距離を含む7種類の被写体距離を、参照用画像の生成用に決定する。また制御部101は、特徴量の登録がなされていない人物の顔領域については、例えば生成可能な被写体距離の範囲のうちの最も短い被写体距離を、参照用画像の生成用に決定する。 In step S507, as in step S505, the control unit 101 determines seven types of subject distances including the subject distance focused on the person for the face area of the person whose feature amount has been registered in advance for the reference image. Decide for production. The control unit 101 determines, for example, the shortest subject distance in the range of subject distances that can be generated for generating a reference image for a face area of a person whose feature value is not registered.

S509で、制御部101は、S505と同様に、中央領域に存在する顔領域については、該顔領域の人物に合焦する被写体距離を含む7種類の被写体距離を参照用画像の生成用に決定する。また制御部101は、中央領域に存在しない顔領域については、例えば生成可能な被写体距離の範囲のうちの最も短い被写体距離を参照用画像の生成用に決定する。 In step S509, as in step S505, the control unit 101 determines, for the face area existing in the central area, seven types of subject distances including a subject distance focused on a person in the face area for generating a reference image. To do. For the face region that does not exist in the central region, the control unit 101 determines, for example, the shortest subject distance in the range of subject distances that can be generated for generating a reference image.

S510で、画像処理部109は制御部101の制御の下、参照用画像を生成する各領域について、決定した被写体距離に合焦する参照用画像を生成する。そして制御部101は、LFデータ及び代表画像に関連付けて、参照用画像及び参照用画像の詳細情報を記録媒体111に記録し、本撮影処理を完了する。なお、参照用画像の各々には、該画像が生成された被写体距離の情報が含まれているものとする。 In S510, under the control of the control unit 101, the image processing unit 109 generates a reference image that focuses on the determined subject distance for each region in which the reference image is generated. Then, the control unit 101 records the reference image and the detailed information of the reference image on the recording medium 111 in association with the LF data and the representative image, and completes the main photographing process. Each of the reference images includes information on the subject distance at which the image is generated.

S803で、制御部101は、表示部110に表示されている画像について領域を選択するタッチ操作がなされたか否かを判断する。本実施形態のデジタルカメラ100では、ユーザは、LFデータの閲覧時に図9(a)に示されるように画像へのタッチ操作を行うことで、タッチした領域について生成された参照用画像を閲覧することができる。このとき参照用画像は図9(b)に示されるようにタッチした領域の周囲に選択可能に表示され、ユーザは表示されたいずれかの参照用画像を選択することで、選択した参照用画像が生成された被写体距離についての再構成画像を閲覧することができる。即ち、参照用画像は再構成画像を生成する被写体距離の選択に使用されるものであり、ユーザは所望の領域の焦点状態を確認した上で再構成画像の生成を指示することができる。つまり、このような構成によりユーザは、所望の焦点状態となる再構成画像を表示させるために、被写体距離の選択のトライアンドエラーを行う必要がなくなり、所望の焦点状態の再構成画像を表示させるまでに要する時間の短縮することができる。 In step S <b> 803, the control unit 101 determines whether a touch operation for selecting an area has been performed on the image displayed on the display unit 110. In the digital camera 100 of the present embodiment, the user browses the reference image generated for the touched region by performing a touch operation on the image as shown in FIG. 9A when browsing the LF data. be able to. At this time, the reference image is displayed so as to be selectable around the touched area as shown in FIG. 9B, and the user selects one of the displayed reference images to select the selected reference image. It is possible to view a reconstructed image for the subject distance for which is generated. That is, the reference image is used for selecting a subject distance for generating a reconstructed image, and the user can instruct generation of a reconstructed image after confirming the focus state of a desired region. That is, with such a configuration, in order to display a reconstructed image in a desired focus state, the user does not need to perform a trial-and-error for selecting a subject distance, and displays a reconstructed image in a desired focus state. It is possible to shorten the time required for the process.

S805で、制御部101は、表示部110に表示された参照用画像のうち、いずれかの参照用画像がユーザにより選択されたか否かを判断する。制御部101は、表示された参照用画像のうち、いずれかの参照用画像が選択されたと判断した場合は、選択された参照用画像に対応する被写体距離の情報をRAM103に格納した後、処理をS806に移す。また制御部101は、表示された参照用画像がいずれも選択されていないと判断した場合は本ステップの処理を繰り返す。なお、参照用画像の選択は、該当の参照用画像へのタッチ操作がなされたことにより行われてよい。 In step S <b> 805, the control unit 101 determines whether any reference image among the reference images displayed on the display unit 110 has been selected by the user. If the control unit 101 determines that one of the displayed reference images has been selected, the control unit 101 stores the subject distance information corresponding to the selected reference image in the RAM 103, and then performs processing. To S806. When the control unit 101 determines that none of the displayed reference images is selected, the control unit 101 repeats the process of this step. The selection of the reference image may be performed by performing a touch operation on the corresponding reference image.

S806で、画像処理部109は制御部101の制御の下、RAM103に格納された、S805において選択された参照用画像に対応する被写体距離の情報を参照し、該被写体距離に合焦する再構成画像をLFデータから生成する。そして制御部101は、生成された再構成画像を表示部110に表示させ、処理をS803に戻す。 In step S <b> 806, the image processing unit 109 refers to the subject distance information corresponding to the reference image selected in step S <b> 805 stored in the RAM 103 under the control of the control unit 101, and reconstructs to focus on the subject distance. An image is generated from LF data. Then, the control unit 101 displays the generated reconstructed image on the display unit 110, and returns the process to S803.

以上説明したように、本実施形態の画像処理装置は、所望の被写体に対して好適に合焦する被写体距離を容易に特定可能な画像信号を生成することができる。具体的には画像処理装置は、画素の各々が、撮像装置の撮像光学系において通過した分割瞳領域及び入射方向の組み合わせが異なる光束に対応した画像信号について、該画像信号から生成可能な再構成画像における所定の領域を選択する。そして画像処理装置は、該領域について焦点状態の異なる複数の再構成画像を生成し、画像信号に関連付けて記憶する。また該画像信号の再生時には、画像処理装置は該画像信号について再構成画像を生成する指標となるように、領域に関連付けられた焦点状態の異なる複数の再構成画像を選択可能に表示する。そして再構成画像の選択がなされた場合に、該再構成画像に対応する被写体距離について、画像信号から撮影範囲の全域について再構成画像を生成する。 As described above, the image processing apparatus of the present embodiment can generate an image signal that can easily specify a subject distance that is suitably focused on a desired subject. Specifically, the image processing apparatus can reconstruct an image signal corresponding to light beams having different combinations of divided pupil regions and incident directions that have passed through the imaging optical system of the imaging apparatus from the image signal. A predetermined area in the image is selected. Then, the image processing apparatus generates a plurality of reconstructed images having different focus states for the region, and stores them in association with the image signal. Further, at the time of reproducing the image signal, the image processing apparatus displays a plurality of reconstructed images having different focus states associated with the region so as to be an index for generating a reconstructed image for the image signal. When a reconstructed image is selected, a reconstructed image is generated from the image signal over the entire shooting range for the subject distance corresponding to the reconstructed image.

Claims (12)

被写体の光線空間情報であるライトフィールドデータを取得する取得手段と、
前記取得手段により取得された前記ライトフィールドデータから特定の被写体距離に合焦した再構成画像を生成する生成手段であって、前記ライトフィールドデータから生成可能な再構成画像における所定の領域について、焦点状態の異なる複数の再構成画像を生成する生成手段と、
前記生成手段により生成された前記複数の再構成画像を、前記ライトフィールドデータに関連付けて記憶する記憶手段と、を有する
ことを特徴とする画像処理装置。
An acquisition means for acquiring light field data which is light space information of the subject;
A generating unit that generates a reconstructed image focused on a specific subject distance from the light field data acquired by the acquiring unit, the focus on a predetermined region in the reconstructed image that can be generated from the light field data. Generating means for generating a plurality of reconstructed images in different states;
An image processing apparatus comprising: a storage unit that stores the plurality of reconstructed images generated by the generation unit in association with the light field data.
前記ライトフィールドデータから生成可能な再構成画像から、人物を検出する検出手段と、
前記検出手段により検出された人物が、予め定められた人物であるか否かを認識する認識手段と、を有し、
前記所定の領域は、前記認識手段により予め定められた人物であると認識された人物に対応する領域である
ことを特徴とする請求項1に記載の画像処理装置。
Detecting means for detecting a person from a reconstructed image that can be generated from the light field data;
Recognizing means for recognizing whether or not the person detected by the detecting means is a predetermined person,
The predetermined area, the image processing apparatus according to claim 1, characterized in <br/> be a region corresponding to the recognized person to be predetermined person by the recognizing means.
前記生成手段は、前記認識手段により予め定められた人物であると認識された人物に対応する領域が存在しない場合に、前記ライトフィールドデータから生成可能な再構成画像の中央領域に存在する人物に対応する領域を前記所定の領域として、前記複数の再構成画像を生成することを特徴とする請求項2に記載の画像処理装置。 The generation means determines whether a person existing in a central area of a reconstructed image that can be generated from the light field data when there is no area corresponding to a person recognized as a person predetermined by the recognition means. The image processing apparatus according to claim 2, wherein the plurality of reconstructed images are generated with a corresponding region as the predetermined region . 前記所定の領域を設定する指示を受け付ける入力手段をさらに有することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising an input unit that receives an instruction to set the predetermined area. 前記複数の再構成画像は、少なくとも前記所定の領域の被写体に合焦した焦点状態の再構成画像を含むことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   5. The image processing apparatus according to claim 1, wherein the plurality of reconstructed images include at least a reconstructed image in a focused state focused on a subject in the predetermined region. 前記ライトフィールドデータは、撮像装置により撮像された画像信号であって、画素の各々が、前記撮像装置の撮像光学系において通過した分割瞳領域及び入射方向の組み合わせが異なる光束に対応した画像信号であることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。   The light field data is an image signal picked up by an image pickup device, and each of the pixels is an image signal corresponding to a luminous flux having a different combination of divided pupil regions and incident directions that have passed through the image pickup optical system of the image pickup device. The image processing apparatus according to claim 1, wherein the image processing apparatus is provided. 画素の各々が、撮像光学系において通過した分割瞳領域及び入射方向の組み合わせが異なる光束に対応している画像信号を出力する撮像手段と、
請求項1乃至6のいずれか1項に記載の画像処理装置と、
を有することを特徴とする撮像装置。
An imaging unit that outputs an image signal in which each of the pixels corresponds to a luminous flux having a different combination of divided pupil regions and incident directions that have passed through the imaging optical system;
The image processing apparatus according to any one of claims 1 to 6,
An imaging device comprising:
被写体の光線空間情報であるライトフィールドデータを選択する選択手段と、
前記選択手段により選択された前記ライトフィールドデータに対応する画像を表示手段に表示する制御手段と、
前記表示手段に表示された前記画像について、異なる焦点状態に変更する領域を決定する決定手段と、
前記ライトフィールドデータから特定の被写体距離に合焦した再構成画像を生成する生成手段と、を有し、
前記制御手段は、
前記決定手段により決定された前記領域について、焦点状態の異なる該領域の再構成画像が前記ライトフィールドデータに関連付けられている場合に、前記画像とともに該領域の再構成画像を選択可能に前記表示手段に表示し、
前記表示手段に表示された前記領域の再構成画像のうちの1つの再構成画像が選択された場合に、前記生成手段により生成された、該1つの再構成画像に対応する被写体距離に合焦した再構成画像を前記表示手段に表示する
ことを特徴とする再生装置。
A selection means for selecting light field data which is light space information of the subject;
Control means for displaying an image corresponding to the light field data selected by the selection means on a display means;
Determining means for determining a region to be changed to a different focus state for the image displayed on the display means;
Generating means for generating a reconstructed image focused on a specific subject distance from the light field data,
The control means includes
For the area determined by the determining means, when a reconstructed image of the area having a different focus state is associated with the light field data, the reconstructed image of the area can be selected together with the image Displayed on the
When one reconstructed image among the reconstructed images of the region displayed on the display unit is selected, the object distance corresponding to the one reconstructed image generated by the generating unit is focused. A reconstructed image is displayed on the display means.
画像処理装置の取得手段が、被写体の光線空間情報であるライトフィールドデータを取得する取得工程と、
前記画像処理装置の生成手段が、前記取得工程において取得された前記ライトフィールドデータから特定の被写体距離に合焦した再構成画像を生成する生成工程であって、前記ライトフィールドデータから生成可能な再構成画像における所定の領域について、焦点状態の異なる複数の再構成画像を生成する生成工程と、
前記画像処理装置の記憶手段が、前記生成工程において生成された前記複数の再構成画像を、前記ライトフィールドデータに関連付けて記憶する記憶工程と、を有する
ことを特徴とする画像処理装置の制御方法。
An acquisition step in which an acquisition unit of the image processing apparatus acquires light field data that is light space information of the subject;
The generation means of the image processing device is a generation step of generating a reconstructed image focused on a specific subject distance from the light field data acquired in the acquisition step, and a reconstructable image that can be generated from the light field data. Generating a plurality of reconstructed images having different focus states for a predetermined region in the composition image;
A storage method of the image processing device, comprising: a storage step of storing the plurality of reconstructed images generated in the generation step in association with the light field data. .
再生装置の選択手段が、被写体の光線空間情報であるライトフィールドデータを選択する選択工程と、
前記再生装置の制御手段が、前記選択工程において選択された前記ライトフィールドデータに対応する画像を表示手段に表示する制御工程と、
前記再生装置の決定手段が、前記表示手段に表示された前記画像について、異なる焦点状態に変更する領域を決定する決定工程と、
前記再生装置の生成手段が、前記ライトフィールドデータから特定の被写体距離に合焦した再構成画像を生成する生成工程と、を有し、
前記制御手段は前記制御工程において、
前記決定工程において決定された前記領域について、焦点状態の異なる該領域の再構成画像が前記ライトフィールドデータに関連付けられている場合に、前記画像とともに該領域の再構成画像を選択可能に前記表示手段に表示し、
前記表示手段に表示された前記領域の再構成画像のうちの1つの再構成画像が選択された場合に、前記生成工程において生成された、該1つの再構成画像に対応する被写体距離に合焦した再構成画像を前記表示手段に表示する
ことを特徴とする再生装置の制御方法。
A selection step in which the selection means of the playback device selects light field data that is light space information of the subject;
A control step in which the control means of the playback device displays an image corresponding to the light field data selected in the selection step on a display means;
A determination step of determining a region to be changed to a different focus state with respect to the image displayed on the display unit;
Generating means for generating a reconstructed image focused on a specific subject distance from the light field data, the generating means of the playback device,
The control means in the control step,
For the region determined in the determining step, when a reconstructed image of the region having a different focus state is associated with the light field data, the display unit can select the reconstructed image of the region together with the image Displayed on the
When one reconstructed image of the reconstructed image of the area displayed on the display means is selected, the object distance corresponding to the one reconstructed image generated in the generating step is focused. A control method for a reproducing apparatus, wherein the reconstructed image is displayed on the display means.
コンピュータを、請求項1乃至6のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 6. コンピュータを、請求項8に記載の再生装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the reproducing | regenerating apparatus of Claim 8.
JP2013109391A 2013-05-23 2013-05-23 Image processing apparatus, imaging apparatus, playback apparatus, control method, and program Active JP6106026B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013109391A JP6106026B2 (en) 2013-05-23 2013-05-23 Image processing apparatus, imaging apparatus, playback apparatus, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013109391A JP6106026B2 (en) 2013-05-23 2013-05-23 Image processing apparatus, imaging apparatus, playback apparatus, control method, and program

Publications (3)

Publication Number Publication Date
JP2014230172A JP2014230172A (en) 2014-12-08
JP2014230172A5 true JP2014230172A5 (en) 2016-07-07
JP6106026B2 JP6106026B2 (en) 2017-03-29

Family

ID=52129628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013109391A Active JP6106026B2 (en) 2013-05-23 2013-05-23 Image processing apparatus, imaging apparatus, playback apparatus, control method, and program

Country Status (1)

Country Link
JP (1) JP6106026B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6780762B2 (en) * 2019-11-14 2020-11-04 株式会社ニコン Electronics

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4710983B2 (en) * 2009-01-28 2011-06-29 株式会社ニコン Image composition device, imaging device, and image composition method
JP5446311B2 (en) * 2009-02-20 2014-03-19 株式会社ニコン Imaging device
JP5875839B2 (en) * 2011-11-21 2016-03-02 オリンパス株式会社 Plenoptic camera

Similar Documents

Publication Publication Date Title
EP3101624B1 (en) Image processing method and image processing device
JP6305053B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6159097B2 (en) Image processing apparatus, imaging apparatus, control method, and program
US20170324950A1 (en) Methods and apparatus for controlling light field capture
JP2013201752A5 (en)
JP2014153890A5 (en)
JP2009094725A5 (en)
US9955111B2 (en) Electronic apparatus and display control method
JP2014150466A5 (en)
JP6397281B2 (en) Imaging apparatus, control method thereof, and program
JP2014157425A (en) Imaging device and control method thereof
JP6095266B2 (en) Image processing apparatus and control method thereof
US9521329B2 (en) Display device, display method, and computer-readable recording medium
JP2012015642A (en) Imaging device
WO2017130522A1 (en) Image processing device, image capturing device, image processing method and program
JP6087719B2 (en) Image processing apparatus and image processing method
JP2014230172A5 (en)
JP6056160B2 (en) Automatic focusing device, automatic focusing method and program
JP2009302910A (en) Imaging device and image reproducer
JP6106026B2 (en) Image processing apparatus, imaging apparatus, playback apparatus, control method, and program
JP6491442B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP6478536B2 (en) Image processing apparatus and imaging apparatus, and control method and program thereof
JP2017217170A (en) Image display apparatus
JP2014064214A5 (en)
JP2015084517A (en) Image processing apparatus, image processing method, program and recording medium