JP2015142366A - Image processing system, control method and program of the same - Google Patents

Image processing system, control method and program of the same Download PDF

Info

Publication number
JP2015142366A
JP2015142366A JP2014016195A JP2014016195A JP2015142366A JP 2015142366 A JP2015142366 A JP 2015142366A JP 2014016195 A JP2014016195 A JP 2014016195A JP 2014016195 A JP2014016195 A JP 2014016195A JP 2015142366 A JP2015142366 A JP 2015142366A
Authority
JP
Japan
Prior art keywords
field
depth
predetermined
subject
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014016195A
Other languages
Japanese (ja)
Other versions
JP6336284B2 (en
Inventor
良典 林
Yoshinori Hayashi
良典 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014016195A priority Critical patent/JP6336284B2/en
Publication of JP2015142366A publication Critical patent/JP2015142366A/en
Application granted granted Critical
Publication of JP6336284B2 publication Critical patent/JP6336284B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily set the focal distance and the depth of the field of a reconstituted image generated from multi-viewpoint images.SOLUTION: An image processing system detects S602 an area on the image of a matter (target matter) with specific features from an image reconstituted from multi-viewpoint images, and calculates distance distribution S604 and a depth-of-field information S605 of each area. The system receives S607 user's selection of a detected subject, sets S609 a predetermined depth of field from the subject distance of the selected subject, and generates S610 a reconstituted image having the predetermined depth of field set above.

Description

本発明は画像処理装置、その制御方法およびプログラムに関し、特に多視点画像を用いて所望の被写体に合焦した再構成画像を生成する技術に関するものである。   The present invention relates to an image processing apparatus, a control method thereof, and a program, and more particularly to a technique for generating a reconstructed image focused on a desired subject using a multi-viewpoint image.

近年、撮影時に光の強度分布と入射方向の情報(光線空間情報(ライトフィールド情報とも呼ばれる))を取得可能な撮像装置(ライトフィールドカメラ(LFC))が知られている。   2. Description of the Related Art In recent years, an imaging device (light field camera (LFC)) capable of acquiring light intensity distribution and incident direction information (light space information (also referred to as light field information)) at the time of photographing is known.

非特許文献1では、マイクロレンズアレイを介して撮像素子の各画素に、撮像レンズの異なる分割瞳領域を通過した光束を結像させることにより、様々な方向から入射した光を分離して記録する方法が開示されている。   In Non-Patent Document 1, a light beam that has passed through different divided pupil regions of an imaging lens is imaged on each pixel of the imaging element via a microlens array, so that light incident from various directions is separated and recorded. A method is disclosed.

このように取得された光線空間情報(以下LFデータと呼ぶ)に対して、「Light Field Photography」と呼ばれる手法を適用することで、任意の焦点距離に合焦した画像(再構成画像)を撮影後に生成することができる。   By applying a method called “Light Field Photography” to the light space information (hereinafter referred to as LF data) acquired in this way, an image focused on an arbitrary focal length (reconstructed image) is captured. It can be generated later.

LFデータを取得できない従来のデジタルカメラ等を扱うとき、撮影後の画像が所望の被写体に合焦していないものであった場合、その被写体に合焦した画像を取得するには再度撮影する必要がある。一方、LFCを用いて撮影した場合は、取得したLFデータを用いて撮影後に再構成画像の生成を行えば、撮影し直すことなく所望の被写体に合焦した画像が得られる。   When dealing with a conventional digital camera or the like that cannot acquire LF data, if the image after shooting is not focused on the desired subject, it is necessary to take another shot to acquire the image focused on the subject. There is. On the other hand, in the case of shooting using LFC, if a reconstructed image is generated after shooting using the acquired LF data, an image focused on a desired subject can be obtained without being shot again.

さらに、所望の被写体が複数含まれ、各被写体間の奥行方向の距離が大きく異なるシーンを撮影する場合、従来型のカメラ等でいずれかの被写体に合焦させて撮影すると、他の被写体がぼけ気味となる。他方、LFCを用いて撮影した場合には、撮影後に各被写体に合焦した再構成画像を生成して合成すれば各被写体に合焦した画像を得ることができる。   Furthermore, when shooting a scene that includes multiple desired subjects and the distances between the subjects differ greatly in depth direction, if you focus on one of the subjects with a conventional camera, the other subjects will be blurred. It feels so good. On the other hand, in the case of shooting using the LFC, if a reconstructed image focused on each subject is generated and combined after shooting, an image focused on each subject can be obtained.

Ren.Ng、外7名,「Light Field Photography with a Hand-Held Plenoptic Camera」,Stanford Tech Report CTSR 2005-02Ren.Ng, 7 others, “Light Field Photography with a Hand-Held Plenoptic Camera”, Stanford Tech Report CTSR 2005-02

LFデータを用いることで、従来実現出来なかったような、撮影後に合焦距離(被写界深度の中心)や被写界深度を変更することが可能になった。しかし、LFデータを用いて再構成画像を生成する際の合焦距離や被写界深度をユーザが容易に設定または変更できる機能は提案されていない。特に、複数の被写体が存在する場合には、個々の被写体に合焦させたり、被写体によって被写界深度を異ならせたりするという要求も考えられるため、ユーザの意図する被写界深度を容易に設定する方法が求められる。   By using LF data, it becomes possible to change the focus distance (the center of the depth of field) and the depth of field after shooting, which could not be realized in the past. However, a function that allows the user to easily set or change the in-focus distance and the depth of field when generating a reconstructed image using LF data has not been proposed. In particular, when there are multiple subjects, it may be possible to focus on each subject or to change the depth of field depending on the subject. A method of setting is required.

本発明では、上述の従来技術の問題点に鑑みてなされたものであり、多視点画像から生成する再構成画像の合焦距離および被写界深度を容易に設定することが可能な画像処理装置、その制御方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems of the prior art, and is an image processing apparatus capable of easily setting the in-focus distance and the depth of field of a reconstructed image generated from a multi-viewpoint image. An object of the present invention is to provide a control method and program thereof.

この課題を解決するため、例えば本発明の画像処理装置は以下の構成を備える。すなわち、同時に撮影された複数の視点の画像から任意の被写体距離に合焦した再構成画像を生成可能な画像処理装置であって、予め定めた被写体距離に合焦した再構成画像から所定の被写体を検出する検出手段と、検出された所定の被写体の、ユーザによる選択を受け付ける入力手段と、ユーザにより選択された所定の被写体の被写体距離から所定の被写界深度を設定する設定手段と、設定手段が設定した所定の被写界深度を有する再構成画像を生成する生成手段と、を有することを特徴とする。   In order to solve this problem, for example, an image processing apparatus of the present invention has the following configuration. That is, an image processing apparatus capable of generating a reconstructed image focused on an arbitrary subject distance from images of a plurality of viewpoints photographed at the same time, wherein a predetermined subject is obtained from a reconstructed image focused on a predetermined subject distance Detection means for detecting the input, input means for accepting selection by the user of the detected predetermined subject, setting means for setting a predetermined depth of field from the subject distance of the predetermined subject selected by the user, and setting Generating means for generating a reconstructed image having a predetermined depth of field set by the means.

本発明によれば、多視点画像から生成する再構成画像の合焦距離および被写界深度を容易に設定することが可能になる。   According to the present invention, it is possible to easily set the in-focus distance and the depth of field of a reconstructed image generated from a multi-viewpoint image.

本実施形態に係るLFCの一例としての機能構成を示すブロック図The block diagram which shows the function structure as an example of LFC which concerns on this embodiment 本実施形態に係るマイクロレンズアレイ105と撮像部106の関係を説明する図The figure explaining the relationship between the microlens array 105 which concerns on this embodiment, and the imaging part 106. FIG. 本実施形態に係る射出瞳301の各領域を通過した光束と、該光束を光電変換する光電変換素子の関係を説明する図The figure explaining the relationship between the light beam which passed each area | region of the exit pupil 301 which concerns on this embodiment, and the photoelectric conversion element which photoelectrically converts this light beam. 本実施形態に係る射出瞳301の各領域と、各マイクロレンズアレイに対応付けられた光電変換素子との対応を示す図The figure which shows a response | compatibility with each area | region of the exit pupil 301 which concerns on this embodiment, and the photoelectric conversion element matched with each micro lens array. 本実施形態に係る再構成面の特定位置を通過する光束の、撮像面における通過位置との関係を示す図The figure which shows the relationship with the passage position in the imaging surface of the light beam which passes through the specific position of the reconstruction surface which concerns on this embodiment. 実施形態1に係る画像再構成処理を説明するフローチャートFlowchart for explaining image reconstruction processing according to the first embodiment 実施形態1に係る対象物体の検出および距離分布情報を説明する図FIG. 6 is a diagram for explaining detection of target objects and distance distribution information according to the first embodiment. 実施形態1に係る対象物体の被写界深度情報を説明する図The figure explaining the depth-of-field information of the target object concerning Embodiment 1 実施形態1に係る被写界深度情報の更新処理を説明するフローチャートFlowchart for explaining update processing of depth of field information according to the first embodiment 実施形態1に係る物体の距離関係に応じた被写界深度情報の更新処理を説明する図The figure explaining the update process of the depth-of-field information according to the distance relationship of the object which concerns on Embodiment 1. FIG. 実施形態2に係る再構成処理を説明するフローチャートFlowchart for explaining a reconstruction process according to the second embodiment 実施形態2に係る指定物体の被写界深度情報の更新処理を説明するフローチャートFlowchart for explaining update processing of depth-of-field information of a designated object according to the second embodiment

以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下では、画像処理装置の一例としての、LFデータを記録可能なLFCに本発明を適用した例を説明する。しかし、LFデータの撮像や記録に関する機能を有さない電子機器にも本発明は適用可能である。これらの電子機器には、携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータなどが含まれるが、これらは単なる例示である。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following, an example in which the present invention is applied to an LFC capable of recording LF data as an example of an image processing apparatus will be described. However, the present invention can also be applied to an electronic device that does not have a function related to imaging and recording of LF data. These electronic devices include mobile phones, game machines, tablet terminals, personal computers, etc., but these are merely examples.

(実施形態1)
〈1 LFCの構成〉
図1は、本発明の実施形態に係るLFC100の機能構成例を示すブロック図である。制御部101は、例えばCPUであり、LFC100が有する各ブロックの動作を制御し、後述する撮影処理あるいは再構成画像の生成処理を含む、LFC100の動作を実現する。具体的には制御部101は、ROM102に記憶されているプログラムを読み出し、RAM103に展開して実行することにより、各ブロックの動作を制御する。
(Embodiment 1)
<1 LFC configuration>
FIG. 1 is a block diagram illustrating a functional configuration example of an LFC 100 according to the embodiment of the present invention. The control unit 101 is, for example, a CPU, and controls the operation of each block included in the LFC 100 to realize the operation of the LFC 100 including shooting processing or reconstructed image generation processing described later. Specifically, the control unit 101 reads out a program stored in the ROM 102, develops it in the RAM 103, and executes it, thereby controlling the operation of each block.

ROM102は、例えば書き換え可能な不揮発性メモリであり、LFC100の制御プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。   The ROM 102 is a rewritable nonvolatile memory, for example, and stores parameters necessary for the operation of each block in addition to the control program of the LFC 100.

RAM103は、揮発性メモリである。RAM103は、ROM102から読み出したプログラムの展開領域としてだけでなく、各ブロックの動作において出力された中間データ等を記憶する格納領域としても用いられる。   The RAM 103 is a volatile memory. The RAM 103 is used not only as a program development area read from the ROM 102 but also as a storage area for storing intermediate data output in the operation of each block.

撮像部106は、例えばCCDやCMOSセンサ等の撮像素子である。撮像部106は、制御部101の指示により不図示のタイミングジェネレータ(TG)から出力されるタイミング信号を受けて、撮像光学系104により撮像素子の光電変換素子面に結像された光学像を光電変換し、アナログ画像信号を出力する。なお、撮像光学系104は例えば対物レンズ、フォーカスレンズ、絞り等を含む。また、本実施形態のLFC100は、撮像部106の各光電変換素子に設けられているマイクロレンズとは別に、撮像光学系104と撮像部106との間に設けられたマイクロレンズアレイ105を有する。   The imaging unit 106 is an imaging element such as a CCD or a CMOS sensor. The imaging unit 106 receives a timing signal output from a timing generator (TG) (not shown) according to an instruction from the control unit 101, and photoelectrically converts an optical image formed on the photoelectric conversion element surface of the imaging element by the imaging optical system 104. Convert and output analog image signal. Note that the imaging optical system 104 includes, for example, an objective lens, a focus lens, a diaphragm, and the like. In addition, the LFC 100 according to the present embodiment includes a microlens array 105 provided between the imaging optical system 104 and the imaging unit 106 in addition to the microlens provided in each photoelectric conversion element of the imaging unit 106.

ここで、マイクロレンズアレイ105について、図2乃至図4を用いて説明する。   Here, the microlens array 105 will be described with reference to FIGS.

図2に示すように、本実施形態のマイクロレンズアレイ105は複数のマイクロレンズ201で構成される。図2では、撮像光学系104の光軸をz軸とし、LFC100の横位置における水平方向をx軸、鉛直方向をy軸としている。なお、図2の例では簡単のため、マイクロレンズアレイ105は5行5列に並んだマイクロレンズ201で構成されるものとして説明するが、マイクロレンズアレイ105の構成はこれに限られるものではない。   As shown in FIG. 2, the microlens array 105 of the present embodiment includes a plurality of microlenses 201. In FIG. 2, the optical axis of the imaging optical system 104 is the z-axis, the horizontal direction at the lateral position of the LFC 100 is the x-axis, and the vertical direction is the y-axis. In the example of FIG. 2, for the sake of simplicity, the microlens array 105 will be described as being configured by microlenses 201 arranged in 5 rows and 5 columns, but the configuration of the microlens array 105 is not limited thereto. .

また図2では、撮像部106を構成する撮像素子の光電変換素子202が格子で示されている。各マイクロレンズ201には、所定数の光電変換素子202が対応づけられており、図2の例では1つのマイクロレンズ201に対して5×5=25画素の光電変換素子202が対応づけられている。1つのマイクロレンズ201に入射した光束は、入射方向に応じて分離され、対応づけられた複数の光電変換素子のうち、入射方向に対応する光電変換素子202に結像される。   In FIG. 2, the photoelectric conversion element 202 of the image pickup element that forms the image pickup unit 106 is shown by a lattice. A predetermined number of photoelectric conversion elements 202 are associated with each microlens 201, and in the example of FIG. 2, a photoelectric conversion element 202 of 5 × 5 = 25 pixels is associated with one microlens 201. Yes. The light beam incident on one microlens 201 is separated according to the incident direction, and is imaged on the photoelectric conversion element 202 corresponding to the incident direction among the plurality of associated photoelectric conversion elements.

図3は、1つのマイクロレンズ201に対応づけられた光電変換素子202p1乃至p5に入射する光束を図示している。図3において、上方向は鉛直上向き方向に対応している。図3では、LFC100が横位置にある状態で、光軸に直交する水平方向から見た、各光電変換素子202p1〜p5に入射する光束の光路を例示している。図示されるように、水平方向に並んだ光電変換素子202p1乃至p5には、1つのマイクロレンズ201を介して、撮像光学系104の射出瞳301を垂直方向に5分割した領域a1乃至a5を通過した光束がそれぞれ入射する。なお、各領域に付された数字は、通過した光束が入射する光電変換素子202との対応関係を示している。   FIG. 3 illustrates light beams incident on the photoelectric conversion elements 202p1 to p5 associated with one microlens 201. In FIG. 3, the upward direction corresponds to the vertically upward direction. FIG. 3 illustrates an optical path of a light beam incident on each of the photoelectric conversion elements 202p1 to p5 viewed from a horizontal direction orthogonal to the optical axis in a state where the LFC 100 is in the horizontal position. As shown in the figure, the photoelectric conversion elements 202p1 to p5 arranged in the horizontal direction pass through regions a1 to a5 obtained by dividing the exit pupil 301 of the imaging optical system 104 into five in the vertical direction via one microlens 201. Each incident light beam. In addition, the number attached | subjected to each area | region has shown the correspondence with the photoelectric conversion element 202 in which the light beam which passed through enters.

なお、図3の例では水平方向から見た、各光電変換素子202に垂直方向に分離されて入射する光束の光路を示したが、光束の分離は垂直方向に限らず、水平方向においても同様に行われる。即ち、撮像光学系104の射出瞳301を撮像素子側から見て図4(a)のような領域に分割した場合、各領域を通過した光束は、図4(b)に示されるような光電変換素子202のうち、同一の識別数字が付された光電変換素子に入射する。なお、ここでは、撮像光学系104とマイクロレンズアレイ105の各マイクロレンズのFナンバーは略一致しているものとする。   In the example of FIG. 3, the optical paths of the light beams incident on the photoelectric conversion elements 202 are separated in the vertical direction as viewed from the horizontal direction. However, the separation of the light beams is not limited to the vertical direction, and the same applies in the horizontal direction. To be done. That is, when the exit pupil 301 of the image pickup optical system 104 is divided into regions as shown in FIG. 4A when viewed from the image pickup device side, the light beam that has passed through each region has a photoelectric as shown in FIG. Of the conversion elements 202, the light enters the photoelectric conversion elements with the same identification numbers. Here, it is assumed that the F numbers of the microlenses of the imaging optical system 104 and the microlens array 105 are substantially the same.

図1に戻り、AFE(Analog Front End)107及びDFE(Digital Front End)108は、撮像部106により生成された画像信号に対する補正処理等を行う。具体的にはAFE107は、撮像部106から出力されたアナログ画像信号に対して、基準レベルの調整(クランプ処理)やA/D変換処理を行い、LFデータをDFE108に出力する。DFE108は、入力されたLFデータに対して微少な基準レベルのずれ等を補正する。   Returning to FIG. 1, an AFE (Analog Front End) 107 and a DFE (Digital Front End) 108 perform a correction process on the image signal generated by the imaging unit 106. Specifically, the AFE 107 performs reference level adjustment (clamp processing) and A / D conversion processing on the analog image signal output from the imaging unit 106, and outputs LF data to the DFE 108. The DFE 108 corrects a slight reference level shift or the like with respect to the input LF data.

画像処理部109は、DFE108による補正処理が適用されたLFデータに対して、色変換処理等の各種画像処理を適用する。また本実施形態では画像処理部109は、LFデータから任意の被写体距離に合焦する画像(再構成画像)を生成する処理も行う。再構成画像の生成は、例えば上述した非特許文献1に示されるような「Light Field Photography」の手法を用いればよい。   The image processing unit 109 applies various image processing such as color conversion processing to the LF data to which the correction processing by the DFE 108 is applied. In the present embodiment, the image processing unit 109 also performs processing for generating an image (reconstructed image) focused on an arbitrary subject distance from the LF data. For example, the method of “Light Field Photography” as shown in Non-Patent Document 1 described above may be used to generate the reconstructed image.

画像処理部109は、制御部101の指示に基づいて、LFデータから生成された再構成画像の生成や被写界深度を変更した再構成画像を生成する処理を行う。再構成画像を生成する処理および被写界深度を変更する処理については後に詳細に説明する。   The image processing unit 109 performs processing for generating a reconstructed image generated from the LF data and generating a reconstructed image in which the depth of field is changed based on an instruction from the control unit 101. Processing for generating a reconstructed image and processing for changing the depth of field will be described in detail later.

表示部110は、LFC100が有する表示装置であり、例えば小型LCD等である。表示部110は、画像処理部109により生成された、任意の距離に合焦した画像を表示する。上述したように、本実施形態の撮像部106から出力されるアナログ画像信号をA/D変換して得られるLFデータはそのまま表示に用いることはできない。このため表示部110には、例えば各マイクロレンズに対応する複数の画素のデータを加算することによって画像処理部109が生成する画像データを表示する。なお、表示部110は外部表示装置であってもよい。   The display unit 110 is a display device included in the LFC 100, and is a small LCD or the like, for example. The display unit 110 displays the image generated by the image processing unit 109 and focused at an arbitrary distance. As described above, the LF data obtained by A / D converting the analog image signal output from the imaging unit 106 of this embodiment cannot be used for display as it is. Therefore, the display unit 110 displays image data generated by the image processing unit 109 by adding data of a plurality of pixels corresponding to each microlens, for example. The display unit 110 may be an external display device.

記録媒体111は、例えばLFC100が有する内蔵メモリや、メモリカードやHDD等のLFC100に着脱可能に接続される記録装置である。記録媒体111には、LFデータ、及びこれらのLFデータから生成された任意の焦点距離に合焦する再構成画像が記録される。   The recording medium 111 is a recording device that is detachably connected to the LFC 100 such as a built-in memory included in the LFC 100, a memory card, an HDD, or the like. The recording medium 111 records LF data and a reconstructed image focused on an arbitrary focal length generated from these LF data.

操作入力部112は、例えば電源ボタンやタッチパネル等を有する、LFC100のユーザインタフェースである。操作入力部112は、ユーザによる操作されると、該操作に対応する制御信号や命令を制御部101に出力する。   The operation input unit 112 is a user interface of the LFC 100 having, for example, a power button, a touch panel, and the like. When operated by the user, the operation input unit 112 outputs a control signal and a command corresponding to the operation to the control unit 101.

なお、本実施形態では、図4に示したような構成を有する撮像部106によってLFデータを取得しているが、例えば特開2011−22796号公報のように、複数の視点の異なるカメラをまとめて撮像部106とみなす構成でもよい。また、図4の光学系と異なり、物体平面と撮像素子が共役の関係にあるように、マイクロレンズアレイ上で撮影光学系からの光束を結像させ、その結像面に撮像素子を設ける構成でもよい。さらには、マイクロレンズアレイ上で撮影光学系からの光束を再結像させ(一度結像した光束が拡散する状態にあるものを結像させるので再結像と呼んでいる)、その結像面に撮像素子を設けるような構成でも良い。また、適当なパターンを施したマスク(ゲイン変調素子)を撮影光学系の光路中に挿入する構成も利用できる。   In the present embodiment, the LF data is acquired by the imaging unit 106 having the configuration shown in FIG. 4, but a plurality of cameras with different viewpoints are collected as in, for example, Japanese Patent Application Laid-Open No. 2011-22796. The configuration may be regarded as the imaging unit 106. In addition, unlike the optical system of FIG. 4, a configuration in which a light beam from the imaging optical system is imaged on the microlens array and an imaging device is provided on the imaging surface so that the object plane and the imaging device are in a conjugate relationship. But you can. Furthermore, the image from the imaging optical system is re-imaged on the microlens array (this is called re-imaging because the image once formed is diffused), and the image plane A configuration in which an image pickup element is provided in the apparatus may be used. A configuration in which a mask (gain modulation element) with an appropriate pattern is inserted into the optical path of the photographing optical system can also be used.

〈2 再構成画像の生成処理〉
特定の被写体に合焦した再構成画像の生成処理の概要について、図4および図5を用いて説明する。
<2 Reconstructed image generation processing>
An outline of a process for generating a reconstructed image focused on a specific subject will be described with reference to FIGS. 4 and 5.

まず、撮影範囲に含まれる特定の被写体の距離(被写体距離)は、以下の方法で取得可能である。画像処理部109は、LFデータから異なる分割瞳領域を通過した光束から一対の画像(A像およびB像と呼ぶ)を生成し、該画像間の位相差から、特定の被写体に対するデフォーカス量を検出する。現在の合焦距離と検出されたデフォーカス量とに基づき、制御部101は特定の被写体の距離を算出可能である。   First, the distance (subject distance) of a specific subject included in the shooting range can be obtained by the following method. The image processing unit 109 generates a pair of images (referred to as an A image and a B image) from light beams that have passed through different divided pupil regions from the LF data, and calculates a defocus amount for a specific subject from the phase difference between the images. To detect. Based on the current in-focus distance and the detected defocus amount, the control unit 101 can calculate the distance of a specific subject.

図4(b)の例では、各マイクロレンズに対応づけられた画素のうち、右端から第1列及び第2列の画素値を加算することにより、射出瞳301の左半分の分割瞳領域に対応するA像を生成することができる。また、第4列及び第5列の画素値を加算することにより、射出瞳301の右半分の分割瞳領域に対応するB像を生成することができる。即ち、これを式で表すと


のようになる。このように得られた一対の画像は、それぞれ対応する分割瞳領域の重心位置を光軸とする画像である。
In the example of FIG. 4B, among the pixels associated with each microlens, the pixel values of the first column and the second column from the right end are added to the divided pupil region on the left half of the exit pupil 301. A corresponding A image can be generated. Further, by adding the pixel values of the fourth column and the fifth column, a B image corresponding to the divided pupil region on the right half of the exit pupil 301 can be generated. That is, when this is expressed by an expression


become that way. The pair of images obtained in this way are images having the center of gravity of the corresponding divided pupil region as the optical axis.

つまり、一対の画像は光軸のずれによる像のずれを有しているため、2つの画像について相関演算を行うことで、被写体について像のずれ量(瞳分割位相差)を検出することができる。このように得られた像のずれ量から、LFデータの撮影範囲に含まれる各被写体について合焦する焦点距離を解析することができ、例えば特定の被写体に合焦する再構成画像を生成することができる。   In other words, since the pair of images has an image shift due to the shift of the optical axis, the image shift amount (pupil division phase difference) can be detected for the subject by performing a correlation operation on the two images. . From the image shift amount obtained in this way, the focal length for focusing on each subject included in the shooting range of the LF data can be analyzed. For example, a reconstructed image that focuses on a specific subject is generated. Can do.

次に、特定の距離の被写体に合焦する再構成画像の生成について説明する。本実施形態のLFC100では、上述したように、1つのマイクロレンズに割り当てられた複数の画素の各々は、撮像レンズの射出瞳の異なる分割瞳領域を通過した光束を受光する。これは、マイクロレンズアレイ105の全マイクロレンズについて同様である。また各マイクロレンズには異なる方向から撮像レンズを通過した光束が入射するため、撮像素子の全ての画素は、各々異なる方向から入射した光束を受光することになる。   Next, generation of a reconstructed image that focuses on a subject at a specific distance will be described. In the LFC 100 of the present embodiment, as described above, each of the plurality of pixels assigned to one microlens receives the light flux that has passed through the divided pupil regions having different exit pupils of the imaging lens. This is the same for all the microlenses of the microlens array 105. In addition, since light beams that have passed through the imaging lens from different directions are incident on each microlens, all the pixels of the imaging element receive light beams that are incident from different directions.

このため以下では、撮影により得られたLFデータの各画素に入射した光束の光路を、射出瞳内の通過した瞳領域の座標(u,v)と、対応するマイクロレンズの位置座標(x’,y’)として各光束を規定して説明する。再構成画像の生成においては、再構成画像を生成する任意の合焦距離に対応する再構成面上の画素(x,y)について、該点を通過する光路を有する光束を積分することで画素値を得ることができる。   For this reason, in the following, the optical path of the light beam incident on each pixel of the LF data obtained by photographing is represented by the coordinates (u, v) of the pupil region that has passed through the exit pupil and the position coordinates (x ′) of the corresponding microlens. , Y ′), each light flux is defined and described. In the generation of the reconstructed image, the pixel (x, y) on the reconstructed surface corresponding to an arbitrary focal distance for generating the reconstructed image is integrated by integrating a light beam having an optical path passing through the point. A value can be obtained.

図5ではLFC100の横位置における鉛直方向から見た水平面(xz平面)における光束の光路が示されている。以下ではxz平面における、再構成面の各画素を通過する光束の光路について説明するが、yz平面についても同様である。   In FIG. 5, the optical path of the light beam in the horizontal plane (xz plane) seen from the vertical direction at the lateral position of the LFC 100 is shown. Hereinafter, the optical path of the light beam passing through each pixel on the reconstruction plane in the xz plane will be described, but the same applies to the yz plane.

瞳領域の座標(u,v)、再構成面上の画素座標を(x,y)とすると、この瞳領域と再構成面上の画素を通過する光束が入射するマイクロレンズアレイ105上のマイクロレンズの位置座標(x’,y’)は、


で表される。なお、Fは撮像レンズからマイクロレンズアレイまでの距離、αFは撮影レンズの射出瞳から再構成面までの距離(αはリフォーカス係数:再構成面までの距離を決定するための可変係数)である。
If the coordinates (u, v) of the pupil region and the pixel coordinates on the reconstruction plane are (x, y), the micro beam on the micro lens array 105 on which the light beam passing through the pupil region and the pixels on the reconstruction plane is incident. The position coordinates (x ′, y ′) of the lens are


It is represented by F is the distance from the imaging lens to the microlens array, and αF is the distance from the exit pupil of the photographing lens to the reconstruction surface (α is the refocus coefficient: a variable coefficient for determining the distance to the reconstruction surface). is there.

また該光束を受光する光電変換素子の出力をL(x’,y’,u,v)とすると、再構成面上に形成される画像の座標(x,y)の画素出力E(x,y)は、L(x’,y’,u,v)を撮影レンズの瞳領域に関して積分したものであり、


で表される。なお、(u,v)を瞳領域の代表座標とすることで、該式は単純加算により計算できる。このような計算を再構成面上の各画素座標について行うことで、任意の被写体距離に合焦した再構成画像を生成することができる。
〈3 被写界深度の変更処理〉
このような構成をもつ本実施形態のLFC100において実行される被写界深度の変更処理について、図6のフローチャートを用いて具体的に説明する。また、各ステップにおいて、説明に必要となる図7乃至図10を適宜用いて説明する。
If the output of the photoelectric conversion element that receives the luminous flux is L (x ′, y ′, u, v), the pixel output E (x, y) of the coordinates (x, y) of the image formed on the reconstruction surface y) is obtained by integrating L (x ′, y ′, u, v) with respect to the pupil region of the photographing lens,


It is represented by By using (u, v) as the representative coordinates of the pupil region, the equation can be calculated by simple addition. By performing such calculation for each pixel coordinate on the reconstruction surface, a reconstructed image focused on an arbitrary subject distance can be generated.
<3 Depth of field change processing>
The depth-of-field changing process executed in the LFC 100 of this embodiment having such a configuration will be specifically described with reference to the flowchart of FIG. Each step will be described with reference to FIGS. 7 to 10 which are necessary for the description.

フローチャートに対応する処理は、制御部101が、例えばROM102に記憶されているプログラムを読み出し、RAM103に展開して実行することにより実現することができる。なお、本処理は、例えばLFC100が閲覧モードに設定されて起動され、記録媒体111に記録されたLFデータに対して再構成画像の生成指示がなされた際に開始されるものとして説明する。また、撮影後の閲覧モードには限定されず、撮影時に表示部110に再構成画像を表示させ、取得したLFデータに再生時のパラメータを設定させる等の目的で被写界深度を変更する処理を行ってもよい。   The processing corresponding to the flowchart can be realized by the control unit 101 reading, for example, a program stored in the ROM 102, developing the program in the RAM 103, and executing the program. Note that this processing will be described as being started when, for example, the LFC 100 is set in the browsing mode and is activated and an instruction to generate a reconstructed image is given to the LF data recorded on the recording medium 111. In addition, it is not limited to the viewing mode after shooting, and processing for changing the depth of field for the purpose of displaying a reconstructed image on the display unit 110 at the time of shooting and setting parameters at the time of playback in the acquired LF data. May be performed.

S601において画像処理部109は、制御部101の指示により、再構成処理の可能なLFデータを記録媒体111から取得する。さらに画像処理部109は、後の物体検出処理に用いる画像を生成するため、所定の被写体距離に対応する再構成画像を生成する。本実施形態では、所定の被写体距離は無限遠に設定されているものして再構成画像を生成するものとするが、ユーザによる設定値を利用したり実験的に定められた設定値を用いて再構成画像を生成してもよい。   In step S <b> 601, the image processing unit 109 acquires LF data that can be reconstructed from the recording medium 111 according to an instruction from the control unit 101. Furthermore, the image processing unit 109 generates a reconstructed image corresponding to a predetermined subject distance in order to generate an image used for the subsequent object detection process. In this embodiment, the predetermined subject distance is set to infinity and a reconstructed image is generated. However, a setting value by a user or a setting value determined experimentally is used. A reconstructed image may be generated.

S602において画像処理部109は、LFデータから生成した再構成画像に対して、特定の特徴を持った物体(対象物体)の画像上の領域を検出する。本実施形態では、LFC100は画像に含まれる人物の顔および胴体に対応する領域の検出機能を有するものとし、本ステップではS601で生成した再構成画像を用いて、人物の顔および胴体に対応する領域の検出を行うものとする。なお、検出する被写体は人物の顔領域に限らず、LFC100が検出機能を有する特定の被写体であってよい。図7(a)では、物体A701、物体B702、物体C703がそれぞれ検出された例を示している。   In step S <b> 602, the image processing unit 109 detects a region on the image of an object (target object) having a specific feature from the reconstructed image generated from the LF data. In this embodiment, the LFC 100 has a function of detecting a region corresponding to the face and torso of a person included in the image. In this step, the LFC 100 corresponds to the face and torso of the person using the reconstructed image generated in S601. It is assumed that the area is detected. The subject to be detected is not limited to a human face area, and may be a specific subject that the LFC 100 has a detection function. FIG. 7A shows an example in which an object A 701, an object B 702, and an object C 703 are detected.

S603において画像処理部109は、取得したLFデータについて、再構成画像内の分割領域ごとに被写体までの距離分布を算出する。図7(a)の704は1つの距離分布の分割領域の例を示す。該分割領域の大きさは、LFデータから生成可能な再構成画像の最小分解能に応じて規定される。分割領域704の分割数はLFC100の演算能力やフレームレート等の制限に応じて適宜決めても良い。   In step S603, the image processing unit 109 calculates a distance distribution to the subject for each divided region in the reconstructed image with respect to the acquired LF data. Reference numeral 704 in FIG. 7A indicates an example of a divided region of one distance distribution. The size of the divided area is defined according to the minimum resolution of the reconstructed image that can be generated from the LF data. The number of divisions of the divided area 704 may be determined as appropriate according to limitations on the calculation capability, frame rate, etc. of the LFC 100.

画像処理部109は、設定された分割領域704の各々について、エリア内に含まれる被写体までの代表距離の情報を算出する。具体的には画像処理部109は、異なる2つの分割瞳領域を通過した光束に対応するデフォーカス量検出用の2種類の再構成画像(検出用画像)を生成する。本ステップで生成される検出用画像は、上述したように射出瞳301の領域を左半分と右半分の分割瞳領域に分け、各分割瞳領域を通過した光束に対応するものであってよい。しかしながら、検出用画像は射出瞳301を通過したうち、光軸が異なる2種類の分割瞳領域を通過した光束に対応する画像であればよく、分割瞳領域の選択方法はこれに限られない。   The image processing unit 109 calculates information about the representative distance to the subject included in the area for each of the set divided regions 704. Specifically, the image processing unit 109 generates two types of reconstructed images (detection images) for detecting a defocus amount corresponding to light beams that have passed through two different divided pupil regions. As described above, the detection image generated in this step may be one that divides the area of the exit pupil 301 into divided pupil areas of the left half and the right half, and corresponds to the light flux that has passed through each divided pupil area. However, the detection image may be an image corresponding to the light beam that has passed through the exit pupil 301 and has passed through two types of divided pupil regions having different optical axes, and the method for selecting the divided pupil region is not limited thereto.

画像処理部109は、得られた2つの検出用画像から各分割領域内の被写体に対するデフォーカス量を算出し、デフォーカス量に従って代表距離を算出する。代表距離は、例えば分割領域の中央に位置する被写体についての距離であってもよいし、分割領域内の被写体について得られた距離の平均値であってもよい。   The image processing unit 109 calculates the defocus amount for the subject in each divided region from the two obtained detection images, and calculates the representative distance according to the defocus amount. The representative distance may be, for example, a distance for a subject located in the center of the divided region, or may be an average value of distances obtained for subjects in the divided region.

S604において画像処理部109は、S603で得られた分割領域704ごとの代表距離とS602で検出された対象物体の画像上の位置関係とから、各対象物体の距離分布情報を生成する(図7(b))。各対象物体に対する距離分布は、物体の形状や大きさに応じた拡がりを有するが、本実施形態では簡単化のため対象物体の距離を代表して表す距離(対象物体の代表距離)を与えるものとする。図7(b)は対象物体である物体A701、物体B702、物体C703の代表距離を示した図であり、それぞれの対象物体までの距離が異なっていることを示している。   In S604, the image processing unit 109 generates distance distribution information of each target object from the representative distance for each divided region 704 obtained in S603 and the positional relationship on the image of the target object detected in S602 (FIG. 7). (B)). The distance distribution with respect to each target object has a spread according to the shape and size of the object, but in this embodiment, for the sake of simplification, a distance that represents the distance of the target object (representative distance of the target object) is given. And FIG. 7B is a diagram showing representative distances of the target objects A701, B702, and C703, and shows that the distances to the target objects are different.

画像処理部109は、対象物体の画像上の位置関係に対応する各分割領域704の代表距離を取得し、対象物体の代表距離を算出する。対象物体が人物である本実施形態では、人物の顔領域に対応する代表距離を対象物体の代表距離として算出(選択)するが、胴体領域を含む、同一人物に係る全ての分割領域の代表距離の平均値を対象物体の代表距離として算出してもよい。   The image processing unit 109 acquires the representative distance of each divided region 704 corresponding to the positional relationship of the target object on the image, and calculates the representative distance of the target object. In the present embodiment in which the target object is a person, the representative distance corresponding to the face area of the person is calculated (selected) as the representative distance of the target object. However, the representative distances of all the divided areas including the body area are related to the same person. May be calculated as the representative distance of the target object.

S605において画像処理部109は、対象物体の被写界深度情報を生成する。図8は、横軸を被写体距離として、図7(a)で示した対象物体の被写体距離と被写界深度とを模式的に示す図である。物体A701の被写界深度情報は被写体距離401と至近側被写界深度402と無限側被写界深度403である。物体B702の被写界深度情報は被写体距離404と至近側被写界深度405と無限側被写界深度406である。物体C703の被写界深度情報は被写体距離407と至近側被写界深度408と無限側被写界深度409である。   In step S605, the image processing unit 109 generates depth-of-field information of the target object. FIG. 8 is a diagram schematically showing the subject distance and the depth of field of the target object shown in FIG. 7A, where the horizontal axis is the subject distance. The depth of field information of the object A 701 is the subject distance 401, the closest-side depth of field 402, and the infinite-side depth of field 403. The depth-of-field information of the object B 702 includes a subject distance 404, a closest-side depth of field 405, and an infinite-side depth of field 406. The depth of field information of the object C703 includes the subject distance 407, the closest-side depth of field 408, and the infinite-side depth of field 409.

画像処理部109は、まずS604で生成した対象物体の代表距離を用いて対象物体の被写体距離を算出する。その上で、画像処理部109は、各対象物体の被写体距離における至近側被写界深度および無限側被写界深度を取得する。被写界深度は、一般にレンズの焦点距離、絞り値(Fナンバー)、及び撮像素子のサイズ等の撮像装置の物理的な値と、被写体距離とによって求めることができる。しかし、本実施形態では、ある被写体距離とFナンバーに対して予め至近側および無限側被写界深度を算出し、被写界深度テーブルとして保持しておくものとする。画像処理部109は、対象物体の被写体距離おける被写界深度情報を得るために、所定の被写体距離とFナンバーに対する至近側被写界深度および無限側被写界深度の値を、被写界深度テーブルから取得する。   First, the image processing unit 109 calculates the subject distance of the target object using the representative distance of the target object generated in S604. In addition, the image processing unit 109 acquires the closest depth of field and the infinite depth of field at the subject distance of each target object. In general, the depth of field can be obtained from the physical value of the imaging apparatus such as the focal length of the lens, the aperture value (F number), and the size of the imaging device, and the subject distance. However, in this embodiment, it is assumed that the near side and infinite side depths of field are calculated in advance for a certain subject distance and F number, and are stored as a depth of field table. In order to obtain depth-of-field information on the subject distance of the target object, the image processing unit 109 uses the values of the near-side depth of field and the infinite-side depth of field for a predetermined subject distance and F-number as the depth of field. Get from the depth table.

S606において制御部101は、S601において画像処理部109により生成された、無限遠の被写体に合焦した再構成画像をユーザによる対象物体の指定操作のために表示部110に表示させる。   In step S606, the control unit 101 causes the display unit 110 to display the reconstructed image focused on the object at infinity, generated by the image processing unit 109 in step S601, for the target object specifying operation by the user.

S607において制御部101は、操作入力部112を通じて、対象物体を指定する操作が行われたか判断する。操作入力部112を通じて対象物体の指定操作が行われたと判断する場合、制御部101は処理をS608に進め、対象物体の指定操作が行われていないと判断した場合はS612に処理を移動して操作入力部112からの入力を待つ。以降において、指定された対象物体を指定物体と称する。   In step S <b> 607, the control unit 101 determines whether an operation for specifying a target object has been performed via the operation input unit 112. When determining that the target object designation operation has been performed through the operation input unit 112, the control unit 101 advances the process to step S608, and when determining that the target object designation operation has not been performed, moves the process to step S612. Wait for input from the operation input unit 112. Hereinafter, the designated target object is referred to as a designated object.

例えば制御部101は、操作入力部112を通じて画面上の座標が指定され、かつ指定された座標がS602において画像処理部109が検出した対象物体の領域のいずれかに含まれる場合、指定された座標を含む領域の対象物体が指定されたものと判断する。   For example, when the coordinates on the screen are designated through the operation input unit 112 and the designated coordinates are included in any of the target object areas detected by the image processing unit 109 in S602, the control unit 101 designates the designated coordinates. It is determined that the target object in the region including is designated.

S608において画像処理部109は、S605において生成された各対象物体の被写体距離に基づいて、指定物体と他の対象物体との被写体距離の関係を特定する。例えばS607において、図7(a)における各対象物体の中で物体A701が指定されたものとする。そうすると、S605において生成した各対象物体の被写体距離に基づいて、物体A701は物体A701、物体B702、物体C703の中で至近側に存在するという被写体距離の関係が特定される。   In step S608, the image processing unit 109 specifies the relationship between the subject distance between the designated object and another target object based on the subject distance of each target object generated in step S605. For example, in S607, it is assumed that the object A701 is designated among the target objects in FIG. Then, based on the subject distance of each target object generated in S605, the subject distance relationship that the object A701 exists on the closest side among the object A701, the object B702, and the object C703 is specified.

画像処理部109は、指定物体と全ての他の対象物体の被写体距離を比較した結果、指定物体が最も至近側に存在する場合には、指定物体と他の対象物体との被写体距離の関係を示す情報として、例えば至近側である旨の識別子を設定する。また、指定物体が最も無限側にある場合は、無限側である旨の識別子を設定し、いずれでもない場合(中間に存在する場合)には識別子を設定しない。   As a result of comparing the subject distances between the designated object and all other target objects, the image processing unit 109 determines the subject distance relationship between the designated object and the other target objects when the designated object is closest. As the information to be shown, for example, an identifier indicating that it is the closest side is set. If the designated object is on the most infinite side, an identifier indicating that the designated object is on the infinite side is set, and if it is neither (in the middle), no identifier is set.

S609において画像処理部109は、S605において生成された各対象物体の被写界深度情報およびS608において設定された指定物体と他の対象物体との被写体距離の関係を示す情報とに基づいて、指定物体の被写界深度を変更する処理を行う。   In S609, the image processing unit 109 specifies based on the depth-of-field information of each target object generated in S605 and information indicating the relationship of the subject distance between the specified object and other target objects set in S608. A process for changing the depth of field of the object is performed.

図9のフローチャートおよび図10を用いて、指定物体の被写界深度を変更する処理について説明する。S501において画像処理部109は、指定物体と他の対象物体との被写体距離の関係を示す情報を参照し、至近側である旨の識別子が設定されていればS502へ、指定物体が無限側である旨の識別子が設定されていればS503へそれぞれ処理を進める。また、画像処理部109は、指定物体と他の対象物体との被写体距離の関係を示す情報に識別子が設定されていない場合には処理をS504へ進める。   A process of changing the depth of field of the designated object will be described with reference to the flowchart of FIG. 9 and FIG. In step S501, the image processing unit 109 refers to information indicating the relationship between the subject distance between the designated object and another target object. If an identifier indicating that the object is close is set, the process proceeds to step S502. If an identifier to that effect is set, the process proceeds to S503. If the identifier is not set in the information indicating the subject distance relationship between the designated object and another target object, the image processing unit 109 advances the process to step S504.

S502で画像処理部109は、指定物体の被写界深度情報の被写体距離を無限側に移動する処理を行う。一方、S503で画像処理部109は、指定物体の被写界深度情報の被写体距離を至近側に移動する処理を行う。即ち、指定物体の被写体距離と他の対象物体の被写体距離の差が減少する方向に指定物体の被写体距離を移動させる。画像処理部109は、S502およびS503の処理が完了すると、S504へ処理を進める。   In step S502, the image processing unit 109 performs processing for moving the subject distance in the depth-of-field information of the designated object to the infinite side. On the other hand, in step S503, the image processing unit 109 performs a process of moving the subject distance in the depth-of-field information of the designated object to the closest side. That is, the subject distance of the designated object is moved in a direction in which the difference between the subject distance of the designated object and the subject distance of another target object is reduced. When the processes of S502 and S503 are completed, the image processing unit 109 advances the process to S504.

なお、S502およびS503の処理は、被写体距離を移動しなくても所定量の被写界深度を拡大可能であれば必ずしも必要でない。すなわち、被写界深度は合焦距離を中心として至近側と無限側に同じ幅で生じるが、指定物体が至近側や無限側に存在する場合、被写体距離を変更しないと一方の方向への被写界深度の拡大が限界に達してしまう。そのため、本実施形態では、至近側および無限側に指定物体が存在する場合には、それぞれ至近端もしくは無限側から遠ざかるように被写体距離を所定量移動させている。   Note that the processing in S502 and S503 is not necessarily required if the predetermined depth of field can be expanded without moving the subject distance. In other words, the depth of field occurs with the same width on the near side and the infinity side with the focus distance as the center, but if the specified object exists on the near side or the infinity side, the subject distance in one direction must be changed without changing the subject distance. Expansion of depth of field reaches the limit. For this reason, in the present embodiment, when the designated object exists on the close side and the infinite side, the subject distance is moved by a predetermined amount so as to move away from the close end or the infinite side.

S504において画像処理部109は、指定物体の被写界深度の至近側被写界深度と無限側被写界深度の範囲を拡大する。画像処理部109は、指定物体の被写界深度情報から至近側被写界深度と無限側被写界深度を取得する。次に新たに設定された被写体距離を中心として、該被写体距離から取得した至近側被写界深度に相当する位置に被写体距離Aを、被写体距離から取得した無限側被写界深度に相当する位置に被写体距離Bを設定する。S502またはS503において指定物体の被写体距離が変化している場合には、変更後の被写体距離が新たに設定された被写体距離となる。画像処理部109は、指定物体の至近側被写界深度について、例えば至近側である被写体距離Aにおいて求められる至近側被写界深度と被写界深度情報から取得した至近側被写界深度とを合算して、指定物体の至近側被写界深度を拡大する。同様に、画像処理部109は、無限側被写界深度について、無限側である被写体距離Bに求められる無限側被写界深度と、被写界深度情報から取得した無限側被写界深度とを合算する。   In step S504, the image processing unit 109 expands the range of the closest depth of field and the infinite depth of field of the specified object. The image processing unit 109 acquires the near side depth of field and the infinite side depth of field from the depth of field information of the designated object. Next, with the newly set subject distance as the center, the subject distance A is set at the position corresponding to the closest depth of field acquired from the subject distance, and the position corresponding to the infinite side depth of field acquired from the subject distance. The subject distance B is set to. If the subject distance of the designated object has changed in S502 or S503, the subject distance after the change is the newly set subject distance. For example, the image processing unit 109 determines the near-side depth of field of the specified object, for example, the near-side depth of field obtained from the subject distance A on the near side and the near-side depth of field acquired from the depth-of-field information. Are combined to expand the near field depth of the specified object. Similarly, for the infinite depth of field, the image processing unit 109 calculates the infinite depth of field obtained from the subject distance B on the infinite side and the infinite depth of field acquired from the depth of field information. Add together.

なお、1回の被写界深度情報の変更処理によって更新される被写体距離の移動量および被写界深度の変更量を調整するために、固定値として予め組み込まれたものを更に合算してもよい。また、これらはユーザがメニュー画面等から設定可能な値であってもよい。移動量や変更量の設定は被写界深度の変更速度の設定と同義である。また、本実施形態では、指定物体の被写界深度の拡大において、至近側被写界深度および無限側被写界深度をそれぞれ変更する例を説明したが、至近側の指定物体であれば無限側被写界深度のみを行ってもよい。また、無限側の指定物体であれば至近側被写界深度のみを変更するような処理を行ってもよい。   In addition, in order to adjust the amount of movement of the subject distance and the amount of change of the depth of field that are updated by one change process of the depth of field information, what is previously incorporated as a fixed value may be further added. Good. These may be values that can be set by the user from the menu screen or the like. Setting the movement amount and the change amount is synonymous with setting the change speed of the depth of field. Further, in the present embodiment, an example has been described in which the close-side depth of field and the infinite depth-of-field are each changed in expanding the depth of field of the designated object. Only the side depth of field may be performed. Further, in the case of a designated object on the infinite side, processing such as changing only the closest depth of field may be performed.

S505において画像処理部109は、被写界深度情報を更新する。まず画像処理部109は、被写界深度情報の被写体距離を、中心となる被写体距離で更新する。また、画像処理部109は、指定物体の被写界深度情報における至近側被写界深度について、S504で合算して拡大された被写界深度を用いて被写界深度情報を更新する。   In step S505, the image processing unit 109 updates the depth of field information. First, the image processing unit 109 updates the subject distance in the depth of field information with the subject distance at the center. In addition, the image processing unit 109 updates the depth-of-field information using the depth of field expanded in S504 with respect to the closest-side depth of field in the depth-of-field information of the designated object.

指定物体の存在する位置が至近側である場合、無限遠である場合、中間である場合のそれぞれにおいて、図9の処理でどのように被写界深度が更新(拡大)されるかを、図10を用いてさらに説明する。   FIG. 9 shows how the depth of field is updated (enlarged) in the process of FIG. 9 in each of the case where the designated object exists on the near side, the infinite distance, and the intermediate position. 10 will be further described.

図10(a)は、指定物体が至近側に存在する場合(例えば指定物体が図7におけるA701である場合)に行われる被写界深度の変更処理を模式的に示している。物体A701は至近側に存在するため、物体A701の被写界深度情報の被写体距離は、S502において図10(a)の401から1001aに示すように所定量無限側に移動される。そしてS504において、物体A701の被写界深度情報の至近側被写界深度は図10(a)の402から1002aに、無限側被写界深度は図10(a)の403から1003aにそれぞれ拡大される。被写体距離1001aから至近側被写界深度402に相当する被写体距離を被写体距離Aとすると、被写界深度1002aは、至近側被写界深度402に、被写体距離Aにおいて求められる至近側被写界深度を合算することで得られる。同様に、被写体距離1001aから被写界深度402に相当する無限側にある被写体距離を被写体距離Bとすると、無限側被写界深度403に被写体距離Bにおいて求められる無限側被写界深度を合算して無限側被写界深度1003aを得る。   FIG. 10A schematically shows a depth-of-field changing process performed when the designated object is present on the near side (for example, when the designated object is A701 in FIG. 7). Since the object A 701 exists on the closest side, the subject distance of the depth of field information of the object A 701 is moved to a predetermined amount infinite side as indicated by 401 to 1001a in FIG. In step S504, the closest depth of field of the depth of field information of the object A701 is expanded from 402 to 1002a in FIG. 10A, and the infinite depth of field is expanded from 403 to 1003a in FIG. 10A. Is done. When the subject distance corresponding to the closest depth of field 402 from the subject distance 1001a is set as the subject distance A, the depth of field 1002a is calculated from the closest depth of field 402 calculated at the subject distance A. It is obtained by adding the depth. Similarly, assuming that the subject distance on the infinite side corresponding to the depth of field 402 from the subject distance 1001a is the subject distance B, the infinite side depth of field calculated at the subject distance B is added to the infinite side depth of field 403. Thus, the infinite depth of field 1003a is obtained.

図10(b)は、指定物体が至近側の対象物体と無限側の対象物体の中間に位置する場合(例えば指定物体が図7における物体B702である場合)に行われる被写界深度の変更処理を模式的に示している。物体B702は至近側の被写体と無限側の被写体の中間に位置するため被写界深度情報の被写体距離404は移動しない。そして、S504において、物体B702の被写界深度情報の至近側被写界深度は図10(b)の405から1002bに、該被写界深度情報の無限側被写界深度は図10(b)の406から1003bにそれぞれ変化して被写界深度の範囲が拡大する。被写体距離404から至近側被写界深度405に相当する被写体距離を被写体距離Aとすると、被写界深度1002bは、至近側被写界深度405に、被写体距離Aにおいて求められる至近側被写界深度を合算することで得られる。同様に、被写体距離404から被写界深度406に相当する無限側にある被写体距離を被写体距離Bとすると、無限側被写界深度406に被写体距離Bにおいて求められる無限側被写界深度を合算して無限側被写界深度1003bを得る。   FIG. 10B shows a change in the depth of field that is performed when the designated object is positioned between the target object on the near side and the target object on the infinite side (for example, when the designated object is the object B702 in FIG. 7). The process is shown schematically. Since the object B702 is located between the closest subject and the infinite subject, the subject distance 404 in the depth-of-field information does not move. In step S504, the closest depth of field of the depth of field information of the object B 702 is changed from 405 to 1002b in FIG. 10B, and the infinite depth of field of the depth of field information is changed to FIG. ) From 406 to 1003b, the range of the depth of field is expanded. Assuming that the subject distance corresponding to the near field depth 405 from the subject distance 404 is the subject distance A, the depth of field 1002b is obtained from the near field depth 405 determined by the subject distance A. It is obtained by adding the depth. Similarly, assuming that the subject distance on the infinite side corresponding to the depth of field 406 from the subject distance 404 is the subject distance B, the infinite side depth of field calculated at the subject distance B is added to the infinite side depth of field 406. Infinite side depth of field 1003b is obtained.

図10(c)は、指定物体が無限側にある場合(例えば指定物体が図7における物体C703である場合)に行われる被写界深度の変更処理を模式的に示している。物体C703の被写体距離は無限側にあるため、物体C703の被写界深度情報の被写体距離は、S503において図10(c)の407から1001cに示すように所定量至近側に移動される。そして、S504において、物体C703の被写界深度情報の至近側被写界深度は図10(c)の408から1002cに、該被写界深度情報の無限側被写界深度は図10(c)の409から1003cにそれぞれ変化して被写界深度の範囲が拡大する。被写界深度1002cは、被写体距離1001cから至近側被写界深度408に相当する被写体距離を被写体距離Aとすると、至近側被写界深度408に、被写体距離Aにおいて求められる至近側被写界深度を合算することで得られる。同様に、被写体距離1001cから被写界深度409に相当する無限側にある被写体距離を被写体距離Bとすると、無限側被写界深度409に被写体距離Bにおいて求められる無限側被写界深度を合算して無限側被写界深度1003cを得る。   FIG. 10C schematically illustrates the depth-of-field changing process performed when the designated object is on the infinity side (for example, when the designated object is the object C703 in FIG. 7). Since the subject distance of the object C703 is on the infinite side, the subject distance of the depth-of-field information of the object C703 is moved closer to a predetermined amount as indicated by 407 to 1001c in FIG. 10C in S503. In S504, the near-side depth of field of the depth-of-field information of the object C703 is changed from 408 to 1002c in FIG. 10C, and the infinite-side depth of field of the depth-of-field information is shown in FIG. ) From 409 to 1003c, the range of the depth of field is expanded. Depth of field 1002c is defined as the near field depth obtained at the subject distance A when the subject distance corresponding to the near field depth 408 from the subject distance 1001c is the subject distance A. It is obtained by adding the depth. Similarly, when the subject distance on the infinite side corresponding to the depth of field 409 from the subject distance 1001c is the subject distance B, the infinite side depth of field calculated at the subject distance B is added to the infinite side depth of field 409. Infinite side depth of field 1003c is obtained.

このように指定物体と他の対象物体との被写体距離の関係に応じて合焦する被写体距離を移動させた上で被写界深度を更新することにより、ユーザは被写界深度を変化させる方向を意図的に指定することなく、容易に被写界深度を変更することができる。   In this way, the user changes the depth of field by updating the depth of field after moving the subject distance to be focused according to the relationship of the subject distance between the specified object and another target object. The depth of field can be easily changed without intentionally specifying.

次にS610において画像処理部109は、S609で変更した被写界深度情報に対応した再構成画像を生成する。画像処理部109は、例えば、図9のS504で算出された3つの被写体距離を焦点面とする再構成画像をそれぞれ生成し、中心の被写体距離に合焦する再構成画像に対して他の再構成画像の合焦部分を合成した合成再構成画像を生成する。これにより被写界深度が拡大した再構成画像を生成することができる。なお、合成処理は、3枚の再構成画像の例えば対応する画素同士の加算であってよい。この際、域毎のエッジ強度を算出し、領域毎にエッジ強度に応じた重みづけ加算を行ってもよい。画像処理部109は合成した合成再構成画像を出力する。   In step S610, the image processing unit 109 generates a reconstructed image corresponding to the depth of field information changed in step S609. For example, the image processing unit 109 generates a reconstructed image with the three subject distances calculated in step S504 of FIG. 9 as focal planes, and performs another reconstruction on the reconstructed image focused on the central subject distance. A composite reconstructed image is generated by combining the in-focus portions of the constituent images. Thereby, a reconstructed image with an expanded depth of field can be generated. Note that the composition process may be, for example, addition of corresponding pixels of the three reconstructed images. At this time, the edge strength for each region may be calculated, and weighted addition corresponding to the edge strength may be performed for each region. The image processing unit 109 outputs the combined reconstructed image.

合成再構成画像についてより具体的には、まず画像処理部109は、S504で算出された中心となる被写体距離(合焦距離)と、至近側の被写体距離Aおよび被写体距離Bをそれぞれの再構成画像の焦点面として設定して、それぞれの再構成画像を生成する。これにより、指定物体の被写体距離における再構成画像と被写体距離AおよびBにおける再構成画像を得ることができる。そして、これらの再構成画像を合成した新たな再構成画像を生成することによって、被写界深度の拡大した再構成画像を得ることができる。なお、被写界深度の拡大方法は上記に限らず、中心となる被写体距離から至近側及び無限側のそれぞれに所定ステップ分変位した位置に被写体距離A及び被写体距離Bを設定するようにしてもよい。また、被写体距離は3つに限らず、より多数の被写体距離を設定してもよい。   More specifically, for the composite reconstructed image, first, the image processing unit 109 reconstructs the subject distance (focusing distance) that is the center calculated in S504, the subject distance A and the subject distance B on the closest side, respectively. Each reconstructed image is generated by setting it as the focal plane of the image. Thereby, a reconstructed image at the subject distance of the designated object and a reconstructed image at the subject distances A and B can be obtained. Then, by generating a new reconstructed image obtained by combining these reconstructed images, a reconstructed image with an expanded depth of field can be obtained. Note that the method for expanding the depth of field is not limited to the above, and the subject distance A and the subject distance B may be set at positions displaced from the central subject distance by a predetermined step respectively on the close side and the infinity side. Good. Further, the subject distance is not limited to three, and more subject distances may be set.

S611において表示部110は、制御部101の指示により、画像処理部109から出力された再構成画像を表示する。   In step S <b> 611, the display unit 110 displays the reconstructed image output from the image processing unit 109 according to an instruction from the control unit 101.

S612において制御部101は、操作入力部112からの入力に基づいて、更なる処理の有無を判断する。制御部101は、例えばタッチパネルにおける接触等の操作(タッチ操作)により一定の画像領域において選択状態がされた場合には、対象物体の指定を判断するため、S607へ処理を進める。また、制御部101は、例えばタッチパネルにおける長押し操作のように一定の画像領域において選択状態が継続する場合には、被写界深度情報の変更を継続させるため、S609へ処理を戻す。被写界深度情報の変更の継続については、選択状態の継続が停止した場合には、継続の解除指示と判断してS609への移動を停止して被写界深度の変更を停止させる。さらに、制御部101は、ユーザ等の入力が無い場合は、入力待ちの状態となってS612へ処理を戻す。さらに、ユーザによって再構成画像の表示に対する終了操作があった場合には、制御部101は一連の処理を終了させる。   In step S <b> 612, the control unit 101 determines the presence / absence of further processing based on the input from the operation input unit 112. For example, when the selected state is selected in a certain image region by an operation (touch operation) such as a touch on the touch panel, the control unit 101 advances the process to S607 in order to determine the designation of the target object. In addition, when the selection state continues in a certain image area, such as a long press operation on the touch panel, for example, the control unit 101 returns the process to S609 in order to continue changing the depth of field information. Regarding the continuation of the change of the depth of field information, when the continuation of the selected state is stopped, it is determined as a continuation release instruction, the movement to S609 is stopped, and the change of the depth of field is stopped. Further, when there is no input from the user or the like, the control unit 101 enters an input waiting state and returns the process to S612. Furthermore, when the user performs an end operation on the display of the reconstructed image, the control unit 101 ends the series of processes.

本実施形態によれば、ユーザの指定した被写体の被写体距離と該被写体以外の他の被写体の被写体距離の関係に基づいて被写界深度の変更方法を制御することにより、ユーザは再構成画像の合焦距離および被写界深度を容易に設定することができる。   According to the present embodiment, by controlling the depth-of-field changing method based on the relationship between the subject distance of the subject specified by the user and the subject distance of other subjects other than the subject, the user can The focusing distance and the depth of field can be easily set.

なお、本実施形態では、被写体を継続的に選択した場合に被写界深度を継続的に変更する例を説明したが、被写体を選択すると自動的に所定の時間周期で被写界深度を変更するようにしてもよい。この場合には、例えばユーザがタッチパネルの所定の領域にタッチ操作をした場合に被写界深度の変更を停止する。さらに、時間周期はユーザがメニュー画面等から設定可能なものであってよい。本実施形態では、タッチパネルの操作を接触による操作として説明したが、タッチパネル等の表示装置に対する入力は、その検出方法によっては必ずしも接触しなくてもよい。また、図示していないが、本発明では指定物体の被写界深度の拡大以外に、被写界深度を縮小する方法も含む。例えば、ユーザは被写体を指定する前に予め、拡大または縮小の別を選択しておいても良いし、被写体を継続的に選択して被写界深度を変更する際に、特定のキーを同時に押下することで処理が縮小するようにしてもよい。ユーザが被写界深度の縮小を選択した場合には、画像処理部109は、S609において被写界深度が縮小するように被写体距離を決めればよい。   In this embodiment, the example in which the depth of field is continuously changed when the subject is continuously selected has been described. However, when the subject is selected, the depth of field is automatically changed at a predetermined time period. You may make it do. In this case, for example, when the user performs a touch operation on a predetermined area of the touch panel, the change of the depth of field is stopped. Further, the time period may be set by the user from a menu screen or the like. In the present embodiment, the operation of the touch panel has been described as an operation by contact, but an input to a display device such as a touch panel may not necessarily be in contact depending on the detection method. Although not shown, the present invention includes a method for reducing the depth of field in addition to increasing the depth of field of the designated object. For example, the user may select whether to enlarge or reduce in advance before specifying a subject, or when a user continuously selects a subject and changes the depth of field, The processing may be reduced by pressing the button. When the user selects to reduce the depth of field, the image processing unit 109 may determine the subject distance so that the depth of field is reduced in S609.

(実施形態2)
図11のフローチャートを参照して、本発明の実施形態2における再構成画像の生成処理について説明する。本実施形態は、ユーザが指定物体となる被写体を指定することに加えて、被写界深度の更新方向あるいは更新方向と更新する幅を指示することによって、所望の被写界深度が反映された再構成画像を生成するものである。なお、図6に示した本発明の実施形態1におけるフローチャートと異なる部分について詳細に説明し、重複する部分については説明を省略する。
(Embodiment 2)
With reference to the flowchart of FIG. 11, the reconstructed image generation processing in Embodiment 2 of the present invention will be described. In the present embodiment, in addition to the user specifying the subject to be the designated object, the desired depth of field is reflected by instructing the update direction of the depth of field or the update direction and the update width. A reconstructed image is generated. In addition, a different part from the flowchart in Embodiment 1 of this invention shown in FIG. 6 is demonstrated in detail, and description is abbreviate | omitted about the overlapping part.

S607において制御部101は、図6で説明した処理と同様に対象物体の指定操作が行われたと判断した場合は処理をS1101に進める。
S1101において制御部101は、操作入力部112を通じて入力された情報に基づいて、指定物体に対する被写界深度の更新方向と更新する幅を取得する。制御部101は、入力が指定物体に対する、被写界深度の更新方向と更新する幅を指示する操作を得られた場合は処理をS1102へ進める。指定物体に対する指示操作を得られない場合はS1101に戻ってユーザからの指示操作を待つ。所定の時間内に指示操作を得られない場合、制御部101は処理をタイムアウトさせてS612に処理を移動して新たなユーザからの入力を待つ。
If the control unit 101 determines in step S <b> 607 that the target object designation operation has been performed in the same manner as the process described with reference to FIG. 6, the process proceeds to step S <b> 1101.
In step S <b> 1101, the control unit 101 acquires the update direction and the update width of the depth of field for the specified object based on the information input through the operation input unit 112. The control unit 101 advances the process to step S1102 when an operation for instructing the update direction and the update width of the depth of field with respect to the designated object is obtained as an input. If the instruction operation for the specified object cannot be obtained, the process returns to S1101 to wait for the instruction operation from the user. If the instruction operation cannot be obtained within the predetermined time, the control unit 101 times out the process, moves the process to S612, and waits for an input from a new user.

制御部101は、操作入力部112を通じて、例えば、タッチパネルにおけるフリック操作やスワイプ操作等のタッチ操作の位置の移動を伴う操作の検出を行う。制御部101は、検出した操作がスワイプ操作であると判断した時は更に移動軌跡を確認して軌跡の大きさを取得する。例えばスワイプ操作が上下方向の操作である場合は、それぞれを被写界深度の向きの至近側または無限側の方向に割り当てあて、移動軌跡の大きさを被写界深度の変更の幅に割り当てる。   For example, the control unit 101 detects an operation involving a movement of the position of a touch operation such as a flick operation or a swipe operation on the touch panel through the operation input unit 112. When it is determined that the detected operation is a swipe operation, the control unit 101 further confirms the movement locus and acquires the size of the locus. For example, when the swipe operation is an operation in the vertical direction, each is assigned to the closest or infinite direction of the direction of the depth of field, and the size of the movement locus is assigned to the width of change of the depth of field.

S1102において画像処理部109は、S1101で取得した指定物体に対する、被写界深度の更新方向と更新する幅に基づいて指定物体の被写界深度を変更する。図12を参照して、S1102の指定物体の被写界深度を更新する処理について説明する。なお、本発明の実施形態1における図9のフローチャートと異なる部分のみ説明を行う。   In step S1102, the image processing unit 109 changes the depth of field of the designated object based on the update direction and the updated width of the depth of field for the designated object acquired in step S1101. The process for updating the depth of field of the designated object in S1102 will be described with reference to FIG. Only parts different from the flowchart of FIG. 9 in the first embodiment of the present invention will be described.

S1201において画像処理部109は、上述のS1101で取得した指定物体に対する操作指示に基づいて、被写界深度を更新する方向を判定する。画像処理部109は、操作指示における被写界深度の更新方向が無限側を示す場合は、実施形態1で述べたS502へ処理を進めて被写体距離を無限側に変更する。また、画像処理部109は、操作指示における被写界深度の更新方向が至近側である場合は、S503に進めて被写体距離を至近側に変更する。画像処理部109は、S502およびS503の処理を完了すると、処理をS1202へ進める。   In step S1201, the image processing unit 109 determines the direction in which the depth of field is updated based on the operation instruction for the specified object acquired in step S1101. When the update direction of the depth of field in the operation instruction indicates the infinite side, the image processing unit 109 proceeds to S502 described in the first embodiment and changes the subject distance to the infinite side. Further, when the update direction of the depth of field in the operation instruction is the close side, the image processing unit 109 proceeds to S503 and changes the subject distance to the close side. When completing the processes of S502 and S503, the image processing unit 109 advances the process to S1202.

S1202において画像処理部109は、指定物体の被写体距離と、S1101で取得した被写界深度を更新する幅に基づいて被写界深度を変更する。画像処理部109は、指定物体の被写界深度情報から至近側被写界深度と無限側被写界深度を取得する。次に新たに設定された被写体距離を中心として、該被写体距離から取得した至近側被写界深度に取得した更新する幅を合算した位置に被写体距離Aを、被写体距離から取得した無限側被写界深度に取得した更新する幅を合算した位置に被写体距離Bを設定する。S502またはS503において指定物体の被写体距離が変化している場合には、変更後の被写体距離が新たに設定された被写体距離となる。画像処理部109は、設定した被写体距離を用いてS505と同様に被写界深度情報を更新する。このように、操作指示から得られた被写界深度の更新方向と更新する幅に基づく3つの被写体距離を得ることによって、S612においてそれぞれの被写体距離における3つの再構成画像が得られ、これらを合成することによる合成再構成画像が得られる。   In S1202, the image processing unit 109 changes the depth of field based on the subject distance of the designated object and the width for updating the depth of field acquired in S1101. The image processing unit 109 acquires the near side depth of field and the infinite side depth of field from the depth of field information of the designated object. Next, with the newly set subject distance as the center, the subject distance A is obtained at the position obtained by adding the update width obtained from the closest depth of field obtained from the subject distance, and the infinite side subject obtained from the subject distance. The subject distance B is set at a position where the update width acquired in the depth of field is added. If the subject distance of the designated object has changed in S502 or S503, the subject distance after the change is the newly set subject distance. The image processing unit 109 updates the depth-of-field information using the set subject distance in the same manner as in S505. In this way, by obtaining three subject distances based on the updating direction and the updating width of the depth of field obtained from the operation instruction, three reconstructed images at the respective subject distances are obtained in S612. A combined reconstructed image is obtained by combining.

本実施形態によれば、タッチパネル等により被写界深度の更新方向と更新する幅を取得して被写界深度を変更した再構成画像を生成することにより、ユーザの意図に応じた再構成画像の被写界深度を容易に設定することができる。   According to the present embodiment, the reconstructed image according to the user's intention is obtained by acquiring the renewal direction of the depth of field and the renewal width by using the touch panel or the like and generating the reconstructed image with the depth of field changed The depth of field can be easily set.

以上に説明したように、本発明によれば、多視点画像から生成する再構成画像の合焦距離および被写界深度を容易に設定することが可能な画像処理装置、その制御方法およびプログラムを提供することが可能となる。   As described above, according to the present invention, an image processing apparatus capable of easily setting the in-focus distance and the depth of field of a reconstructed image generated from a multi-viewpoint image, and a control method and program thereof are provided. It becomes possible to provide.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (15)

同時に撮影された複数の視点の画像から任意の被写体距離に合焦した再構成画像を生成可能な画像処理装置であって、
予め定めた被写体距離に合焦した再構成画像から所定の被写体を検出する検出手段と、
前記検出された所定の被写体の、ユーザによる選択を受け付ける入力手段と、
前記ユーザにより選択された所定の被写体の被写体距離から所定の被写界深度を設定する設定手段と、
前記設定手段が設定した前記所定の被写界深度を有する再構成画像を生成する生成手段と、を有することを特徴とする画像処理装置。
An image processing apparatus capable of generating a reconstructed image focused on an arbitrary subject distance from images of a plurality of viewpoints photographed at the same time,
Detecting means for detecting a predetermined subject from a reconstructed image focused on a predetermined subject distance;
Input means for accepting selection by the user of the detected predetermined subject;
Setting means for setting a predetermined depth of field from the subject distance of the predetermined subject selected by the user;
An image processing apparatus comprising: generating means for generating a reconstructed image having the predetermined depth of field set by the setting means.
前記設定手段は、前記入力手段から同一の前記所定の被写体を選択する指示が継続して受け付けられている場合、前記所定の被写界深度を変更し、
前記生成手段は、前記変更された前記所定の被写界深度を有する再構成画像を生成することを特徴とする請求項1に記載の画像処理装置。
The setting unit changes the predetermined depth of field when an instruction to select the same predetermined subject is continuously received from the input unit,
The image processing apparatus according to claim 1, wherein the generation unit generates a reconstructed image having the changed predetermined depth of field.
前記選択する指示は、前記所定の被写体が表示される領域に対するタッチ操作により行われることを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the instruction to select is performed by a touch operation on an area where the predetermined subject is displayed. 前記設定手段は、前記入力手段によって前記選択の解除指示が受け付けられるまで、前記所定の被写界深度を変更し、
前記生成手段は、前記変更された前記所定の被写界深度を有する再構成画像を生成することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
The setting means changes the predetermined depth of field until an instruction to cancel the selection is received by the input means,
4. The image processing apparatus according to claim 1, wherein the generation unit generates a reconstructed image having the changed predetermined depth of field. 5.
前記解除指示は、前記再構成画像が表示される領域に対するタッチ操作により行われることを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the release instruction is performed by a touch operation on an area where the reconstructed image is displayed. 前記設定手段は、前記所定の被写界深度を所定の幅ごとに変更するように構成され、前記所定の幅の大きさが、ユーザの指示に応じて決定されることを特徴とする請求項2乃至5のいずれか1項に記載の画像処理装置。   The said setting means is comprised so that the said predetermined depth of field may be changed for every predetermined width, The magnitude | size of the said predetermined width is determined according to a user's instruction | indication. The image processing apparatus according to any one of 2 to 5. 前記設定手段は、前記所定の被写界深度を所定の時間周期で変更するように構成され、前記時間周期が、ユーザの指示に応じて決定されることを特徴とする請求項2乃至6のいずれか1項に記載の画像処理装置。   The said setting means is comprised so that the said predetermined depth of field may be changed by a predetermined time period, The said time period is determined according to a user's instruction | indication. The image processing apparatus according to any one of the above. 前記設定手段は、前記予め定めた被写体距離に合焦した再構成画像から検出された所定の被写体のうち、前記選択された所定の被写体が他の所定の被写体よりも至近側または無限側に存在する場合には、前記選択された所定の被写体の被写体距離を前記他の所定の被写体の被写体距離との差が減少する方向に所定量を変化させ、前記変化させた後の被写体距離を中心として前記所定の被写界深度を設定することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。   The setting means is configured such that, among the predetermined subjects detected from the reconstructed image focused on the predetermined subject distance, the selected predetermined subject is closer to the infinite side or the infinite side than the other predetermined subjects. When changing the subject distance of the selected predetermined subject, a predetermined amount is changed in a direction in which the difference from the subject distance of the other predetermined subject is reduced, and the subject distance after the change is set as a center. The image processing apparatus according to claim 1, wherein the predetermined depth of field is set. 前記設定手段は、前記選択された所定の被写体の被写体距離をユーザの指示に応じて至近側または無限側に変更したのち、前記被写界深度を設定する請求項1乃至7のいずれか1項に記載の画像処理装置。   The said setting means sets the said depth of field after changing the object distance of the said predetermined | prescribed subject to the near side or the infinite side according to a user's instruction | indication. An image processing apparatus according to 1. 前記ユーザの指示は、前記再構成画像が表示される領域に対する、タッチ操作の位置の移動を伴う操作により行われることを特徴とする請求項9に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the user instruction is performed by an operation accompanied by a movement of a position of a touch operation on an area where the reconstructed image is displayed. 前記生成手段は、前記ユーザにより選択された所定の被写体の被写体距離における再構成画像と、該被写体距離からそれぞれ至近側および無限側に設定した被写体距離における再構成画像とを合成することにより、前記設定手段が設定した被写界深度を有する再構成画像を生成することを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。   The generating means combines the reconstructed image at the subject distance of the predetermined subject selected by the user with the reconstructed image at the subject distance set to the near side and the infinite side from the subject distance, respectively. The image processing apparatus according to claim 1, wherein a reconstructed image having a depth of field set by the setting unit is generated. 前記複数の視点の画像を出力する撮像手段と、
請求項1乃至11のいずれか1項に記載の画像処理装置と、を有する
ことを特徴とする撮像装置。
Imaging means for outputting images of the plurality of viewpoints;
An image processing apparatus comprising: the image processing apparatus according to claim 1.
前記撮像手段は、瞳分割された撮影光学系を通過した光束を光電変換することにより前記複数の画像を出力することを特徴とする請求項12に記載の撮像装置。   The imaging apparatus according to claim 12, wherein the imaging unit outputs the plurality of images by photoelectrically converting a light beam that has passed through a pupil-divided imaging optical system. 同時に撮影された複数の視点の画像から任意の被写体距離に合焦した再構成画像を生成可能な画像処理装置の制御方法であって、
検出手段が、予め定めた被写体距離に合焦した再構成画像から所定の被写体を検出する検出工程と、
入力手段が、前記検出された所定の被写体の、ユーザによる選択を受け付ける入力工程と、
設定手段が、前記ユーザにより選択された所定の被写体の被写体距離から所定の被写界深度を設定する設定工程と、
生成手段が、前記設定工程において設定した前記所定の被写界深度を有する再構成画像を生成する生成工程と、を有することを特徴とする画像処理装置の制御方法。
A control method of an image processing apparatus capable of generating a reconstructed image focused on an arbitrary subject distance from images of a plurality of viewpoints photographed at the same time,
A detecting step for detecting a predetermined subject from the reconstructed image focused on a predetermined subject distance;
An input step in which an input means receives a selection by the user of the detected predetermined subject;
A setting step in which the setting means sets a predetermined depth of field from the subject distance of the predetermined subject selected by the user;
And a generation step of generating a reconstructed image having the predetermined depth of field set in the setting step.
コンピュータを、請求項1乃至11のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 11.
JP2014016195A 2014-01-30 2014-01-30 Image processing apparatus, control method thereof, and program Active JP6336284B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014016195A JP6336284B2 (en) 2014-01-30 2014-01-30 Image processing apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014016195A JP6336284B2 (en) 2014-01-30 2014-01-30 Image processing apparatus, control method thereof, and program

Publications (2)

Publication Number Publication Date
JP2015142366A true JP2015142366A (en) 2015-08-03
JP6336284B2 JP6336284B2 (en) 2018-06-06

Family

ID=53772416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014016195A Active JP6336284B2 (en) 2014-01-30 2014-01-30 Image processing apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP6336284B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017041242A (en) * 2015-08-17 2017-02-23 ノキア テクノロジーズ オサケユイチア Method, apparatus, and computer program product for personalized depth-of-field omnidirectional video

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013145982A (en) * 2012-01-13 2013-07-25 Canon Inc Imaging apparatus, image processing apparatus and method
JP2013165475A (en) * 2011-08-19 2013-08-22 Canon Inc Imaging apparatus for generating auxiliary information on photographed image, image processor and image processing method
JP2014014071A (en) * 2012-06-08 2014-01-23 Canon Inc Image processing apparatus and image processing method
JP2014225797A (en) * 2013-05-16 2014-12-04 ソニー株式会社 Information processor, electronic apparatus, server, information processing program and information processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013165475A (en) * 2011-08-19 2013-08-22 Canon Inc Imaging apparatus for generating auxiliary information on photographed image, image processor and image processing method
JP2013145982A (en) * 2012-01-13 2013-07-25 Canon Inc Imaging apparatus, image processing apparatus and method
JP2014014071A (en) * 2012-06-08 2014-01-23 Canon Inc Image processing apparatus and image processing method
JP2014225797A (en) * 2013-05-16 2014-12-04 ソニー株式会社 Information processor, electronic apparatus, server, information processing program and information processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017041242A (en) * 2015-08-17 2017-02-23 ノキア テクノロジーズ オサケユイチア Method, apparatus, and computer program product for personalized depth-of-field omnidirectional video
US10291845B2 (en) 2015-08-17 2019-05-14 Nokia Technologies Oy Method, apparatus, and computer program product for personalized depth of field omnidirectional video

Also Published As

Publication number Publication date
JP6336284B2 (en) 2018-06-06

Similar Documents

Publication Publication Date Title
JP5898501B2 (en) Image processing apparatus, imaging apparatus, control method, program, and recording medium
JP6159097B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP2013145314A5 (en)
US9208569B2 (en) Image processing apparatus and control method thereof capable of performing refocus calculation processing for light field data
JP5788518B2 (en) Monocular stereoscopic photographing apparatus, photographing method and program
CN103081455A (en) Portrait image synthesis from multiple images captured on a handheld device
JP5469258B2 (en) Imaging apparatus and imaging method
US9420261B2 (en) Image capturing apparatus, method of controlling the same and program
KR102013708B1 (en) Method for automatically setting focus and therefor
JP2014007580A (en) Imaging apparatus, method of controlling the same and program therefor
JP6418770B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
JP6095266B2 (en) Image processing apparatus and control method thereof
JP2016001853A (en) Image processing system, imaging device, control method, and program
JP6608194B2 (en) Image processing apparatus, control method therefor, and program
JP2015175982A (en) Image processor, image processing method, and program
JP6881909B2 (en) Image pickup device and its control method, and image processing device and method
JP6321991B2 (en) Image processing apparatus, control method, program, and recording medium
JP6336284B2 (en) Image processing apparatus, control method thereof, and program
JP6400152B2 (en) REPRODUCTION DEVICE, IMAGING DEVICE, AND REPRODUCTION DEVICE CONTROL METHOD
JP5360190B2 (en) Image processing apparatus, image processing method, and program
JP6491442B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP6157290B2 (en) REPRODUCTION DEVICE, REPRODUCTION DEVICE CONTROL METHOD, AND PROGRAM
WO2016199381A1 (en) Image processing apparatus and image processing method
JP6757245B2 (en) Video playback device, imaging device, video playback method and program
JP6223502B2 (en) Image processing apparatus, image processing method, program, and storage medium storing the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180502

R151 Written notification of patent or utility model registration

Ref document number: 6336284

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151