JP2015188251A - Image processing system, imaging apparatus, image processing method, and program - Google Patents

Image processing system, imaging apparatus, image processing method, and program Download PDF

Info

Publication number
JP2015188251A
JP2015188251A JP2015115100A JP2015115100A JP2015188251A JP 2015188251 A JP2015188251 A JP 2015188251A JP 2015115100 A JP2015115100 A JP 2015115100A JP 2015115100 A JP2015115100 A JP 2015115100A JP 2015188251 A JP2015188251 A JP 2015188251A
Authority
JP
Japan
Prior art keywords
image
imaging
subject
focus
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015115100A
Other languages
Japanese (ja)
Other versions
JP6234401B2 (en
Inventor
堤 正平
Shohei Tsutsumi
正平 堤
渡辺 和宏
Kazuhiro Watanabe
和宏 渡辺
亘 加来
Wataru Kako
亘 加来
修 坂田
Osamu Sakata
修 坂田
慶太 ▲高▼谷
慶太 ▲高▼谷
Keita Takatani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015115100A priority Critical patent/JP6234401B2/en
Publication of JP2015188251A publication Critical patent/JP2015188251A/en
Application granted granted Critical
Publication of JP6234401B2 publication Critical patent/JP6234401B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to intuitively grasp a focusing state of a subject during imaging or image editing.SOLUTION: The image processing system includes: means for generating a rearrangement image formed by rearranging a subject region of photographed image data in accordance with a distance from an imaging apparatus; and means for generating an image to which information concerning a focusing state when performing image composition processing by using the photographed image data including the rearrangement image is reflected.

Description

本発明は、被写体のピント制御に関する情報を得るための画像処理装置、撮像装置、画像処理方法、プログラムに関するものである。   The present invention relates to an image processing device, an imaging device, an image processing method, and a program for obtaining information related to subject focus control.

ライトフィールドフォトグラフィでは、複数視点の撮像データから、空間中の複数の位置について、それぞれの位置を通過する光線の方向と強度(ライトフィールド)を計算する。そして、得られたライトフィールドの情報を用いて、仮想の光学系を通過して仮想のセンサに結像した場合の画像を計算する。このような仮想の光学系やセンサを適宜設定する事で、前述したリフォーカスも可能となる。ライトフィールドを取得するための撮像装置としてはメインレンズの後ろにマイクロレンズアレイを置いたPlenoptic Camera(例えば、特許文献1)や、小型のカメラを並べたカメラアレイが知られている。いずれも被写体を異なる方向から撮像した複数視点の画像データを一回の撮像で得る事ができる。すなわち、ライトフィールドフォトグラフィとは、複数視点の画像データから仮想の光学条件下での仮想センサの取得する画像を計算することと言い換えることもできる。なお、以下では、この仮想のセンサが取得する画像を計算する処理を「リフォーカス処理」と呼ぶこととする。リフォーカス処理としては、取得した複数視点の画像データを仮想センサ上に射影変換し加算して平均化する方法が知られている(例えば、特許文献2)。   In light field photography, the direction and intensity (light field) of light rays passing through each position are calculated from a plurality of viewpoints of image data. Then, using the obtained light field information, an image when passing through a virtual optical system and forming an image on a virtual sensor is calculated. By appropriately setting such virtual optical systems and sensors, the above-described refocusing can be performed. Known imaging devices for acquiring a light field include a Plenoptic Camera (for example, Patent Document 1) in which a microlens array is placed behind a main lens, and a camera array in which small cameras are arranged. In any case, image data of a plurality of viewpoints obtained by imaging the subject from different directions can be obtained by one imaging. In other words, light field photography can be paraphrased as calculating an image acquired by a virtual sensor under virtual optical conditions from image data of a plurality of viewpoints. Hereinafter, the process of calculating an image acquired by the virtual sensor is referred to as “refocus process”. As the refocusing process, there is known a method in which acquired image data of a plurality of viewpoints are subjected to projective transformation on a virtual sensor, added and averaged (for example, Patent Document 2).

ピント位置を変更しながらリフォーカス処理された画像(以下、リフォーカス画像)を表示する方法としては、例えば、特許文献3に開示された方法がある。特許文献3の方法では、ピント位置を調整するユーザインターフェィス(UI)を、リフォーカス画像が表示される画面上に用意し、該UIを介して、ピント位置を変更している。更に、特許文献3には、リフォーカス画像が表示される画面において、ピント位置を合わせたい被写体を、該画面を通じてユーザが指示し、同被写体にピント位置が調整されたリフォーカス画像を表示する方法が開示されている。   As a method for displaying a refocused image (hereinafter, refocused image) while changing the focus position, for example, there is a method disclosed in Patent Document 3. In the method of Patent Document 3, a user interface (UI) for adjusting a focus position is prepared on a screen on which a refocus image is displayed, and the focus position is changed via the UI. Further, Patent Document 3 discloses a method in which a user indicates a subject to be focused on a screen on which a refocus image is displayed, and the refocus image with the focus position adjusted is displayed on the subject. Is disclosed.

特開2009−124213号公報JP 2009-124213 A WO2008050904WO20080504904 US特許2008/0131019号公報US Patent 2008/0131019

Ren Ng著、「Fourier Slice Photography」、2005 ACM Trans. Graph.24、p735−744Ren Ng, “Fourier Slice Photography”, 2005 ACM Trans. Graph. 24, p735-744

つまり、上述した特許文献等に開示される従来手法では、撮影時、或いは画像の編集時に、どの範囲の被写体がリフォーカス可能であるのかが明示されず、そのためユーザは意図した撮影や画像編集を行うことが困難であるという課題がある。   In other words, in the conventional methods disclosed in the above-mentioned patent documents and the like, it is not specified which range of subjects can be refocused at the time of shooting or image editing, so that the user can perform intended shooting or image editing. There is a problem that it is difficult to do.

本発明に係る画像処理装置は、撮像画像データにおける被写体の領域を、撮像装置からの距離に応じて再配置した再配置画像を生成する手段と、前記再配置画像を含む、前記撮像画像データを用いて画像合成処理を行う際の合焦状態に関する情報を反映した画像を生成する手段とを備えたことを特徴とする。   An image processing apparatus according to the present invention includes: a unit that generates a rearranged image in which a region of a subject in captured image data is rearranged according to a distance from the imaging device; and the captured image data including the rearranged image. And a means for generating an image reflecting information relating to an in-focus state when performing image composition processing.

本発明によれば、ユーザは、撮影時、或いは画像の編集時に、被写体の合焦状態を直観的に把握することができる。   According to the present invention, the user can intuitively grasp the in-focus state of the subject at the time of shooting or image editing.

実施例1に係る多眼方式の撮像装置の内部構成を示すブロック図である。1 is a block diagram illustrating an internal configuration of a multi-eye imaging device according to Embodiment 1. FIG. 結像光学系の像側にレンズアレイを配置した構成の一例である。It is an example of the structure which has arrange | positioned the lens array to the image side of an imaging optical system. 結像光学系の像側にレンズアレイを配置した構成の一例である。It is an example of the structure which has arrange | positioned the lens array to the image side of an imaging optical system. 結像光学系の像側にレンズアレイを配置した構成の一例である。It is an example of the structure which has arrange | positioned the lens array to the image side of an imaging optical system. 複数の結像光学系を配列した構成(カメラアレイ)の一例である。It is an example of the structure (camera array) which arranged the some imaging optical system. レンズアレイと撮像素子の関係を表した図である。It is a figure showing the relationship between a lens array and an image pick-up element. 実施例1におけるリフォーカスの係数α±を表す式の関係を図で表したものである。FIG. 3 is a diagram illustrating a relationship between expressions representing a refocus coefficient α ± in the first embodiment. 実施例1に係る画像処理部の内部構成を示したブロック図である。FIG. 3 is a block diagram illustrating an internal configuration of an image processing unit according to the first embodiment. 実施例1に係る画像処理部における処理の流れを示すフローチャートである。6 is a flowchart illustrating a flow of processing in the image processing unit according to the first embodiment. (a)は単視点画像の一例を示す図であり、(b)は単視点画像について導出された距離情報としての距離マップを示す図である。(A) is a figure which shows an example of a single viewpoint image, (b) is a figure which shows the distance map as distance information derived | led-out about the single viewpoint image. 距離マップから被写体領域を抽出した結果の一例を示す図である。It is a figure which shows an example of the result of having extracted the to-be-photographed area | region from the distance map. 単視点画像に係るシーンを真上から俯瞰した場合における再配置画像の一例を示す図である。It is a figure which shows an example of the rearrangement image when the scene which concerns on a single viewpoint image is seen from right above. 図2で示す撮像部の構成における光学配置を示した図である。It is the figure which showed the optical arrangement | positioning in the structure of the imaging part shown in FIG. 合焦情報表示画像の一例を示す図である。It is a figure which shows an example of a focusing information display image. 合焦情報表示画像のバリエーションを示す図である。It is a figure which shows the variation of a focusing information display image. 合焦情報表示画像に、単視点画像及び/又は合成画像を併せて表示する場合の一例を示す図である。It is a figure which shows an example in the case of displaying a single viewpoint image and / or a synthesized image together on a focusing information display image. 図3で示す撮像部の構成におけるレンズアレイと撮像素子部分を中心に拡大した図である。FIG. 4 is an enlarged view centering on a lens array and an imaging element portion in the configuration of the imaging unit shown in FIG. 3. 実施例2におけるリフォーカスの係数α±を表す式の関係を図で表したものである。FIG. 5 is a diagram illustrating a relationship between expressions representing a refocus coefficient α ± in the second embodiment. カメラアレイの構成を有する撮像部を正面(物体側)から見た図である。It is the figure which looked at the image pick-up part which has the composition of a camera array from the front (object side). 実施例3に係る、結像光学系と撮像素子を側面から見た図(断面図)である。FIG. 10 is a diagram (cross-sectional view) of an imaging optical system and an image sensor according to Example 3 as viewed from the side. 実施例3におけるリフォーカスの係数α±を表す式の関係を図で表したものである。FIG. 6 is a diagram illustrating a relationship between expressions representing a refocus coefficient α ± in the third embodiment.

<実施例1>
本実施例では、被写体領域ごとの距離に応じて、各被写体領域の座標(配置)を変更した画像を用いて、リフォーカス可能な範囲を直感的に把握できるようにする態様を説明する。
<Example 1>
In the present embodiment, an aspect will be described in which a refocusable range can be intuitively grasped using an image in which the coordinates (arrangement) of each subject area is changed according to the distance for each subject area.

図1は、本実施例に係る多眼方式の撮像装置の内部構成を示すブロック図である。撮像部1500は、被写体の光情報を撮像素子で受光し、受光した信号をA/D変換して、画像データ(デジタルデータ)を取得する。この画像データは、ユーザからの撮像指示を受けて撮像データとしてSDカード等の記録媒体に保存される。本実施例に係る撮像部1500で取得される画像データは、被写体空間を複数の視点から捉えた視差のある画像データ(以下、「視差画像データ」と呼ぶ。)である。また、撮像部1500で取得された画像データは、撮像装置の背面に設けられた表示部1506にリアルタイムに順次表示するいわゆるライブビュー機能にも利用される。以下では、ユーザからの撮像指示に応じて記録媒体に保存された画像を記録画像と呼び、ライブビュー表示においてリアルタイムに表示される画像をライブビュー画像と呼ぶこととする。   FIG. 1 is a block diagram illustrating an internal configuration of a multi-view imaging apparatus according to the present embodiment. The imaging unit 1500 receives light information of a subject with an imaging element, A / D converts the received signal, and acquires image data (digital data). This image data is stored in a recording medium such as an SD card as imaging data in response to an imaging instruction from the user. The image data acquired by the imaging unit 1500 according to the present embodiment is image data with parallax obtained by capturing the subject space from a plurality of viewpoints (hereinafter referred to as “parallax image data”). The image data acquired by the imaging unit 1500 is also used for a so-called live view function that sequentially displays in real time on a display unit 1506 provided on the back surface of the imaging device. Hereinafter, an image stored in a recording medium in response to an imaging instruction from a user is referred to as a recorded image, and an image displayed in real time in a live view display is referred to as a live view image.

中央処理装置(CPU)1501は、以下に述べる各部を統括的に制御する。RAM1502は、CPU1501の主メモリ、ワークエリア等として機能する。ROM1503は、CPU1501で実行される制御プログラム等を格納している。バス1504は、各種データの転送経路であり、例えば、撮像部1500によって取得されたデジタルデータはこのバス1504を介して所定の処理部に送られる。ユーザの指示を受け取る操作部1505には、ボタンやモードダイアルなどが含まれる。画像や文字の表示を行う表示部1506には、例えば、液晶ディスプレイが用いられる。表示部1506はタッチスクリーン機能を有していても良く、その場合はタッチスクリーンを用いたユーザ指示を操作部1505の入力として扱うことも可能である。本実施例では、リフォーカス可能な範囲を表示し、リフォーカス時の合焦位置を指定する場合は、このようなタッチスクリーンを介したユーザ入力によって指定される。   A central processing unit (CPU) 1501 comprehensively controls each unit described below. A RAM 1502 functions as a main memory, work area, and the like for the CPU 1501. The ROM 1503 stores a control program executed by the CPU 1501 and the like. The bus 1504 is a transfer path for various data. For example, digital data acquired by the imaging unit 1500 is sent to a predetermined processing unit via the bus 1504. The operation unit 1505 that receives a user instruction includes buttons, a mode dial, and the like. For example, a liquid crystal display is used as the display unit 1506 that displays images and characters. The display unit 1506 may have a touch screen function. In that case, a user instruction using the touch screen can be handled as an input of the operation unit 1505. In this embodiment, when a refocusable range is displayed and a focus position at the time of refocusing is specified, it is specified by a user input via such a touch screen.

表示制御部1507は、表示部1506に表示される画像や文字の表示制御を行う。撮像部制御部1508は、フォーカスを合わせる、シャッターを開く・閉じる、開口絞りを調節するなどの、CPU1501からの指示に基づいた撮像系の制御を行う。デジタル信号処理部1509は、バス1504を介して受け取ったデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行う。エンコーダ部1510は、デジタルデータをJPEGやMPEGなどのファイルフォーマットに変換する処理を行う。外部メモリ制御部111は、PCやその他のメディア(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリ)に繋ぐためのインタフェースである。画像処理部1512は、撮像部1500で取得された画像データ或いは、デジタル信号処理部1509から出力される画像データから、後述するリフォーカス処理などの画像処理を行う。画像処理部1512の詳細については後述する。露出状態予測部1513は、撮像時における撮像部1500の露出状態の予測を行う。なお、撮像装置の構成要素は上記以外にも存在するが、本実施例の主眼ではないので、説明を省略する。   A display control unit 1507 performs display control of images and characters displayed on the display unit 1506. The imaging unit control unit 1508 controls the imaging system based on an instruction from the CPU 1501 such as focusing, opening / closing the shutter, and adjusting the aperture stop. A digital signal processing unit 1509 performs various processes such as white balance processing, gamma processing, and noise reduction processing on the digital data received via the bus 1504. The encoder unit 1510 performs processing for converting digital data into a file format such as JPEG or MPEG. The external memory control unit 111 is an interface for connecting to a PC or other media (for example, hard disk, memory card, CF card, SD card, USB memory). The image processing unit 1512 performs image processing such as refocus processing described later from the image data acquired by the imaging unit 1500 or the image data output from the digital signal processing unit 1509. Details of the image processing unit 1512 will be described later. The exposure state prediction unit 1513 predicts the exposure state of the imaging unit 1500 at the time of imaging. Although there are other components of the image pickup apparatus other than those described above, the description thereof is omitted because it is not the main point of the present embodiment.

まず、撮像部1500の構成に関して詳しく説明する。   First, the configuration of the imaging unit 1500 will be described in detail.

上述のとおり撮像部1500は、視差画像データ、つまりライトフィールドデータを取得する。撮像部1500の構成例を、図2〜図5に示す。このうち図2〜図4は結像光学系の像側にレンズアレイを配置した構成であり、図5は複数の結像光学系を配列した構成(カメラアレイ)である。撮像部の構成としては、図2〜図5に示したような、複数視点の画像を同時に得られる多眼方式の構成が望ましい。単眼方式の撮像装置を用いて位置を変化させながら複数回撮像を行う方法では、異なる時間における被写体空間を撮像した視差画像データとなり、被写体空間に移動物体が存在する場合には、正しい視差情報を得ることができないからである。   As described above, the imaging unit 1500 acquires parallax image data, that is, light field data. Configuration examples of the imaging unit 1500 are shown in FIGS. 2 to 4 show a configuration in which a lens array is arranged on the image side of the imaging optical system, and FIG. 5 shows a configuration (camera array) in which a plurality of imaging optical systems are arranged. The configuration of the imaging unit is preferably a multi-view configuration that can simultaneously obtain images from a plurality of viewpoints as shown in FIGS. In the method of imaging multiple times while changing the position using a monocular imaging device, the parallax image data obtained by imaging the subject space at different times is obtained, and if there is a moving object in the subject space, correct parallax information is obtained. It is because it cannot be obtained.

図2〜図5で示す構成の撮像部1500で取得された視差画像データは、画素の抽出や並び換え、合成等の処理を行うことで、リフォーカスや被写界深度制御、視点の変更等を行うことができる。以下では、これらの処理を画像合成処理と呼び、画像合成処理によって生成された画像を合成画像と呼ぶ。合成画像は、ノイズリダクション等の処理や、被写界深度制御等の処理が施されていてもよい。また、被写体空間でリフォーカスが可能な範囲を「ピント制御範囲」と呼ぶこととする。   The parallax image data acquired by the imaging unit 1500 having the configuration illustrated in FIGS. 2 to 5 is subjected to processing such as pixel extraction, rearrangement, and composition, thereby performing refocusing, depth of field control, viewpoint change, and the like. It can be performed. Hereinafter, these processes are referred to as an image composition process, and an image generated by the image composition process is referred to as a composite image. The composite image may be subjected to processing such as noise reduction and processing such as depth of field control. A range in which refocusing is possible in the subject space is referred to as a “focus control range”.

ここでは、図2に示した撮像部1500の内部構成について詳しく説明する。   Here, the internal configuration of the imaging unit 1500 shown in FIG. 2 will be described in detail.

レンズアレイ1603は、結像光学系1602の被写体面1601に対する像側共役面上に配置されている。さらに、レンズアレイ1603は、結像光学系1602の射出瞳と撮像素子1604が、概ね共役関係となるように構成されている。被写体面1601からの光線は、結像光学系1602及びレンズアレイ1603を介することで、該光線の被写体面1601上における位置と角度に応じて、撮像素子1604の異なる画素へ入射する。これにより視差画像データ(ライトフィールドデータ)が取得される。ここでレンズアレイ1603は、被写体面1601上の異なる位置を通過した光線が、同一の画素へ入射するのを防ぐ役割を持つ。その結果、撮像素子1604では、被写体面1601上の同一の領域を複数の視点から捉えた画素群が並んだ画像が取得されることになる。   The lens array 1603 is disposed on the image side conjugate surface with respect to the subject surface 1601 of the imaging optical system 1602. Further, the lens array 1603 is configured such that the exit pupil of the imaging optical system 1602 and the image sensor 1604 are substantially conjugate. Light rays from the subject surface 1601 are incident on different pixels of the image sensor 1604 according to the position and angle of the light rays on the subject surface 1601 via the imaging optical system 1602 and the lens array 1603. Thereby, parallax image data (light field data) is acquired. Here, the lens array 1603 has a role of preventing light rays that have passed through different positions on the subject surface 1601 from entering the same pixel. As a result, the image sensor 1604 acquires an image in which pixel groups in which the same region on the subject surface 1601 is captured from a plurality of viewpoints are arranged.

なお、図2〜図5における被写体面1601上に、人物や建物などの物体が必ずしも存在している必要はない。これはリフォーカスによって、被写体面1601より奥或いは手前に存在する人物や建物等に、撮像後にピント位置を合わせることができるためである。   Note that an object such as a person or a building is not necessarily present on the subject surface 1601 in FIGS. This is because the focus position can be adjusted after imaging to a person or a building existing behind or in front of the subject surface 1601 by refocusing.

<リフォーカスの原理>
ここからはリフォーカス処理に関して説明する。リフォーカスに関しては、非特許文献1で詳しく説明されているので、ここでは簡単に述べる。リフォーカスの基本的な原理は、図2〜図5のいずれの構成でも共通である。ここでは図2の構成を例に説明する。図2では、結像光学系の瞳が2次元で9つ(1次元で3つ)に分割されているため、9視点の画像が取得されていることとなる。ここで、ある分割された瞳に対応する画像を単視点画像と呼ぶこととする。9つの単視点画像は互いに視差があるため、被写体距離に応じて画像上の被写体の相対的な位置関係が変化する。ある被写体が重なるように単視点画像を合成すると、異なる被写体距離に位置する被写体は、ずれて合成されることとなる。このずれによって異なる被写体距離に位置する被写体はボケる。この時のボケは、合成に使用した単視点画像に対応した瞳で決まり、9枚全ての単視点画像を合成すると結像光学系1602で取得した画像のボケを再現することができる。単視点画像の合成で重ね合わせる被写体は任意なので、これにより結像光学系1602で任意の被写体に合焦した画像を再現することができる。これが撮像後のピント制御、つまりリフォーカスの原理である。
<Refocusing principle>
From here, the refocus processing will be described. Since refocusing is described in detail in Non-Patent Document 1, it will be briefly described here. The basic principle of refocus is the same in any of the configurations shown in FIGS. Here, the configuration of FIG. 2 will be described as an example. In FIG. 2, since the pupil of the imaging optical system is divided into nine two-dimensionally (three one-dimensional), nine viewpoint images are acquired. Here, an image corresponding to a certain divided pupil is referred to as a single viewpoint image. Since the nine single viewpoint images have parallax with each other, the relative positional relationship of the subject on the image changes according to the subject distance. When single-viewpoint images are combined so that a certain subject overlaps, subjects located at different subject distances are shifted and combined. Due to this shift, subjects located at different subject distances are blurred. The blur at this time is determined by the pupil corresponding to the single viewpoint image used for the synthesis. When all nine single viewpoint images are synthesized, the blur of the image acquired by the imaging optical system 1602 can be reproduced. Since the subject to be superimposed by combining the single-viewpoint images is arbitrary, the imaging optical system 1602 can reproduce an image focused on the arbitrary subject. This is the focus control after imaging, that is, the principle of refocusing.

ここで、本実施例における単視点画像の生成方法を説明しておく。図6は、図2のレンズアレイ1603と撮像素子1604の関係を表した図である。破線の円2001は、レンズアレイ1603を構成する1つのレンズ(マイクロレンズ)を通過した光線が入射する画素の領域を表している。図6は複数のマイクロレンズが格子状に配置された場合に対応しているが、マイクロレンズの配置はこれに限定されない。例えば、六回対称性(ハニカム構造)を持った配置にしてもよいし、規則的な配置から各マイクロレンズを微小にずらしてもよい。図6の斜線領域2002は、結像光学系1602の同じ瞳領域を通過した光線が入射する画素を表している。よって、斜線領域1602の画素を抽出することで、結像光学系1602の瞳の下部から被写体空間を見た単視点画像が生成できる。同様に、破線の各円2001に対する相対位置が同じ画素を抽出することで、他の単視点画像も生成できる。   Here, a method of generating a single viewpoint image in the present embodiment will be described. FIG. 6 is a diagram showing the relationship between the lens array 1603 and the image sensor 1604 in FIG. A broken-line circle 2001 represents a pixel region where a light beam that has passed through one lens (microlens) constituting the lens array 1603 enters. Although FIG. 6 corresponds to the case where a plurality of microlenses are arranged in a lattice shape, the arrangement of the microlenses is not limited to this. For example, it may be arranged with sixfold symmetry (honeycomb structure), or each microlens may be slightly shifted from the regular arrangement. A hatched area 2002 in FIG. 6 represents a pixel on which a light beam that has passed through the same pupil area of the imaging optical system 1602 enters. Therefore, by extracting the pixels in the hatched area 1602, a single viewpoint image in which the subject space is viewed from the lower part of the pupil of the imaging optical system 1602 can be generated. Similarly, another single viewpoint image can be generated by extracting pixels having the same relative position with respect to each circle 2001 of the broken line.

<ピント制御範囲>
次に、リフォーカスが可能な範囲であるピント制御範囲に関して説明する。
<Focus control range>
Next, a focus control range that is a refocusable range will be described.

リフォーカスは単視点画像を重ね合わせて行うため、各単視点画像内でボケている被写体にピントを合わせ直すことはできない。これはボケた画像を重ね合わせても、高周波成分は得られず、ボケたままだからである。   Since refocusing is performed by superimposing single-viewpoint images, it is impossible to refocus the subject that is blurred in each single-viewpoint image. This is because high-frequency components are not obtained even if the blurred images are superimposed, and the blurred images remain.

ここで、瞳を小さく分割するほど、各単視点画像における被写界深度が深くなるため、ピント制御範囲は広がる。つまり、ピント制御範囲は結像光学系1602の分割された瞳に依存するわけである。ただし、単視点画像における被写界深度とピント制御範囲は必ずしも一致しない。これは単視点画像とそれらを合成した合成画像の解像度比によって、ピント制御範囲が変化するためである。例えば、合成画像の解像度が各視点の単視点画像の解像度より低い場合、合成画像における空間成分のサンプリングピッチは単視点画像に対して大きくなる。そのため、単視点画像よりも合成画像は被写界深度が深くなり、それに伴ってそのピント制御範囲も広がる。逆に、合成画像の解像度が単視点画像よりも高い場合、ピント制御範囲は単視点画像の被写界深度よりも狭くなる。   Here, the smaller the pupil is divided, the deeper the depth of field in each single-viewpoint image, so the focus control range is expanded. That is, the focus control range depends on the divided pupil of the imaging optical system 1602. However, the depth of field and the focus control range in a single viewpoint image do not necessarily match. This is because the focus control range changes depending on the resolution ratio between the single viewpoint images and the synthesized image obtained by synthesizing them. For example, when the resolution of the composite image is lower than the resolution of the single viewpoint image of each viewpoint, the sampling pitch of the spatial component in the composite image is larger than that of the single viewpoint image. Therefore, the synthesized image has a deeper depth of field than the single-viewpoint image, and the focus control range is expanded accordingly. On the contrary, when the resolution of the composite image is higher than that of the single viewpoint image, the focus control range becomes narrower than the depth of field of the single viewpoint image.

合成画像の解像度を単視点画像より高くする方法として、画素ずらし超解像の使用などが考えられる。前述した通り、リフォーカスは単視点画像を互いにずらして合成する。この時のずれ量が単視点画像の画素ピッチの非整数倍になっていれば、画素ずらし超解像を行うことができ、合成画像の解像度を上げることができる。   As a method for making the resolution of the composite image higher than that of the single-viewpoint image, use of pixel-shifted super-resolution is conceivable. As described above, refocusing is performed by shifting single-viewpoint images from each other. If the shift amount at this time is a non-integer multiple of the pixel pitch of the single-viewpoint image, super-resolution with pixel shift can be performed, and the resolution of the composite image can be increased.

ここまでの議論から、合成画像における正確なピント制御範囲を取得するためには、単視点画像を合成する時の条件を加味する必要があることが分かる。   From the discussion so far, it can be seen that in order to acquire an accurate focus control range in the composite image, it is necessary to consider the conditions for compositing the single viewpoint image.

次に、合成画像のピント制御範囲がどのようにして導出されるのかについて説明する。合成画像の被写界深度に対応する焦点深度を考える。焦点深度の許容錯乱円の大きさをε、光線の角度成分のサンプリングピッチをΔuとする。この時、リフォーカスの係数α±は以下の式(4)のように与えられる。 Next, how the focus control range of the composite image is derived will be described. Consider the depth of focus corresponding to the depth of field of the composite image. Let ε be the size of the permissible circle of confusion of the depth of focus, and Δu be the sampling pitch of the angle component of the light ray. At this time, the refocus coefficient α ± is given by the following equation (4).

式(4)を用いて表される像側のリフォーカス可能な範囲α+2〜α-2と共役な範囲(結像光学系1602に対して共役な範囲)が、物体側のリフォーカス可能な範囲であるピント制御範囲となる。この式(4)の関係を図で表したものが図7であり、リフォーカス可能な範囲の中心位置は結像光学系1602のピント位置となる。(この場合、レンズアレイ1603の位置がリフォーカス可能な範囲の中心位置となる)。ここで、s2は、結像光学系1602の像側主平面と被写体面1601に対する結像光学系1602の像側共役面との間隔である。図7において、像側ピント制御範囲とは、結像光学系1602を介してピント制御範囲と共役な範囲を指す。また、Δyは光の2次元強度分布のサンプリングピッチであり、図2の構成ではレンズアレイ1603のピッチΔLAに等しい。なお、式(4)の関係は、図2〜図5のいずれの構成でも成り立つものである。 The image side refocusable range α + s 2 to α - s 2 expressed by the equation (4) is a range conjugate to the image side optical system 1602 (range conjugate to the imaging optical system 1602). This is the focus control range that is the focusable range. FIG. 7 is a diagram showing the relationship of the expression (4), and the center position of the refocusable range is the focus position of the imaging optical system 1602. (In this case, the position of the lens array 1603 is the center position of the refocusable range). Here, s 2 is the distance between the image-side main plane of the imaging optical system 1602 and the image-side conjugate surface of the imaging optical system 1602 with respect to the subject surface 1601. In FIG. 7, the image side focus control range refers to a range conjugate with the focus control range via the imaging optical system 1602. Further, [Delta] y is the sampling pitch of the two-dimensional intensity distribution of the light, equal to the pitch delta LA of the lens array 1603 in the configuration of FIG. In addition, the relationship of Formula (4) is materialized also in any structure of FIGS.

そして、式(4)は、撮像素子1604の画素ピッチΔが、結像光学系1602の射出瞳距離Pに対して十分小さいことから、次の式(5)のように近似できる。   Expression (4) can be approximated as the following expression (5) because the pixel pitch Δ of the image sensor 1604 is sufficiently small with respect to the exit pupil distance P of the imaging optical system 1602.

ここで、結像光学系1602の射出瞳距離Pとは、結像光学系1602の射出瞳面と被写体面1601に対する結像光学系1602の像側共役面との間隔である。また、Nは結像光学系1602の瞳の1次元分割数、Fは結像光学系1602のF値である。なお、F値は、結像光学系1602の焦点距離fとレンズ有効径Dから、以下の式(6)によって導出することができる。   Here, the exit pupil distance P of the imaging optical system 1602 is the distance between the exit pupil plane of the imaging optical system 1602 and the image side conjugate plane of the imaging optical system 1602 with respect to the object plane 1601. N is the number of one-dimensional divisions of the pupil of the imaging optical system 1602, and F is the F value of the imaging optical system 1602. The F value can be derived from the focal length f of the imaging optical system 1602 and the effective lens diameter D by the following equation (6).

すなわち、リフォーカス可能な範囲(ピント制御範囲)は、結像光学系の瞳の1次分割数と結像光学系の焦点距離とレンズ有効径で規定される画角範囲に応じて決定される。更には、後述する合成画像データの解像度に応じて、リフォーカス可能な範囲が決定される。 That is, the refocusable range (focus control range) is determined according to the angle of view defined by the number of primary divisions of the pupil of the imaging optical system, the focal length of the imaging optical system, and the effective lens diameter. . Furthermore, a refocusable range is determined in accordance with the resolution of composite image data to be described later.

<画像処理部>
次に、画像処理部の構成について詳しく説明する。
<Image processing unit>
Next, the configuration of the image processing unit will be described in detail.

図8は、本実施例に係る画像処理部1512の内部構成を示したブロック図である。   FIG. 8 is a block diagram illustrating an internal configuration of the image processing unit 1512 according to the present embodiment.

視差画像データ取得部2201は、撮像部1500等から供給される視差画像データを取得する。   The parallax image data acquisition unit 2201 acquires parallax image data supplied from the imaging unit 1500 or the like.

光学パラメータ取得部2202は、距離導出部2203とピント制御範囲導出部2207で必要となる撮像部1500の光学パラメータを取得する。ここで、光学パラメータとは、撮像部1500の構成や、絞りなどの露出状態、フォーカス位置、ズームレンズにおける焦点距離などである。   The optical parameter acquisition unit 2202 acquires the optical parameters of the imaging unit 1500 required by the distance deriving unit 2203 and the focus control range deriving unit 2207. Here, the optical parameters are the configuration of the imaging unit 1500, the exposure state of the diaphragm, the focus position, the focal length of the zoom lens, and the like.

距離導出部2203は、シーン中の被写体までの距離情報を導出する。被写体までの距離は、視差画像データ取得部2201から供給される視差画像データ及び光学パラメータ取得部2202から供給される光学パラメータを用いて導出される。距離導出の詳細については後述する。   The distance deriving unit 2203 derives distance information to the subject in the scene. The distance to the subject is derived using the parallax image data supplied from the parallax image data acquisition unit 2201 and the optical parameters supplied from the optical parameter acquisition unit 2202. Details of the distance derivation will be described later.

被写体領域抽出部2204は、シーン中にある被写体と距離導出部2203から供給される距離情報とに基づき、再配置画像生成部2205での処理の対象となる被写体領域を抽出する処理を行う。この被写体領域抽出処理は、一定の距離ごとに被写体の領域を分離する処理と言い換えることもできる。   The subject area extraction unit 2204 performs processing for extracting a subject area to be processed by the rearranged image generation unit 2205 based on the subject in the scene and the distance information supplied from the distance deriving unit 2203. This subject area extraction process can be rephrased as a process of separating the subject area at regular intervals.

再配置画像生成部2205は、距離導出部2203から供給される距離情報に応じて、被写体領域抽出部2204で抽出された各被写体領域の位置(座標)を変更する処理を行う。この処理によって、各被写体領域を撮像装置からの距離に応じて再配置した、被写体領域ごとの距離感を把握し易くした画像(以下、「再配置画像」と呼ぶ。)を生成する。   The rearranged image generation unit 2205 performs processing to change the position (coordinates) of each subject area extracted by the subject area extraction unit 2204 according to the distance information supplied from the distance deriving unit 2203. By this processing, an image (hereinafter referred to as “rearranged image”) in which each subject area is rearranged in accordance with the distance from the imaging device so as to easily grasp the sense of distance for each subject area is generated.

画像合成パラメータ取得部2206は、画像合成に必要となるパラメータ(合成後の解像度、視点、ピント位置、被写界深度など)を取得する。   An image synthesis parameter acquisition unit 2206 acquires parameters necessary for image synthesis (resolution after synthesis, viewpoint, focus position, depth of field, etc.).

ピント制御範囲導出部2207は、光学パラメータ取得部2202から供給される光学パラメータと、画像合成パラメータ取得部2206から供給される画像合成パラメータとを用いて、ピント制御範囲を導出する。   The focus control range derivation unit 2207 derives the focus control range using the optical parameters supplied from the optical parameter acquisition unit 2202 and the image synthesis parameters supplied from the image synthesis parameter acquisition unit 2206.

ピント位置取得部2208は、操作部1505を介したユーザ入力に基づいて、画像合成の際におけるピント位置を取得する。本実施例の場合、再配置画像生成部2205が生成する再配置画像に基づいて、操作部1505としてのタッチスクリーンを介して、ユーザが指定した距離がピント位置(合焦位置)として指定されることになる。指定されたピント位置に関する情報は、表示画像生成部2209に送られる。   A focus position acquisition unit 2208 acquires a focus position at the time of image composition based on a user input via the operation unit 1505. In this embodiment, based on the rearranged image generated by the rearranged image generation unit 2205, the distance specified by the user is specified as the focus position (focus position) via the touch screen as the operation unit 1505. It will be. Information regarding the designated focus position is sent to the display image generation unit 2209.

表示画像生成部2209は、再配置画像生成部2205で生成した再配置画像に対して合焦状態に関する情報(ピント位置、ピント制御範囲、被写界深度など)を反映した画像(以下、「合焦情報表示画像」と呼ぶ。)を生成する。生成の際、上述した各部から供給される光学パラメータ、画像合成パラメータ、ピント制御範囲、ピント位置を用いる。この合焦情報表示画像の生成は、撮像前のライブビュー画像を対象に行ってもよいし、撮像後の記録画像を対象に行ってもよい。また、合焦情報表示画像は、視差画像に含まれる任意の単視点画像をベースにしたものでもよいし、複数の単視点画像を合成して得られた合成画像をベースにしたものであってもよい。生成された合焦情報表示画像のデータは、表示部1506に出力される。さらに、本実施例に係る表示画像生成部2209は、視差画像データを用いて、画像合成パラメータに従った画像合成処理も行うものとするが、画像合成処理を行う処理部を表示画像生成部2209とは別個に設けてもよい。   The display image generation unit 2209 reflects an image (hereinafter referred to as “focus”, including information related to the focus state (focus position, focus control range, depth of field, etc.) on the rearranged image generated by the rearranged image generation unit 2205. Called a “focus information display image”). At the time of generation, the optical parameter, the image synthesis parameter, the focus control range, and the focus position supplied from each unit described above are used. The generation of the focus information display image may be performed on a live view image before imaging, or may be performed on a recorded image after imaging. Further, the focus information display image may be based on any single viewpoint image included in the parallax image, or may be based on a composite image obtained by combining a plurality of single viewpoint images. Also good. The generated focus information display image data is output to the display unit 1506. Furthermore, the display image generation unit 2209 according to the present embodiment also performs image synthesis processing according to the image synthesis parameter using the parallax image data, but the display image generation unit 2209 performs the image synthesis processing. You may provide separately.

図9は、本実施例に係る画像処理部1512における処理の流れを示すフローチャートである。なお、この一連の処理は、以下に示す手順を記述したコンピュータ実行可能なプログラムをROM1503からRAM1502上に読み込んだ後、CPU1501によって該プログラムを実行することによって実施される。   FIG. 9 is a flowchart illustrating the flow of processing in the image processing unit 1512 according to the present embodiment. This series of processing is performed by reading a computer-executable program describing the following procedure from the ROM 1503 onto the RAM 1502 and then executing the program by the CPU 1501.

ステップ2301において、視差画像データ取得部2201は、撮像部1500で取得された視差画像データを取得する。ここで取得される視差画像データは、上述のとおり、ライブビュー画像としての視差画像データであってもよいし、記録画像としての視差画像データであってもよい。   In step 2301, the parallax image data acquisition unit 2201 acquires parallax image data acquired by the imaging unit 1500. As described above, the parallax image data acquired here may be parallax image data as a live view image or parallax image data as a recorded image.

ステップ2302において、光学パラメータ取得部2202及び画像合成パラメータ取得部2206は、それぞれ光学パラメータ及び画像合成パラメータを取得する。   In step 2302, the optical parameter acquisition unit 2202 and the image synthesis parameter acquisition unit 2206 acquire the optical parameter and the image synthesis parameter, respectively.

ステップ2303において、距離導出部2203は、シーン全体における距離情報を導出する。具体的には、視差画像に含まれる単視点画像相互の間でステレオマッチングを行う等の方法により、シーンの距離を導出する。例えば、ステレオマッチング法では、まず基準となる単視点画像(例えば、瞳の中央付近を通過する光線に対応する単視点画像)を複数のブロックに分割し、その他の単視点画像の中から、対象となるブロックに一番近いブロック位置を検出する。そして、2つのブロックの位置関係、対応する瞳の位置関係、各瞳の画角を用いて、三角測量によって、対象ブロックの距離が導出される。なお、基準となる単視点画像は、視点位置が中心以外の単視点画像を選択してもよい。また、距離情報を取得する方法としては、上述のステレオマッチング法の他、DFD(Depth From Defocus)などの手法や、赤外線などを利用した測距部を用いて計測する方法もある。   In step 2303, the distance deriving unit 2203 derives distance information in the entire scene. Specifically, the distance of the scene is derived by a method such as performing stereo matching between single viewpoint images included in the parallax image. For example, in the stereo matching method, a reference single-viewpoint image (for example, a single-viewpoint image corresponding to a light beam passing near the center of the pupil) is divided into a plurality of blocks, and the target image is selected from other single-viewpoint images. The block position closest to the next block is detected. Then, using the positional relationship between the two blocks, the positional relationship between the corresponding pupils, and the angle of view of each pupil, the distance of the target block is derived by triangulation. Note that a single viewpoint image whose viewpoint position is other than the center may be selected as the reference single viewpoint image. In addition to the stereo matching method described above, methods for obtaining distance information include a method such as DFD (Depth From Defocus), and a method using a distance measuring unit using infrared rays or the like.

図10の(a)は単視点画像の一例を示す図であり、同(b)は(a)の単視点画像について導出された距離情報としての距離マップを示している。図10の(a)に示される単視点画像で得られるシーンには、3種類の被写体(人物、建物、山)が撮像装置を基準としてそれぞれ異なる距離に存在している。図10の(b)に示す距離マップは、撮像装置からの距離に応じて濃淡で表示されており、撮像装置の近傍にある被写体「人物」を最も暗い色で、撮像装置から遠方にある被写体「山」を最も明るい色で、人物と山との間にある被写体「建物」を中間の明るさの色で表示している。このように、本ステップでは、シーン中にある被写体の距離情報が導出される。   FIG. 10A shows an example of a single-viewpoint image, and FIG. 10B shows a distance map as distance information derived for the single-viewpoint image of FIG. In the scene obtained from the single viewpoint image shown in FIG. 10A, three types of subjects (persons, buildings, and mountains) exist at different distances based on the imaging device. The distance map shown in FIG. 10B is displayed in shades according to the distance from the imaging device, and the subject “person” in the vicinity of the imaging device is the darkest color and the subject far from the imaging device. The “mountain” is displayed in the brightest color, and the subject “building” between the person and the mountain is displayed in an intermediate brightness color. As described above, in this step, distance information of the subject in the scene is derived.

図9のフローチャートの説明に戻る。   Returning to the flowchart of FIG.

ステップ2304において、被写体領域抽出部2204は、ステップ2303において導出されたシーン全体についての距離マップに基づき、被写体領域を抽出する処理を行う。この被写体領域抽出処理は、一定の距離ごとに被写体の領域を分離する処理と言い換えることもできる。略同一の距離を持つ画像領域をグループ化し、グループ化された画像領域を被写体領域として抽出する。被写体領域抽出方法としては、被写体の距離情報を用いる以外に、例えば、以下のような方法が挙げられる。
1)視差画像データに対して顔認識等の技術を適用し、人物、動物、植物などが存在する領域を識別して、識別された人物等を被写体領域として抽出。
2)人物、動物、植物といった代表的な注目物体の画像データをテンプレートとして予め用意しておき、それらテンプレートとのパターンマッチングによって被写体領域を抽出。
3)ニューラルネットワークのように事前学習を行い、その学習結果を用いて主要な物体を認識して、被写体領域を抽出。
In step 2304, the subject area extraction unit 2204 performs processing for extracting the subject area based on the distance map for the entire scene derived in step 2303. This subject area extraction process can be rephrased as a process of separating the subject area at regular intervals. Image areas having substantially the same distance are grouped, and the grouped image areas are extracted as subject areas. As the subject region extraction method, for example, the following method can be used in addition to the subject distance information.
1) A technique such as face recognition is applied to parallax image data to identify an area where a person, animal, plant, or the like exists, and the identified person or the like is extracted as a subject area.
2) Image data of representative objects of interest such as people, animals, and plants are prepared in advance as templates, and subject areas are extracted by pattern matching with these templates.
3) Pre-learning like a neural network, using the learning results to recognize main objects and extracting subject areas.

本実施例における被写体領域の抽出は、被写体の距離情報を用いる手法以外に、上記1)〜3)に挙げたような公知の様々な手法を適用して実現することが可能である。   Extraction of the subject region in the present embodiment can be realized by applying various known methods such as those described in 1) to 3) other than the method using the distance information of the subject.

図11の(a)及び(b)は、図10の(b)に示した距離マップから被写体領域を抽出した結果の一例を示す図であり、(a)は各被写体の輪郭に沿って被写体領域を抽出した場合、(b)は各被写体に外接する矩形領域を被写体領域として抽出した場合である。図11の(a)及び(b)において、点線で囲まれる各領域が、「人物」、「建物」、「山」のそれぞれに対応する被写体領域である。被写体領域の抽出方法としては、主要な被写体を包含するように領域を設定する限りにおいて、その他の手法でも適用可能である。例えば、円形、楕円形、三角形、多角形など任意の形状で被写体領域を定義してもよい。   FIGS. 11A and 11B are diagrams showing an example of the result of extracting the subject area from the distance map shown in FIG. 10B, and FIG. 11A shows the subject along the contour of each subject. When the region is extracted, (b) is a case where a rectangular region circumscribing each subject is extracted as the subject region. In (a) and (b) of FIG. 11, each region surrounded by a dotted line is a subject region corresponding to each of “person”, “building”, and “mountain”. As the subject region extraction method, other methods can be applied as long as the region is set so as to include the main subject. For example, the subject area may be defined by an arbitrary shape such as a circle, an ellipse, a triangle, or a polygon.

図9のフローチャートの説明に戻る。   Returning to the flowchart of FIG.

ステップ2305において、再配置画像生成部2205は、ステップ2303で導出したシーン全体における距離情報とステップ2304で抽出したシーン中における被写体領域とを用いて、シーンの再配置画像を生成する。   In step 2305, the rearranged image generation unit 2205 generates a rearranged image of the scene using the distance information in the entire scene derived in step 2303 and the subject area in the scene extracted in step 2304.

図12の(a)〜(d)は、図10の(a)に示した単視点画像に係るシーンを真上から俯瞰した場合における再配置画像の例を示す図である。   FIGS. 12A to 12D are diagrams illustrating examples of rearranged images when the scene related to the single viewpoint image illustrated in FIG. 10A is viewed from directly above.

図12の(a)〜(d)のいずれにおいても、撮像装置に近い位置を下側、撮像装置から遠い位置を上側としており、「人物」が撮像装置に最も近い位置に配置され、「山」が撮像装置から最も遠い位置に配置されている。図12の(a)は、ステップ2304で抽出された被写体領域(上述の図11の(a)を参照)に沿って上記単視点画像から切り出した画像領域を、各被写体距離に対応する位置に配置し直した再配置画像である。この再配置画像の場合、単視点画像の一部分が被写体距離に対応付けて配置されるので、最も実際の画像に近い再配置画像となる。図12の(b)は、ステップ2303で導出された距離マップ(図10の(b)を参照)から上記被写体領域に沿って抽出された画像領域を、各被写体距離に対応する位置に配置し直した再配置画像である。この再配置画像の場合、被写体距離を強調した再配置画像となる。図12の(c)及び(d)は、ステップ2304で抽出された被写体領域の枠(上述の図11の(a)及び(b)を参照)を、各被写体距離に対応する位置に配置し直した再配置画像である。これら再配置画像の場合、より簡略化された再配置画像となる。 In any of (a) to (d) of FIG. 12, the position close to the imaging device is the lower side, the position far from the imaging device is the upper side, and “person” is arranged at the closest position to the imaging device. Is disposed at a position farthest from the imaging device. FIG. 12A shows an image region cut out from the single viewpoint image along the subject region extracted in step 2304 (see FIG. 11A above) at a position corresponding to each subject distance. It is the rearranged image rearranged. In the case of this rearranged image, a part of the single viewpoint image is arranged in association with the subject distance, so that the rearranged image closest to the actual image is obtained. (B) in FIG. 12 arranges image areas extracted along the subject area from the distance map derived in step 2303 (see FIG. 10 (b)) at positions corresponding to the subject distances. This is a corrected rearranged image. In the case of this rearranged image, the rearranged image with the subject distance emphasized is obtained. 12C and 12D, the frame of the subject area extracted in step 2304 (see FIGS. 11A and 11B above) is arranged at a position corresponding to each subject distance. This is a corrected rearranged image. In the case of these rearranged images, the rearranged images are simplified.

図9のフローチャートの説明に戻る。   Returning to the flowchart of FIG.

ステップ2306において、ピント制御範囲導出部2207は、ステップ2301で取得した視差画像について画像合成を行う場合におけるピント制御範囲を、ステップ2302で取得した光学パラメータ及び画像合成パラメータを用いて導出する。以下、詳しく説明する。   In step 2306, the focus control range deriving unit 2207 derives the focus control range in the case where image synthesis is performed on the parallax image acquired in step 2301 using the optical parameter and image synthesis parameter acquired in step 2302. This will be described in detail below.

前述したようにピント制御範囲は、各単視点画像と合成画像との解像度比によって変化するが、ここでは説明を簡単にするため、解像度比が1の場合を考える。像側ピント制御範囲が上述の式(5)の範囲内に収まっていれば、ピント制御可能な領域を取得できていることとなる。よって、被写体面1601に対する結像光学系1602の像側共役面と像側ピント制御範囲drefocusとが、以下の式(7)を満たせばよい。 As described above, the focus control range changes depending on the resolution ratio between each single-viewpoint image and the synthesized image. Here, for the sake of simplicity, a case where the resolution ratio is 1 is considered. If the image-side focus control range is within the range of the above equation (5), it is possible to acquire a focus-controllable area. Therefore, the image side conjugate surface of the imaging optical system 1602 with respect to the object surface 1601 and the image side focus control range d refocus only need to satisfy the following expression (7).

図13は、図2で示す撮像部1500の構成における光学配置を示した図であり、σはレンズアレイ1603の像側主平面と撮像素子1604の間隔である。図13において、中央のマイクロレンズの両端から伸びる2本の平行な破線は、当該マイクロレンズに対応する撮像素子1604の領域を表し、撮像素子1604内の斜線の画素は光線の入射しない不感帯を表す。本実施例では不感帯が発生しないようにレンズアレイ1603が構成されており、この場合はΔLA=NΔとなる。ただし、構成はこれに限らず、不感帯が存在していてもよい。図13から、幾何学的にNF=σ/Δだと分かる。ここで、焦点深度を決める許容錯乱円の大きさを、空間成分のサンプリングピッチΔy=ΔLAで特徴付けると、式(7)は以下の式(8)のように書き換えられる。 FIG. 13 is a diagram illustrating an optical arrangement in the configuration of the imaging unit 1500 illustrated in FIG. 2, and σ is the distance between the image-side main plane of the lens array 1603 and the imaging device 1604. In FIG. 13, two parallel broken lines extending from both ends of the central microlens represent an area of the image sensor 1604 corresponding to the microlens, and hatched pixels in the image sensor 1604 represent a dead zone where no light beam is incident. . In this embodiment, the lens array 1603 is configured so as not to generate a dead zone. In this case, Δ LA = NΔ. However, the configuration is not limited to this, and a dead zone may exist. From FIG. 13, it can be understood that NF = σ / Δ geometrically. Here, the magnitude of the permissible circle of confusion which determines the depth of focus and characterized by sampling pitch [Delta] y = delta LA spatial component, equation (7) can be rewritten as the following equation (8).

次に、単視点画像と合成画像との解像度比が1以外の一般的な場合について考える。合成画像と合成に使用する単視点画像の画角は等しいから、解像度比が1以外の場合、両者のΔyが異なることとなる。許容錯乱円は一般にΔyが小さいほど小さく、大きいほど大きくなる。よって、上記式(8)は、単視点画像と合成画像のΔyとの比をとって、以下の式(9)のように拡張できる。   Next, consider a general case where the resolution ratio between the single-viewpoint image and the composite image is other than 1. Since the angle of view of the synthesized image and the single-viewpoint image used for the synthesis are the same, when the resolution ratio is other than 1, Δy of the two is different. In general, the allowable circle of confusion is smaller as Δy is smaller and larger as it is larger. Therefore, the above formula (8) can be expanded as the following formula (9) by taking the ratio of the single-viewpoint image and the composite image Δy.

ここで、Rmonoは合成に使用する単視点画像の解像度、Rcombは合成画像の解像度を表す。RmonoとRcombとの比の平方根をとることで、Δyの比となる。単視点画像の解像度Rmonoは、図13から以下の式(10)で表されることが分かる。 Here, R mono represents the resolution of a single viewpoint image used for synthesis, and R comb represents the resolution of the synthesized image. By taking the square root of the ratio of R mono and R comb , the ratio Δy is obtained. It can be seen from FIG. 13 that the resolution R mono of the single viewpoint image is expressed by the following equation (10).

ここで、Rtotalは、撮像素子1604の有効画素数である。式(9)及び式(10)から、像側ピント制御範囲が満たすべき以下の条件式(11)が求まる。 Here, R total is the number of effective pixels of the image sensor 1604. From the expressions (9) and (10), the following conditional expression (11) that the image-side focus control range should satisfy can be obtained.

上記条件式(11)では±10.0の範囲としているが、これを±6.0の範囲とすることで、より鮮鋭な合成画像を得ることができる。さらに望ましくは、±3.0の範囲とすることで、更に鮮鋭な合成画像を得ることができる。 In the conditional expression (11), the range is ± 10.0. By setting this to a range of ± 6.0, a sharper composite image can be obtained. More desirably, a sharper composite image can be obtained by setting the range to ± 3.0.

以下に、各値の具体例を示す。
・撮像素子1604の有効画素数Rtotal:46.7×106(pix)
・レンズアレイ1603の像側主平面と撮像素子1604の間隔σ:0.0374(mm)
・撮像素子1604の画素ピッチΔ:0.0043(mm)
・レンズアレイ1603のピッチΔLA:0.0129(mm)
・結像光学系1602の焦点距離f:14.0(mm)
・F値:2.9
・1次元瞳分割数N:3
・単視点画像1枚当たりの解像度Rmono:5.2×106(pix)
・条件式(11)の範囲、条件式(11)の各範囲に対応する合成画像の解像度Rcomb、合成画像の各解像度に対応するdrefocusは、例えば以下の表(1)のとおり。
Specific examples of each value are shown below.
The number of effective pixels R total of the image sensor 1604: 46.7 × 10 6 (pix)
The distance σ between the image side main plane of the lens array 1603 and the image sensor 1604: 0.0374 (mm)
-Pixel pitch Δ of the image sensor 1604: 0.0043 (mm)
Lens array 1603 pitch Δ LA : 0.0129 (mm)
The focal length f of the imaging optical system 1602: 14.0 (mm)
-F value: 2.9
・ One-dimensional pupil division number N: 3
・ Resolution per single viewpoint image R mono : 5.2 × 10 6 (pix)
The range of the conditional expression (11), the resolution R comb of the composite image corresponding to each range of the conditional expression (11), and the d refocus corresponding to each resolution of the composite image are, for example, as shown in the following table (1).

操作部1505を介したユーザ入力によって、合成画像の解像度Rcombが例えば上記3種類の中から選択される。 By the user input via the operation unit 1505, the resolution R comb of the composite image is selected from the above three types, for example.

上記の例において、例えば8.0×106pixの合成画像を生成するためには、単視点画像1枚当たりの解像度Rmonoが5.2×106pixであるため、画素ずらし超解像などによる高解像度化が必要となることが分かる。なお、上述の合成画像の各解像度Rcombの値は一例であり、種類も3種類に限られない。上記条件式(11)を満たすようなRcombとdrefocusを適宜決定すればよい。 In the above example, for example, in order to generate a composite image of 8.0 × 10 6 pix, since the resolution R mono per single viewpoint image is 5.2 × 10 6 pix, pixel-shifted super-resolution It can be seen that higher resolution is required. Note that the value of each resolution R comb of the above-described composite image is an example, and the types are not limited to three. R comb and d refocus that satisfy the conditional expression (11) may be determined as appropriate.

ピント制御範囲は、像側ピント制御範囲と結像光学系1602の焦点距離やフォーカス位置などを用いれば、結像公式から算出できる。このようにして取得したピント制御範囲の情報は、視差画像データや合成画像データにタグ情報として添付し、ROM1503に保存してもよい。或いは、予め様々な条件に対応するピント制御範囲のテーブルを作成してROM1503に記憶しておき、ピント制御範囲を導出する上述の演算を行う代わりに、入力された条件に対応するデータを読み込むようにしてもよい。   The focus control range can be calculated from the imaging formula using the image side focus control range and the focal length, focus position, and the like of the imaging optical system 1602. The information on the focus control range acquired in this way may be attached to parallax image data or composite image data as tag information and stored in the ROM 1503. Alternatively, a table of focus control ranges corresponding to various conditions is created in advance and stored in the ROM 1503, and instead of performing the above-described calculation for deriving the focus control range, data corresponding to the input conditions is read. It may be.

なお、ピント制御範囲を取得する他の方法として、リフォーカスした合成画像を実際に生成して、ピント位置に存在する被写体のコントラスト等を評価する方法が考えられる。しかし、この手法では、ピント位置を動かしながら合成画像を生成し、逐次リフォーカスができているかどうかを判断しなければならないため、処理に時間がかかってしまう。また、リフォーカスしたピント位置に被写体が存在していない場合、評価を行うことができないため、正確なピント制御範囲が取得できない。よって、ピント制御範囲の取得には、先に述べた手法を用いることが望ましい。   As another method of acquiring the focus control range, a method of actually generating a refocused composite image and evaluating the contrast of the subject existing at the focus position is conceivable. However, with this method, since it is necessary to generate a composite image while moving the focus position and sequentially determine whether or not refocusing has been performed, processing takes time. In addition, when the subject does not exist at the refocused focus position, the evaluation cannot be performed, and thus an accurate focus control range cannot be acquired. Therefore, it is desirable to use the method described above for acquiring the focus control range.

図9のフローチャートの説明に戻る。   Returning to the flowchart of FIG.

ステップ2307において、表示画像生成部809は、ステップ2305で生成された再配置画像に対して合焦状態に関する情報(ピント位置、ピント制御範囲、被写界深度など)を反映した合焦情報表示画像を生成する。生成の際には、ステップ2302で取得された光学パラメータ及び画像合成パラメータ、及びステップ2306で導出されたピント制御範囲が用いられる。   In step 2307, the display image generation unit 809 reflects the information on the focus state (focus position, focus control range, depth of field, etc.) on the rearranged image generated in step 2305. Is generated. At the time of generation, the optical parameters and image synthesis parameters acquired in step 2302 and the focus control range derived in step 2306 are used.

図14の(a)及び(b)は、図12の(a)に示した再配置画像をベースに生成された合焦情報表示画像の一例であって、ピント位置2801、ピント制御範囲2802、被写界深度2803の各情報が表示されている。スライダバー上に黒四角のマークで示されたピント位置2801は、光学パラメータに含まれる撮像時のレンズのピント位置、或いは後述のユーザ入力によって指定されたピント位置を示している。(a)の合焦情報表示画像では被写体距離d0の位置(人物の位置)に、(b)の合焦情報表示画像では被写体距離d0’の位置(建物の位置)に、それぞれピント位置2801が設定されている。スライダバー上に斜線で示されたピント制御範囲2802は、被写体距離d1(d1’)から被写体距離d2(d2’)までの範囲を示しており、本実施例では「人物」と「建物」がこのピント制御範囲内の距離に位置していることが分かる。以下、単に「ピント制御範囲」という場合にはこの物体側ピント制御範囲を指すものとする。再配置画像上に斜線で示された被写界深度2803は、被写体距離d3(d3’)から被写体距離d4(d4’)までの範囲であって、(a)の合焦情報表示画像では人物にピントが合ったピント位置d0における被写界深度、(b)の合焦情報表示画像では建物にピントが合ったピント位置d0’における被写界深度が示されている。   FIGS. 14A and 14B are examples of the focus information display image generated based on the rearranged image shown in FIG. 12A, and include a focus position 2801, a focus control range 2802, Each information of the depth of field 2803 is displayed. A focus position 2801 indicated by a black square mark on the slider bar indicates a focus position of the lens at the time of imaging included in the optical parameter or a focus position designated by user input described later. In the focus information display image of (a), the focus position 2801 is at the position of the subject distance d0 (position of the person), and in the focus information display image of (b), the focus position 2801 is at the position of the subject distance d0 ′ (position of the building). Is set. A focus control range 2802 indicated by diagonal lines on the slider bar indicates a range from the subject distance d1 (d1 ′) to the subject distance d2 (d2 ′). In this embodiment, “person” and “building” It can be seen that the distance is within the focus control range. Hereinafter, the term “focus control range” simply refers to this object-side focus control range. A depth of field 2803 indicated by diagonal lines on the rearranged image is a range from the subject distance d3 (d3 ′) to the subject distance d4 (d4 ′). In the focus information display image of FIG. The depth of field at the focus position d0 that is in focus, and the focus information display image of (b) shows the depth of field at the focus position d0 ′ that is in focus on the building.

上述したような合焦情報表示画像を表示することで、ユーザはシーン中における被写体と合焦状態に関する情報の両方を、直観的に把握することが可能となる。なお、図14の(a)及び(b)には、説明の便宜上、撮像装置の模式図と撮像装置で撮像可能な視野範囲(画角)2804も表示しているが、本ステップで生成する合焦情報表示画像に、これらの情報を含めることは必ずしも要しない。   By displaying the focus information display image as described above, the user can intuitively grasp both the subject in the scene and the information regarding the focus state. 14A and 14B also show a schematic diagram of the imaging device and a field of view range (view angle) 2804 that can be captured by the imaging device for the sake of convenience of explanation, but are generated in this step. It is not always necessary to include such information in the focus information display image.

図9のフローチャートの説明に戻る。   Returning to the flowchart of FIG.

ステップ2308において、表示画像生成部2209は、ステップ2307で生成した合焦情報表示画像のデータを表示部1506に出力する。   In step 2308, the display image generation unit 2209 outputs the focus information display image data generated in step 2307 to the display unit 1506.

ステップ2309において、CPU1501は、リフォーカス処理時におけるピント位置に関するユーザ入力が、新たになされたかどうかを判定する。この場合のユーザ入力は、タッチスクリーンや撮像装置の操作部1505などを介して行う。例えば、新たにピントを合わせたい被写体を再配置画像上で直接指定したり、新たなピント位置までの被写体距離を直接指定したり、スライドバー上のピント位置2801を表すマークを操作して指定したりする方法が考えられる。新たなピント位置の入力がなされた場合には、ステップ2307に戻り、ステップ2307〜ステップ2309の一連の処理を繰り返す。例えば、「人物」をピント位置とする合焦情報表示画像(図14の(a))が表示されている状態において、「建物」を新たなピント位置とするユーザ入力がなされたとする。この場合、前述の図14の(b)に示した合焦情報表示画像が新たに表示されることになる。前述のとおり、図14の(b)では、新たに設定されたピント位置(被写体距離d0’)に合わせて、被写界深度2803も変化している。つまり、リフォーカス処理時における新たなピント位置が入力された場合は、ピント制御範囲2802に変化はなく、ピント位置2801と該ピント位置における被写界深度2803が主に変化することになる。   In step 2309, the CPU 1501 determines whether or not a user input related to the focus position at the time of the refocus processing has been newly made. In this case, user input is performed via the touch screen, the operation unit 1505 of the imaging apparatus, or the like. For example, the subject to be newly focused can be directly designated on the rearranged image, the subject distance to the new focus position can be directly designated, or the mark representing the focus position 2801 on the slide bar can be designated. Can be considered. If a new focus position has been input, the process returns to step 2307, and a series of processing from step 2307 to step 2309 is repeated. For example, it is assumed that a user input with “building” as a new focus position is made in a state in which an in-focus information display image (FIG. 14A) with “person” as the focus position is displayed. In this case, the focus information display image shown in FIG. 14B is newly displayed. As described above, in FIG. 14B, the depth of field 2803 also changes in accordance with the newly set focus position (subject distance d0 '). That is, when a new focus position at the time of refocus processing is input, there is no change in the focus control range 2802, and the focus position 2801 and the depth of field 2803 at the focus position mainly change.

なお、新たに入力されたピント位置がピント制御範囲外であることも考えられる。この場合、警告を通知するなどして、ピント制御範囲内のピント位置を入力するようユーザに促すようにしてもよい。或いは、ピント制御範囲外のピント位置は受け付けないよう、ユーザ入力可能な範囲を制限するようにしてもよい。   It is also conceivable that the newly input focus position is outside the focus control range. In this case, the user may be prompted to input a focus position within the focus control range by notifying a warning or the like. Or you may make it restrict | limit the range which can be input by a user so that the focus position out of a focus control range may not be received.

一方、新たなピント位置の入力がなければ、本処理を終える。   On the other hand, if there is no input of a new focus position, this process is terminated.

なお、上述の例では、シーンを真上から俯瞰している再配置画像をベースとした合焦情報表示画像について説明した。しかし、合焦情報表示画像は上述の例に限定されるものではなく、様々な態様が考えられる。図15の(a)〜(c)は、合焦情報表示画像のバリエーションの一例を示している。図15の(a)は、シーンを横方向から俯瞰した再配置画像をベースとした合焦情報表示画像である。同(b)は、シーンを斜め上方向から俯瞰した再配置画像をベースとした合焦情報表示画像である。同(c)は、斜め横方向から俯瞰した再配置画像をベースとした合焦情報表示画像である。このように合焦情報表示画像のベースとなる再配置画像は、距離情報に基づいて被写体が奥行き方向に順次並んだものであれば、どのようなものでも構わない。   In the above-described example, the focus information display image based on the rearranged image overlooking the scene from directly above has been described. However, the focus information display image is not limited to the above-described example, and various modes are conceivable. (A)-(c) of FIG. 15 has shown an example of the variation of a focusing information display image. FIG. 15A is an in-focus information display image based on a rearranged image obtained by looking down the scene from the horizontal direction. FIG. 6B is a focus information display image based on a rearranged image obtained by looking down the scene from an obliquely upward direction. (C) is an in-focus information display image based on a rearranged image viewed from diagonally lateral directions. In this way, the rearranged image that is the base of the focus information display image may be any image as long as the subjects are sequentially arranged in the depth direction based on the distance information.

また、ステップ2308において合焦情報表示画像が表示されるが、その際、撮像部1500で取得された単視点画像及び/又は表示画像生成部2209で合成された合成画像を併せて表示するようにしてもよい。図16の(a)〜(c)は、合焦情報表示画像に、単視点画像及び/又は合成画像を併せて表示する場合の一例を示している。   In step 2308, the focus information display image is displayed. At this time, the single-viewpoint image acquired by the imaging unit 1500 and / or the composite image synthesized by the display image generation unit 2209 are displayed together. May be. (A)-(c) of FIG. 16 has shown an example in the case of displaying a single viewpoint image and / or a synthesized image together on a focusing information display image.

図16の(a)は、シーンを横方向から俯瞰した再配置画像をベースとした合焦情報表示画像(前述の図15の(a)を参照)に加え、単視点画像と2種類の合成画像を表示するケースを示している。図中の合成画像1は、「人物」を注目被写体としてピント位置を設定した状態(注目被写体以外の被写体である「建物」と「山」については被写界深度の範囲外でボケている状態)の合成画像である。図中の合成画像2は、「建物」を注目被写体としてピント位置を設定した状態(注目被写体以外の被写体である「人物」と「山」については被写界深度の範囲外でボケている状態)の合成画像である。このようなリフォーカス後の合成画像を併せて表示する場合は、注目被写体のみにピントが合っている合成画像によって、ユーザは特定された注目被写体の確認をより直感的に行うことが可能となる。なお、図16の(a)では、シーンを横方向から俯瞰した再配置画像をベースとしているが、ベースとなる再配置画像はどのようなタイプでもよいことはいうまでもない。また、図16の(a)の例では、2種類の合成画像を表示しているが、表示する合成画像は1種類だけでもよいし或いは3種類以上でも構わない。   FIG. 16A shows a focus information display image (see FIG. 15A described above) based on a rearranged image obtained by looking down at the scene from the horizontal direction, and a single-viewpoint image and two types of synthesized images. A case of displaying an image is shown. The composite image 1 in the figure is in a state in which the focus position is set with “person” as the subject of interest (the “building” and “mountain” subjects other than the subject of interest are out of range of the depth of field) ). The composite image 2 in the figure is in a state in which the focus position is set with “building” as the subject of interest (the subjects other than the subject of interest “person” and “mountain” are out of range of the depth of field) ). When displaying the composite image after such refocusing together, the user can more intuitively confirm the identified target subject by using the composite image in which only the target subject is in focus. . 16A is based on a rearranged image obtained by looking down on the scene from the horizontal direction, it goes without saying that the rearranged image serving as the base may be of any type. In the example of FIG. 16A, two types of composite images are displayed. However, only one type of composite image may be displayed or three or more types may be displayed.

図16の(b)は、シーンを真上から俯瞰した再配置画像をベースとした合焦情報表示画像(前述の図14の(a)及び(b)を参照)に加え、「人物」を注目被写体としてピント位置を設定した場合における合成画像を表示するケースを示している。このように表示することで、限られた表示画面内に、再配置画像と合焦状態に関する情報と合成画像を効率的に表示することが可能となる。なお、図16の(b)における合焦情報表示画像は、図12の(a)で示されるシーンを真上から俯瞰した再配置画像に対して横方向の情報を省略し、奥行き方向の情報のみとしたものがベースとなっている。また、図16の(c)は、シーンを真上から俯瞰した再配置画像をベースとした合焦情報表示画像に加え、単視点画像を表示するケースを示している。このように単視点画像を併せて表示することで、撮像時の画像を確認しながら合焦状態を直観的に把握することが可能である。なお、図16の(c)における合焦情報表示画像は、図12の(d)で示されるシーンを真上から俯瞰した再配置画像であって被写体領域を矩形で囲んだ再配置画像に対して、横方向の情報を省略し、奥行き方向の情報のみとしたものがベースとなっている。   In FIG. 16B, in addition to the focus information display image (see FIGS. 14A and 14B described above) based on the rearranged image obtained by overlooking the scene from directly above, “person” is added. A case is shown in which a composite image is displayed when a focus position is set as a subject of interest. By displaying in this way, it is possible to efficiently display the rearranged image, information on the focused state, and the composite image within a limited display screen. Note that the in-focus information display image in FIG. 16B omits lateral information with respect to the rearranged image obtained by looking down at the scene shown in FIG. It is based only on what has been made. FIG. 16C shows a case in which a single-viewpoint image is displayed in addition to a focus information display image based on a rearranged image obtained by looking down on the scene from directly above. In this way, by displaying the single viewpoint image together, it is possible to intuitively grasp the in-focus state while confirming the image at the time of imaging. Note that the focus information display image in FIG. 16C is a rearranged image obtained by looking down on the scene shown in FIG. 12D from directly above, and the rearranged image surrounding the subject area with a rectangle. Thus, the information in the horizontal direction is omitted and only the information in the depth direction is used as a base.

以上のように、合焦情報表示画像に単視点画像や合成画像を併せて表示するようにしてもよい。   As described above, a single-viewpoint image or a composite image may be displayed together with the focus information display image.

なお、図14〜図16で示した合焦情報表示画像においては、合焦状態に関する情報として、ピント位置、ピント制御範囲、被写界深度の各情報が同時に分かるようになっている。しかしながら、これらの情報のすべてを同時に示す必要はなく、別個に表示しても構わない。例えば、ピント位置と被写界深度のみを初めに表示しておき、ユーザの指示に応じてピント制御範囲の情報を表示するようにしてもよい。   In the focus information display images shown in FIGS. 14 to 16, information on the focus state, the focus control range, and the depth of field can be simultaneously known as information on the focus state. However, it is not necessary to display all these pieces of information at the same time, and they may be displayed separately. For example, only the focus position and the depth of field may be displayed first, and information on the focus control range may be displayed according to a user instruction.

以上説明したように、本実施例によれば、撮像時や撮像した画像の編集時において、被写体を奥行き方向に並べた再配置画像をベースに、画像合成時のピント位置、ピント制御範囲、被写界深度といった合焦状態に関する情報が表示される。これによりユーザは、撮像時及び/又は撮像した画像の編集時に、被写体の合焦状態を直観的に把握することが可能となる。   As described above, according to the present embodiment, at the time of imaging or editing of the captured image, based on the rearranged image in which subjects are arranged in the depth direction, the focus position, focus control range, Information about the in-focus state such as the depth of field is displayed. Thus, the user can intuitively grasp the in-focus state of the subject at the time of imaging and / or editing of the captured image.

[実施例2]
実施例1では、図16に示す構成の撮像部を有する撮像装置を前提として説明を行った。次に、図3及び図4に示す構成の撮像部を有する撮像装置を前提とする様態について、実施例2として説明する。なお、以下では本実施例に特有な点を中心に説明することとする。
[Example 2]
In the first embodiment, the description has been made on the assumption of an imaging apparatus having an imaging unit having the configuration shown in FIG. Next, a mode based on an imaging apparatus having an imaging unit configured as shown in FIGS. 3 and 4 will be described as a second embodiment. In the following, the description will focus on the points peculiar to the present embodiment.

図3及び図4に示された構成では、撮像視点及び撮像範囲が異なる複数の小画像が並んだ視差画像データが、撮像素子1604で取得される。図3の構成では、レンズアレイ1603が、結像光学系と像側共役面の間(像側共役面の左側)に配置されている。これに対し、図4の構成では、レンズアレイ1603が、結像光学系と像側共役面の間ではなく外(像側共役面の右側)に配置されている。そのため、図4の構成の場合は、レンズアレイ1603が結像光学系1602の形成した像を実物体として見て撮像素子1604へ再結像させることになる。しかし、どちらも結像光学系1602の結んだ像をレンズアレイ1603が物体として見て、その像を撮像素子1604へ結像しているため、両者は本質的には同じである。以下では、図3の構成を例に説明するが、その内容は、図4の構成に関しても同様に成立するものである。   In the configuration shown in FIGS. 3 and 4, parallax image data in which a plurality of small images with different imaging viewpoints and imaging ranges are arranged is acquired by the imaging element 1604. In the configuration of FIG. 3, the lens array 1603 is disposed between the imaging optical system and the image side conjugate surface (left side of the image side conjugate surface). On the other hand, in the configuration of FIG. 4, the lens array 1603 is arranged outside (on the right side of the image side conjugate surface) instead of between the imaging optical system and the image side conjugate surface. Therefore, in the configuration of FIG. 4, the lens array 1603 sees the image formed by the imaging optical system 1602 as a real object and re-images it on the image sensor 1604. However, in both cases, the image formed by the imaging optical system 1602 is viewed by the lens array 1603 as an object, and the image is formed on the image sensor 1604. Therefore, both are essentially the same. In the following, the configuration of FIG. 3 will be described as an example, but the contents thereof are similarly established with respect to the configuration of FIG.

まず、本実施例での画像合成(リフォーカス)処理に関して説明する。   First, an image composition (refocus) process in this embodiment will be described.

定性的には実施例1と同様で、結像光学系1602の分割された瞳の画像を、合焦したい被写体距離に対応したずれ量で重ね合わせればよい。   Qualitatively, as in the first embodiment, the divided pupil images of the imaging optical system 1602 may be superimposed with a shift amount corresponding to the subject distance to be focused.

図17は、図3の構成において、レンズアレイ1603と撮像素子1604の部分を中心に拡大した図である。本実施例においてレンズアレイ1603は、物体側の面が平面で、像側の面が凸形状のマイクロレンズによって構成されている。もちろん、レンズアレイ1603の形状はこれに限らない。図17において一点鎖線は、各マイクロレンズの画角を表している。撮像素子1604で得られた画素値を、その画素に対応するマイクロレンズを介して仮想結像面へ投影して合成することで、仮想結像面にピントの合った合成画像を生成することができる。ここで仮想結像面とは、画像合成により合焦したい物体側の面と共役な面(結像光学系1602を介して共役な面)のことを指す。例えば、図3において、被写体面1601にピントの合った画像を生成するためには、像側共役面1701に仮想結像面を設定すればよい。図17においては、合成画像生成の際に投影した画素を、分かりやすくするために各マイクロレンズの画角単位でずらして、破線で表している。合成画像の生成は、上述した方法(撮像素子1604で得られた画素値をその画素に対応するマイクロレンズを介して仮想結像面へ投影して合成する方法)と同様の画素の重なりになるならば、各画素を平行移動させて合成する方法でもよい。この時、画素に入射した光束が通過したレンズアレイ1603の領域が同じである場合、それらの画素の平行移動量は同じになる。つまり、図3及び図4における合成画像生成時の画素の操作は、画素に入射する光束が通過したレンズアレイ1603の領域に応じて決まる。   FIG. 17 is an enlarged view focusing on the lens array 1603 and the image sensor 1604 in the configuration of FIG. In this embodiment, the lens array 1603 is configured by microlenses whose object-side surface is flat and whose image-side surface is convex. Of course, the shape of the lens array 1603 is not limited to this. In FIG. 17, the alternate long and short dash line represents the angle of view of each microlens. By projecting and synthesizing the pixel value obtained by the image sensor 1604 onto the virtual imaging plane via a microlens corresponding to the pixel, a synthesized image focused on the virtual imaging plane can be generated. it can. Here, the virtual imaging plane refers to a plane conjugate with an object side plane to be focused by image synthesis (a plane conjugate via the imaging optical system 1602). For example, in FIG. 3, in order to generate an image focused on the object plane 1601, a virtual imaging plane may be set on the image side conjugate plane 1701. In FIG. 17, the pixels projected at the time of generating the composite image are represented by broken lines by shifting the angle of view of each microlens for easy understanding. The composite image is generated by overlapping pixels similar to the method described above (the method of projecting and synthesizing the pixel value obtained by the image sensor 1604 onto the virtual imaging plane via the microlens corresponding to the pixel). If so, a method may be used in which the respective pixels are translated and combined. At this time, when the regions of the lens array 1603 through which the light beams incident on the pixels have passed are the same, the parallel movement amounts of these pixels are the same. That is, the operation of the pixel at the time of generating the composite image in FIGS. 3 and 4 is determined according to the region of the lens array 1603 through which the light beam incident on the pixel has passed.

次に、本実施例におけるピント制御範囲に関して説明する。   Next, the focus control range in the present embodiment will be described.

本実施例におけるピント制御範囲も、実施例1と同様に式(4)で記述される。すなわち、前述の式(4)を用いて表される像側のリフォーカス範囲α+2〜α-2と共役な範囲(結像光学系1602に対して共役な範囲)が、物体側のリフォーカス範囲であるピント制御範囲となる。図18は、実施例1に係る図7に対応する図である。図18中のΔyは、光の2次元強度分布のサンプリングピッチを表し、Δy=Δσ1/σ2(σ1:像側共役面1701とレンズアレイ1603の物体側主平面との間隔、σ2:レンズアレイ1603の像側主平面と撮像素子1604との間隔)である。これは、結像光学系1602が形成した像を、レンズアレイ1603が虚物体として見ることで、撮像素子1604へσ2/σ1倍で縮小結像するためである。そして、本実施例においても、Δ≪P(P:結像光学系1602の射出瞳距離)から、式(4)は式(5)に近似できる。 The focus control range in the present embodiment is also described by Expression (4) as in the first embodiment. That is, a range conjugated with the refocus range α + s 2 to α - s 2 on the image side expressed by the above-described formula (4) (a range conjugated with the imaging optical system 1602) is the object side. This is the focus control range that is the refocus range. FIG. 18 is a diagram corresponding to FIG. 7 according to the first embodiment. Δy in FIG. 18 represents the sampling pitch of the two-dimensional intensity distribution of light, and Δy = Δσ 1 / σ 21 : the distance between the image side conjugate plane 1701 and the object side main plane of the lens array 1603, σ 2. : Distance between the image side main plane of the lens array 1603 and the image sensor 1604). This is because the image formed by the imaging optical system 1602 is reduced and formed on the image sensor 1604 at σ 2 / σ 1 times when the lens array 1603 sees it as a virtual object. Also in this embodiment, from Δ << P (P: exit pupil distance of the imaging optical system 1602), the equation (4) can be approximated to the equation (5).

本実施例に係る画像処理部1512おける処理の流れは、実施例1に係る図9のフローチャートと同じであるが、撮像部1500の構成の違いから、以下のようにしてピント制御範囲が導出される(ステップ2306)。   The processing flow in the image processing unit 1512 according to the present embodiment is the same as the flowchart of FIG. 9 according to the first embodiment. However, the focus control range is derived as follows from the difference in the configuration of the imaging unit 1500. (Step 2306).

図18から明らかなように、幾何学的にNF=σ1/ΔLAであり、また、Δy=Δσ1/σ2であるから、以下の式(12)が成り立つ。 As is clear from FIG. 18, since NF = σ 1 / Δ LA geometrically and Δy = Δσ 1 / σ 2 , the following equation (12) is established.

この式(12)等から、本実施例における像側ピント制御範囲drefocusが満たすべき条件式(13)が求められる。 From this expression (12) and the like, the conditional expression (13) to be satisfied by the image-side focus control range d refocus in this embodiment is obtained.

実施例1と同様、上記条件式(13)において±10.0となっている範囲を、±6.0或いは±3.0とすることで、より鮮鋭な合成画像を得ることができる。 As in the first embodiment, by setting the range of ± 10.0 in the conditional expression (13) to ± 6.0 or ± 3.0, a sharper composite image can be obtained.

以下に、具体例を示す。
・撮像素子1604の有効画素数Rtotal:150.0×106(pix)
・σ1:0.3712(mm)
・σ2:0.0740(mm)
・撮像素子1604の画素ピッチΔ:0.0024(mm)
・レンズアレイ1603のピッチはΔLA:0.0256(mm)
・結像光学系1602の広角端における焦点距離fW:72.2(mm)
・結像光学系1602の望遠端における焦点距離fT:194.0(mm)
・F値(広角端から望遠端まで):2.9
・1次元瞳分割数N:5
・単視点画像1枚当たりの解像度Rmono:6.0×106pix
・条件式(13)の範囲、条件式(13)の各範囲に対応する合成画像の解像度Rcomb、合成画像の各解像度に対応するdrefocusは、例えば以下の表(2)のようになる。
A specific example is shown below.
The number of effective pixels of the image sensor 1604 R total : 150.0 × 10 6 (pix)
・ Σ 1 : 0.3712 (mm)
・ Σ 2 : 0.0740 (mm)
-Pixel pitch Δ of the image sensor 1604: 0.0024 (mm)
The pitch of the lens array 1603 is Δ LA : 0.0256 (mm)
Focal length f W at the wide angle end of the imaging optical system 1602: 72.2 (mm)
Focal length f T at the telephoto end of the imaging optical system 1602: 194.0 (mm)
F value (from wide angle end to telephoto end): 2.9
・ One-dimensional pupil division number N: 5
-Resolution per single viewpoint image R mono : 6.0 × 10 6 pix
The range of conditional expression (13), the resolution R comb of the composite image corresponding to each range of conditional expression (13), and the d refocus corresponding to each resolution of the composite image are as shown in the following table (2), for example. .

実施例1と同様、操作部1505を介したユーザ入力によって、合成画像の解像度Rcombが例えば上記3種類の中から選択される。 As in the first embodiment, the resolution R comb of the composite image is selected from, for example, the above three types by user input via the operation unit 1505.

上記の例において、例えば10.0×106pixの合成画像を生成するためには、単視点画像1枚当たりの解像度Rmono:6.0×106pixであるため、画素ずらし超解像などによる高解像度化が必要となることが分かる。 In the above example, for example, in order to generate a composite image of 10.0 × 10 6 pix, since the resolution per mono- viewpoint image is R mono : 6.0 × 10 6 pix, pixel-shifted super-resolution It can be seen that higher resolution is required.

[実施例3]
次に、図5に示す構成(カメラアレイ)の撮像部を有する撮像装置を前提とする様態について、実施例3として説明する。なお、以下では本実施例に特有な点を中心に説明することとする。
[Example 3]
Next, an embodiment based on an imaging apparatus having an imaging unit having the configuration (camera array) shown in FIG. In the following, the description will focus on the points peculiar to the present embodiment.

図19は、本実施例に係る図5のカメラアレイの構成を有する撮像部1500を正面(物体側)から見た図であり、7つの各個眼カメラにおける結像光学系1602a〜1602gと撮像素子1604a〜1604gの配置が示されている。この撮像部1500の場合、結像光学系1602bの光軸を回転軸として、六回対称性を有したカメラアレイとなっている。しかし、カメラアレイの構成はこれに限定されるものではなく、結像光学系の個数や配列は任意である。また、各撮像素子1604a〜1604gが各結像光学系1602a〜1602gに対応してそれぞれ配列されているが、各結像光学系1602a〜1602gによって形成される像を取得できるならば撮像素子は1つでもよい。   FIG. 19 is a diagram of an imaging unit 1500 having the configuration of the camera array of FIG. 5 according to the present embodiment as viewed from the front (object side), and imaging optical systems 1602a to 1602g and imaging elements in seven individual cameras. The arrangement of 1604a-1604g is shown. In the case of the imaging unit 1500, the camera array has sixfold symmetry with the optical axis of the imaging optical system 1602b as the rotation axis. However, the configuration of the camera array is not limited to this, and the number and arrangement of the imaging optical systems are arbitrary. In addition, each of the imaging elements 1604a to 1604g is arranged corresponding to each of the imaging optical systems 1602a to 1602g. One may be sufficient.

図19に示す構成の撮像部1500において、各結像光学系1602a〜1602gで屈折された光線は、それぞれに対応した撮像素子1604a乃至1604gで受光される。撮像素子1604a〜1604gで取得された複数の画像は、被写体空間を異なる視点から観察した視差画像となっている。これらの複数の視差画像を用いて画像合成を行うことで、被写体空間のライトフィールドを得ることができる。   In the imaging unit 1500 having the configuration shown in FIG. 19, the light beams refracted by the imaging optical systems 1602a to 1602g are received by the imaging elements 1604a to 1604g corresponding thereto. The plurality of images acquired by the image sensors 1604a to 1604g are parallax images obtained by observing the subject space from different viewpoints. By performing image synthesis using these plural parallax images, a light field in the subject space can be obtained.

図20は、結像光学系1602aと撮像素子1604aを側面から見た図(断面図)である。他の結像光学系1602b乃至1602g及び、撮像素子1604b乃至1604gも同様であるが、各結像光学系の構成はそれぞれ異なっていてもよい。結像光学系1602aは、単焦点レンズであり、結像光学系1602aと撮像素子1604aとの間隔を変化させることで、リフォーカスを行う。   FIG. 20 is a view (cross-sectional view) of the imaging optical system 1602a and the image sensor 1604a as viewed from the side. The same applies to the other imaging optical systems 1602b to 1602g and the image sensors 1604b to 1604g, but the configuration of each imaging optical system may be different. The imaging optical system 1602a is a single focus lens, and performs refocusing by changing the interval between the imaging optical system 1602a and the image sensor 1604a.

本実施例における画像合成処理も、実施例1と同様、ピントを合わせたい被写体距離に対応したずれ量で各視点の画像を重ね合わせればよい。また、ピント制御範囲に関しても、前述の式(4)で記述されるとおりである。図21は、実施例1の図7に対応する図であり、本実施例の場合、Δy=Δ、Δu=Pmono/Fmonoとなる。ここで、Fmonoは、各結像光学系1602a乃至1602gにおけるF値、Pmonoは、各結像光学系に対応する射出瞳距離を表している。そして、本実施例においては、Δ≪Pmonoから、式(4)は以下の式(14)に近似できる。 Similarly to the first embodiment, the image composition processing in the present embodiment may be performed by superimposing the images of the respective viewpoints with a deviation amount corresponding to the subject distance to be focused. Further, the focus control range is as described in the above-described equation (4). FIG. 21 is a diagram corresponding to FIG. 7 of the first embodiment. In the present embodiment, Δy = Δ and Δu = P mono / F mono . Here, F mono represents an F value in each of the imaging optical systems 1602a to 1602g, and P mono represents an exit pupil distance corresponding to each imaging optical system. In the present embodiment, since Δ << P mono , the equation (4) can be approximated to the following equation (14).

本実施例に係る画像処理部1512における処理の流れは、実施例1に係る図9のフローチャートと同じであるが、撮像部1500の構成の違いから、以下のようにしてピント制御範囲が導出される(ステップ2302及びステップ2306)。   The processing flow in the image processing unit 1512 according to the present embodiment is the same as the flowchart of FIG. 9 according to the first embodiment, but the focus control range is derived as follows from the difference in the configuration of the imaging unit 1500. (Step 2302 and Step 2306).

本実施例の場合、撮像部1500を構成する各結像光学系1602a乃至1602gは、絞り値が可変の開口絞りをそれぞれ有している。そのため、ステップ2302では、撮像時の各結像光学系の絞り値が、光学パラメータとして取得される。   In the case of the present embodiment, each of the imaging optical systems 1602a to 1602g constituting the imaging unit 1500 has an aperture stop with a variable aperture value. Therefore, in step 2302, the aperture value of each imaging optical system at the time of imaging is acquired as an optical parameter.

そして、ステップ2306では、実施例1と同様の考え方に基づき、ステップ2302で得られた撮像時の各結像光学系1602a乃至1602gのF値を、Fmonoに代入し、ピント制御範囲を導出する。ここで、FmonoのF値を持つ結像光学系で結像される画像の解像度をRmonoとした時、drefocusが満たすべき条件式(15)が求められる。 In step 2306, based on the same concept as in the first embodiment, the F value of each of the imaging optical systems 1602a to 1602g obtained in step 2302 at the time of imaging is substituted for F mono to derive the focus control range. . Here, when the resolution of an image formed by the imaging optical system having an F value of F mono is R mono , conditional expression (15) that d refocus should satisfy is obtained.

実施例1と同様、上記条件式(15)において±10.0となっている範囲を、±6.0或いは±3.0とすることで、より鮮鋭な合成画像を得ることができる。 Similar to the first embodiment, by setting the range of ± 10.0 in the conditional expression (15) to ± 6.0 or ± 3.0, a sharper composite image can be obtained.

以下に、具体例を示す。
・各撮像素子1604a乃至1604gの有効画素数Rmono:19.3×106(pix)
・画素ピッチΔ:0.0012(mm)
・各結像光学系1602a乃至1602gの焦点距離f:50.0(mm)
・F値(Fmono):1.8
・条件式(15)の範囲、条件式(15)の各範囲に対応する合成画像の解像度Rcomb、合成画像の各解像度に対応するdrefocusは、例えば以下の表(3)のようになる。
A specific example is shown below.
The number of effective pixels R mono of each of the image sensors 1604a to 1604g: 19.3 × 10 6 (pix)
Pixel pitch Δ: 0.0012 (mm)
-Focal length f of each imaging optical system 1602a to 1602g: 50.0 (mm)
F value (F mono ): 1.8
The range of conditional expression (15), the resolution R comb of the composite image corresponding to each range of conditional expression (15), and the d refocus corresponding to each resolution of the composite image are as shown in the following table (3), for example. .

そして、実施例1と同様、操作部1505を介したユーザ入力によって、合成画像の解像度Rcombが例えば上記3種類の中から選択される。 As in the first embodiment, the resolution R comb of the composite image is selected from, for example, the above three types by user input via the operation unit 1505.

なお、撮像時のF値が異なるF値だった場合は、条件式(15)を満たすようにdrefocusが決定される。 When the F value at the time of imaging is a different F value, d refocus is determined so as to satisfy the conditional expression (15).

[実施例4]
実施例1乃至3で説明した画像合成処理は、図2〜図5で示す撮像部を有する撮像装置によって取得された、複数の異なる視点から撮像されて得た視差画像を用いて実現していた。画像合成処理は、視差画像を用いた画像合成処理に限定されない。単視点の撮像データに対し、ピント位置、被写界深度を、後から画像処理により調整するものでもよい。
[Example 4]
The image composition processing described in the first to third embodiments has been realized using parallax images obtained by imaging from a plurality of different viewpoints acquired by an imaging apparatus having the imaging unit illustrated in FIGS. . The image composition process is not limited to the image composition process using the parallax image. For single-viewpoint imaging data, the focus position and depth of field may be adjusted later by image processing.

例えば、ピント位置を画像処理によって変更する方法としては、ピント位置からの相対的な距離に応じて、撮像データにフィルタ処理を施す方法が知られている。この場合、最初に被写界深度の深い撮像データとシーンの距離情報を取得する。距離情報は、撮像装置とは別に距離センサを設けて取得したり、撮像装置の撮像データを解析して取得する。次に、フォーカスを合わせたい被写体(或いは、被写体距離)に対してはフィルタ処理を行わずオリジナルの撮像データを用い、フォーカスを合わせたい被写体以外の領域については該被写体からの相対的な距離を距離情報から求める。そして、フォーカスを合わせたい被写体からの相対距離が近い領域については、ボケ量が小さくなるフィルタ処理を実施(例えば、フィルタサイズを相対的に小さく設定)する。一方、フォーカスを合わせたい被写体からの相対距離が遠い領域については、ボケ量が大きくなるフィルタ処理を実施(例えば、フィルタサイズを相対的に大きく設定)する。このような方法で、ピント位置を変更してもよい。   For example, as a method for changing the focus position by image processing, a method is known in which image data is filtered according to the relative distance from the focus position. In this case, first, image data having a deep depth of field and scene distance information are acquired. The distance information is obtained by providing a distance sensor separately from the imaging device, or obtained by analyzing imaging data of the imaging device. Next, the original image data is not used for the subject to be focused (or subject distance), and the original image data is used, and the relative distance from the subject is determined for the area other than the subject to be focused. Find from information. Then, for an area where the relative distance from the subject to be focused is close, a filter process for reducing the blur amount is performed (for example, the filter size is set to be relatively small). On the other hand, for an area where the relative distance from the subject to be focused is long, filter processing that increases the amount of blur is performed (for example, the filter size is set relatively large). The focus position may be changed by such a method.

このように、単視点画像に対し、ピント位置からの相対的な距離に応じて、撮像データにフィルタ処理を施す方法では、ピント制御範囲は、単視点画像を得た際の被写界深度がピント制御範囲となる。   As described above, in the method of filtering the imaging data according to the relative distance from the focus position with respect to the single viewpoint image, the focus control range has the depth of field when the single viewpoint image is obtained. This is the focus control range.

被写界深度の度合いの調整も、上記と類似の手法で画像処理によって調整可能である。すなわち、撮像データに対するフィルタリング処理において、フィルタサイズをより大きく設定することでボケ量が増大し、被写界深度の狭い画像データを生成することができる。反対に、被写界深度の深い画像データを生成するためには、フィルタサイズを小さくしてやればよい。   The degree of depth of field can also be adjusted by image processing using a method similar to the above. In other words, in the filtering process for the imaging data, by setting a larger filter size, the amount of blur increases, and image data with a narrow depth of field can be generated. Conversely, in order to generate image data with a deep depth of field, the filter size may be reduced.

[実施例5]
実施例1乃至4では、複数視点の画像或いは単視点の画像に対して画像合成処理を実施して、ピント位置等を変化させた画像を生成していた。しかし、ピント位置等を変化させた画像は、画像合成処理を行わずとも得ることができる。
[Example 5]
In the first to fourth embodiments, an image synthesis process is performed on a multi-viewpoint image or a single-viewpoint image to generate an image in which the focus position or the like is changed. However, an image whose focus position has been changed can be obtained without performing image synthesis processing.

例えば、撮像パラメータを少しずつ変更しながら複数枚の画像を取得するブラケット撮像により、複数の撮像データを取得する方法が知られている。具体的には、撮像装置に具備されるフォーカス調整リング、絞り調整リングを段階的に変化させた撮像データを取得する。ブラケット撮像による撮像データには、撮像時のパラメータが撮像画像と一体となって保持されるものとする。つまり、実施例1乃至4では、複数視点の画像を含む1の撮像データから、ピント位置等を変更した合成画像を演算によって生成していたが、本実施例では、ブラケット撮像によって得られた複数の撮像データから、所望の撮像画像を選択し表示する。   For example, there is known a method of acquiring a plurality of imaging data by bracket imaging that acquires a plurality of images while changing imaging parameters little by little. Specifically, imaging data obtained by changing the focus adjustment ring and the aperture adjustment ring provided in the imaging apparatus in stages is acquired. It is assumed that the imaging data by bracket imaging holds the parameters at the time of imaging together with the captured image. That is, in the first to fourth embodiments, a composite image in which the focus position or the like is changed is generated from one imaging data including images of a plurality of viewpoints, but in this embodiment, a plurality of images obtained by bracket imaging are used. A desired captured image is selected from the captured image data and displayed.

ピント位置を段階的に変更したブラケット撮像(フォーカスブラケット撮像)では、撮像装置に具備されるフォーカス調整を行う操作部を使用しながらピント位置を段階的に変化させて、複数回の撮像を行う。前述の図12の(a)では、撮像装置からそれぞれ異なる距離に3種類の被写体(人物、建物、山)が存在し、「人物」は撮像装置から最も近い位置、「建物」は中程度の位置、「山」最も離れた位置にそれぞれ位置している。本実施例では、近傍の被写体から遠方の被写体までが含まれるようにピント位置を連続的に変化させ、各ピント位置での撮像データを取得する。これにより、「人物」、「建物」、「山」の各被写体にピントが合っている撮像画像を得ることができる。なお、実際のフォーカスブラケット撮像では、主要な被写体が存在しない部分(例えば、人物と建物の間)にピントを合わせた撮像も行われる。そして、得られた撮像データにおいては、撮像時のピント位置の情報を距離情報として、撮像画像に関連付けられて記録される。なお、実施例6と同様に、シーンの距離情報は、撮像装置とは別に距離センサを設けて取得したり、撮像装置の撮像データを解析して取得してもよい。   In bracket imaging (focus bracket imaging) in which the focus position is changed in stages, the focus position is changed in stages while using an operation unit that performs focus adjustment provided in the imaging apparatus, and imaging is performed a plurality of times. In FIG. 12A, there are three types of subjects (persons, buildings, and mountains) at different distances from the imaging device, where “person” is the closest position from the imaging device and “building” is medium. Position, “mountain” is located at the most distant position. In the present embodiment, the focus position is continuously changed so that a subject from a nearby subject to a distant subject is included, and imaging data at each focus position is acquired. As a result, it is possible to obtain captured images in which the subjects “person”, “building”, and “mountain” are in focus. Note that in actual focus bracket imaging, imaging is also performed by focusing on a portion where a main subject does not exist (for example, between a person and a building). In the obtained imaging data, information on the focus position at the time of imaging is recorded in association with the captured image as distance information. As in the sixth embodiment, the distance information of the scene may be acquired by providing a distance sensor separately from the imaging device, or may be acquired by analyzing imaging data of the imaging device.

このように、画像合成処理を実施せず、ブラケット撮像により、ピント位置を段階的に変化させた撮像データを表示する。この場合、ブラケット撮像の際に変化させたピント位置のうち、撮像装置に最も近いピント位置から最も遠いピント位置が、ピント制御範囲となる。また、被写界深度は、ブラケット撮像時における撮像装置の絞り調整リングによって定まる被写界深度と略同一として扱うことができる。   In this way, image data in which the focus position is changed stepwise is displayed by bracket imaging without performing image synthesis processing. In this case, the focus position farthest from the focus position closest to the imaging device among the focus positions changed during bracket imaging is the focus control range. Further, the depth of field can be handled as substantially the same as the depth of field determined by the aperture adjustment ring of the imaging device at the time of bracket imaging.

また、前述の図16の(a)及び(b)のように、合焦情報表示画像に加えて、ピント位置を変化させた画像を表示する場合には、ピント位置取得部2208から供給されるピント位置に応じて、所望の撮像画像を選択し表示する。   Also, as shown in FIGS. 16A and 16B described above, when an image with the focus position changed is displayed in addition to the focus information display image, the image is supplied from the focus position acquisition unit 2208. A desired captured image is selected and displayed according to the focus position.

以上説明したように、ブラケット撮像で得られた複数の撮像データを用いて、ピント位置を変化させた画像データを得てもよい。   As described above, image data in which the focus position is changed may be obtained using a plurality of pieces of imaging data obtained by bracket imaging.

[その他の実施形態]
また、本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。
[Other Embodiments]
The object of the present invention can also be achieved by executing the following processing. That is, a storage medium that records a program code of software that realizes the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU, MPU, etc.) of the system or apparatus is stored in the storage medium. This is the process of reading the code. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code and the storage medium storing the program code constitute the present invention.

Claims (13)

撮像画像データにおける被写体の領域を、撮像装置からの距離に応じて再配置した再配置画像を生成する手段と、
前記再配置画像を含む、前記撮像画像データを用いて画像合成処理を行う際の合焦状態に関する情報を反映した画像を生成する手段と
を備えたことを特徴とする画像処理装置。
Means for generating a rearranged image in which the area of the subject in the captured image data is rearranged according to the distance from the imaging device;
An image processing apparatus comprising: means for generating an image reflecting information relating to an in-focus state when performing image composition processing using the captured image data including the rearranged image.
前記合焦状態に関する情報は、ピント位置、被写界深度、ピント制御範囲のうち少なくとも1つを含むことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the information regarding the in-focus state includes at least one of a focus position, a depth of field, and a focus control range. 撮像装置から被写体までの距離を示す距離情報を導出する距離導出手段をさらに備え、 前記再配置画像を生成する手段は、前記距離導出手段で導出された前記距離情報に基づいて、各被写体が奥行き方向に並ぶように再配置することを特徴とする請求項1又は2に記載の画像処理装置。   The apparatus further comprises distance deriving means for deriving distance information indicating a distance from the imaging device to the subject, and the means for generating the rearranged image is configured such that each subject has a depth based on the distance information derived by the distance deriving means. The image processing apparatus according to claim 1, wherein the image processing apparatuses are rearranged so as to be aligned in a direction. 前記撮像画像データは、複数の視点からの撮像によって得られる視差画像データであって、当該複数の視点のそれぞれに対応する複数の単視点画像から構成され、
前記距離導出手段は、前記複数の単視点画像の間でステレオマッチングを行うことにより前記距離情報を導出する
ことを特徴とする請求項3に記載の画像処理装置。
The captured image data is parallax image data obtained by imaging from a plurality of viewpoints, and includes a plurality of single viewpoint images corresponding to the plurality of viewpoints,
The image processing apparatus according to claim 3, wherein the distance deriving unit derives the distance information by performing stereo matching between the plurality of single viewpoint images.
前記撮像画像データは、複数の視点からの撮像によって得られる視差画像データであって、当該複数の視点のそれぞれに対応する複数の単視点画像から構成され、
前記合焦状態に関する情報を反映した画像を生成する手段は、前記複数の単視点画像のうちの1の単視点画像をベースにした画像を生成することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
The captured image data is parallax image data obtained by imaging from a plurality of viewpoints, and includes a plurality of single viewpoint images corresponding to the plurality of viewpoints,
The means for generating an image reflecting information on the in-focus state generates an image based on one single-viewpoint image of the plurality of single-viewpoint images. The image processing apparatus according to claim 1.
前記撮像画像データは、複数の視点からの撮像によって得られる視差画像データであって、当該複数の視点のそれぞれに対応する複数の単視点画像から構成され、
前記合焦状態に関する情報を反映した画像を生成する手段は、前記複数の単視点画像を合成して得られた合成画像をベースにした画像を生成することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
The captured image data is parallax image data obtained by imaging from a plurality of viewpoints, and includes a plurality of single viewpoint images corresponding to the plurality of viewpoints,
The means for generating an image reflecting information on the in-focus state generates an image based on a composite image obtained by combining the plurality of single-viewpoint images. The image processing apparatus according to any one of the above.
前記撮像画像データは、単視点画像であり、
前記画像合成処理は、前記単視点画像に対するフィルタリング処理であることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
The captured image data is a single viewpoint image,
The image processing apparatus according to claim 1, wherein the image synthesis process is a filtering process for the single viewpoint image.
前記距離導出手段で導出された前記距離情報に基づいて、前記撮像画像データにおける被写体の領域を抽出する被写体領域抽出手段をさらに備えたことを特徴とする請求項3又は4に記載の画像処理装置。   5. The image processing apparatus according to claim 3, further comprising: a subject area extracting unit that extracts a subject area in the captured image data based on the distance information derived by the distance deriving unit. . 前記被写体領域抽出手段は、被写体の輪郭に沿った領域又は被写体に包含する任意の形状の領域を、前記被写体の領域として抽出することを特徴とする請求項8に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the subject region extraction unit extracts a region along the contour of the subject or a region having an arbitrary shape included in the subject as the subject region. 請求項1乃至9のいずれか1項に記載の画像処理装置を有する撮像装置であって、前記合焦状態に関する情報を反映した画像を表示する表示手段と、
前記合焦状態に関する情報を反映した画像に基づくユーザ操作に応じて、ピント位置、被写界深度、ピント制御範囲を調整する手段と
を備えたことを特徴とする撮像装置。
An image pickup apparatus having the image processing apparatus according to any one of claims 1 to 9, wherein the display unit displays an image reflecting information on the in-focus state;
An imaging apparatus comprising: means for adjusting a focus position, a depth of field, and a focus control range in accordance with a user operation based on an image reflecting information on the in-focus state.
前記表示手段はライブビュー機能を有し、前記合焦状態に関する情報を反映した画像を、ライブビューにおいて表示することを特徴とする請求項10に記載の撮像装置。   The imaging apparatus according to claim 10, wherein the display unit has a live view function, and displays an image reflecting information on the in-focus state in a live view. 撮像画像データから、被写体領域を撮像装置からの距離に応じて配置し直した再配置画像を生成するステップと、
前記再配置画像に対して、前記撮像画像データを用いて画像合成処理を行う際の合焦状態に関する情報を反映した画像を生成するステップと
を含むことを特徴とする画像処理方法。
Generating a rearranged image in which the subject area is rearranged according to the distance from the imaging device from the captured image data;
An image processing method comprising: generating an image reflecting information relating to an in-focus state when performing image composition processing on the rearranged image using the captured image data.
コンピュータを請求項1乃至9のいずれか1項に記載の画像処理装置として機能させるためのプログラム。   The program for functioning a computer as an image processing apparatus of any one of Claims 1 thru | or 9.
JP2015115100A 2013-03-05 2015-06-05 Image processing apparatus, imaging apparatus, image processing method, and program Active JP6234401B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015115100A JP6234401B2 (en) 2013-03-05 2015-06-05 Image processing apparatus, imaging apparatus, image processing method, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013043264 2013-03-05
JP2013043264 2013-03-05
JP2015115100A JP6234401B2 (en) 2013-03-05 2015-06-05 Image processing apparatus, imaging apparatus, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013134111A Division JP6214236B2 (en) 2013-03-05 2013-06-26 Image processing apparatus, imaging apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2015188251A true JP2015188251A (en) 2015-10-29
JP6234401B2 JP6234401B2 (en) 2017-11-22

Family

ID=54430236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015115100A Active JP6234401B2 (en) 2013-03-05 2015-06-05 Image processing apparatus, imaging apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6234401B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017123611A (en) * 2016-01-08 2017-07-13 キヤノン株式会社 Image reproduction device and image reproduction method
JP2018125701A (en) * 2017-02-01 2018-08-09 オムロン株式会社 Image processing system, optical sensor, and learning device
JP2021022185A (en) * 2019-07-29 2021-02-18 富士通株式会社 Image processing device, image processing program, and image processing method
WO2022181056A1 (en) * 2021-02-26 2022-09-01 富士フイルム株式会社 Imaging device, information processing method, and program
WO2023276446A1 (en) * 2021-06-30 2023-01-05 富士フイルム株式会社 Imaging device, imaging method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093422A (en) * 2008-10-06 2010-04-22 Canon Inc Imaging apparatus
JP2010177741A (en) * 2009-01-27 2010-08-12 Olympus Corp Image capturing apparatus
JP2010268052A (en) * 2009-05-12 2010-11-25 Canon Inc Imaging device
JP2012027408A (en) * 2010-07-27 2012-02-09 Sanyo Electric Co Ltd Electronic equipment
JP2012230258A (en) * 2011-04-26 2012-11-22 Canon Inc Imaging device and control method thereof
JP2013009274A (en) * 2011-06-27 2013-01-10 Canon Inc Image processing device, image processing method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093422A (en) * 2008-10-06 2010-04-22 Canon Inc Imaging apparatus
JP2010177741A (en) * 2009-01-27 2010-08-12 Olympus Corp Image capturing apparatus
JP2010268052A (en) * 2009-05-12 2010-11-25 Canon Inc Imaging device
JP2012027408A (en) * 2010-07-27 2012-02-09 Sanyo Electric Co Ltd Electronic equipment
JP2012230258A (en) * 2011-04-26 2012-11-22 Canon Inc Imaging device and control method thereof
JP2013009274A (en) * 2011-06-27 2013-01-10 Canon Inc Image processing device, image processing method, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017123611A (en) * 2016-01-08 2017-07-13 キヤノン株式会社 Image reproduction device and image reproduction method
JP2018125701A (en) * 2017-02-01 2018-08-09 オムロン株式会社 Image processing system, optical sensor, and learning device
WO2018142634A1 (en) * 2017-02-01 2018-08-09 オムロン株式会社 Image processing system, optical sensor, and learning device
CN110115022A (en) * 2017-02-01 2019-08-09 欧姆龙株式会社 Image processing system, optical sensor and learning device
CN110115022B (en) * 2017-02-01 2020-12-01 欧姆龙株式会社 Image processing system, optical sensor, and learning device
US11087498B2 (en) 2017-02-01 2021-08-10 Omron Corporation Image processing system, optical sensor, and learning apparatus with irregular lens array
JP2021022185A (en) * 2019-07-29 2021-02-18 富士通株式会社 Image processing device, image processing program, and image processing method
JP7326965B2 (en) 2019-07-29 2023-08-16 富士通株式会社 Image processing device, image processing program, and image processing method
WO2022181056A1 (en) * 2021-02-26 2022-09-01 富士フイルム株式会社 Imaging device, information processing method, and program
WO2023276446A1 (en) * 2021-06-30 2023-01-05 富士フイルム株式会社 Imaging device, imaging method, and program
JP7477726B2 (en) 2021-06-30 2024-05-01 富士フイルム株式会社 Imaging device, imaging method, and program

Also Published As

Publication number Publication date
JP6234401B2 (en) 2017-11-22

Similar Documents

Publication Publication Date Title
JP6305053B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US9521320B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
TWI510086B (en) Digital refocusing method
JP5988790B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP6112824B2 (en) Image processing method and apparatus, and program.
JP6029380B2 (en) Image processing apparatus, imaging apparatus including image processing apparatus, image processing method, and program
JP5943785B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGE PROCESSING DEVICE, AND IMAGING DEVICE CONTROL METHOD
JP6548367B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP6234401B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6159097B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP5882789B2 (en) Image processing apparatus, image processing method, and program
JP2015041884A (en) Imaging apparatus, control method for imaging apparatus, program, and storage medium
JP2013026844A (en) Image generation method and device, program, recording medium, and electronic camera
EP3065402B1 (en) Disparity in plenoptic systems
JP6418770B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
JP6245892B2 (en) Image processing apparatus, control method therefor, and program
JP2015002529A (en) Image processing device and image processing method
JP5743769B2 (en) Image processing apparatus and image processing method
JP7373297B2 (en) Image processing device, image processing method and program
JP2014086899A (en) Image processing device, image processing method, and program
JP6491442B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP5721891B2 (en) Imaging device
JP5553863B2 (en) Image processing method, imaging apparatus, image processing apparatus, and image processing program
JP2014049895A (en) Image processing method
JP6566765B2 (en) Imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20151113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171024

R151 Written notification of patent or utility model registration

Ref document number: 6234401

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151