JP2013176073A - Imaging apparatus, image display method and program - Google Patents

Imaging apparatus, image display method and program Download PDF

Info

Publication number
JP2013176073A
JP2013176073A JP2013059384A JP2013059384A JP2013176073A JP 2013176073 A JP2013176073 A JP 2013176073A JP 2013059384 A JP2013059384 A JP 2013059384A JP 2013059384 A JP2013059384 A JP 2013059384A JP 2013176073 A JP2013176073 A JP 2013176073A
Authority
JP
Japan
Prior art keywords
image
sub
images
unit
shift
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013059384A
Other languages
Japanese (ja)
Other versions
JP5370606B2 (en
Inventor
Ryohei Yamamoto
量平 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013059384A priority Critical patent/JP5370606B2/en
Publication of JP2013176073A publication Critical patent/JP2013176073A/en
Application granted granted Critical
Publication of JP5370606B2 publication Critical patent/JP5370606B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To generate a reconstructed image with a small calculation amount from images obtained by photographing a subject from a plurality of view points.SOLUTION: A sub-image extraction section 711 extracts a target sub-image from a light field image. A partial region definition section 712 defines a prescribed region on the target sub-image as a partial region. A pixel extracting section 713 extracts the number of pixels, which is matched with corresponding regions of a generated image from the partial region. A pixel arranging section 714 arranges the extracted pixels in the corresponding regions of the generated image in arrangement corresponding to an optical path of an optical system which photographs the light field image. The pixels of all the sub-images of the light field image are extracted and are arranged in the generated image, and a reconstructed image is generated.

Description

本発明は、画像を再構成する技術に関する。   The present invention relates to a technique for reconstructing an image.

近年、入射光線の方向分布(direction distribution)についての情報を取り込む撮像装置、即ち「プレノプティック(plenoptic)カメラ」と呼ばれる撮像装置が知られている(特許文献1参照)。
プレノプティックカメラの光学系においては、従来の撮像レンズ(以下、「メインレンズ」と呼ぶ)と撮像素子との間に、極小のレンズ(以下、「マイクロレンズ」と呼ぶ)を繰り返し配置した複眼状レンズ(以下、「マイクロレンズアレイ」と呼ぶ)が挿入されている。
2. Description of the Related Art In recent years, an imaging apparatus that captures information about a direction distribution of incident light rays, that is, an imaging apparatus called a “plenoptic camera” is known (see Patent Document 1).
In the optical system of a plenoptic camera, a very small lens (hereinafter referred to as a “micro lens”) is repeatedly arranged between a conventional imaging lens (hereinafter referred to as a “main lens”) and an image sensor. A compound eye lens (hereinafter referred to as “microlens array”) is inserted.

マイクロレンズアレイを構成する個々のマイクロレンズは、メインレンズによって集光された光を、その到達した角度に応じて、撮像素子内の複数の画素群に分配する。
即ち、各マイクロレンズによって撮像素子に集光された像を、以下「サブ画像」と呼ぶならば、複数のサブ画像の集合体からなる画像のデータが、撮像画像のデータとして撮像素子から出力される。
なお、このようなプレノプティックカメラの撮像画像を、以下、「ライトフィールド画像」と呼ぶ。
The individual microlenses constituting the microlens array distribute the light collected by the main lens to a plurality of pixel groups in the image sensor according to the angle reached.
In other words, if the image focused on the image sensor by each microlens is hereinafter referred to as a “sub-image”, image data consisting of a collection of a plurality of sub-images is output from the image sensor as image data. The
Such a captured image of the plenoptic camera is hereinafter referred to as a “light field image”.

ライトフィールド画像は、従来のメインレンズのみならず、マイクロレンズアレイを介して入射された光により生成される。このため、ライトフィールド画像は、従来の撮像画像にも含まれていた、いずれの部位から到達した光線であるかを示す2次元の空間情報を有することは勿論のこと、さらに、従来の撮像画像には含まれていなかった情報として、撮像素子からみて何れの方向から到達した光線なのかを示す2次元の方向情報を有している。   The light field image is generated not only by a conventional main lens but also by light incident through a microlens array. For this reason, the light field image has two-dimensional spatial information indicating the light ray that has reached from which part, which is included in the conventional captured image, as well as the conventional captured image. As information that is not included in, there is two-dimensional direction information indicating from which direction the light beam has arrived as viewed from the image sensor.

プレノプティックカメラは、ライトフィールド画像の撮像後に、ライトフィールド画像のデータを用いて、撮像時に任意の距離だけ前方に離間していた面の像を再構成することができる。
換言すると、プレノプティックカメラは、所定距離で焦点を合わせずにライトフィールド画像を撮像した場合であっても、その撮像後に、当該ライトフィールド画像のデータを用いることで、当該所定距離で合焦して撮像したような画像(以下、「再構成画像」と呼ぶ)のデータを自在に作り出すことができる。
After capturing a light field image, the plenoptic camera can reconstruct an image of a surface that has been separated forward by an arbitrary distance using the data of the light field image.
In other words, even if the plenoptic camera captures a light field image without focusing at a predetermined distance, it uses the data of the light field image after the imaging to match the light field image. Data of an image that is captured in focus (hereinafter referred to as “reconstructed image”) can be freely created.

特表2008−515110号公報Special table 2008-515110 gazette

特許文献1に記載の技術では、ライトフィールド画像から再構成画像を生成するための計算量が大きかった。そのため、また、画像を早く生成して表示することが要求される場合でも表示に時間がかかってしまい、ユーザの利便性が低かった。   In the technique described in Patent Document 1, the amount of calculation for generating a reconstructed image from a light field image is large. Therefore, even when it is required to generate and display an image early, it takes time to display the image, and the convenience for the user is low.

本発明は、このような状況に鑑みてなされたものであり、少ない計算量で再構成画像を生成することを目的とする。   The present invention has been made in view of such a situation, and an object thereof is to generate a reconstructed image with a small amount of calculation.

上記目的を達成するため、本願発明に係る画像処理装置は、
被写体を複数の視点から見た複数の副画像が整列した多視点画像を取得する取得部と、
前記多視点画像に含まれる副画像の所定範囲から、部分画像を抽出する抽出部と、
前記部分画像を、当該部分画像に対応する副画像の並び順に配置して再構成画像を生成する生成部と、
を備えたことを特徴とする。
In order to achieve the above object, an image processing apparatus according to the present invention provides:
An acquisition unit for acquiring a multi-viewpoint image in which a plurality of sub-images obtained by viewing a subject from a plurality of viewpoints are aligned;
An extraction unit that extracts a partial image from a predetermined range of sub-images included in the multi-viewpoint image;
A generation unit configured to generate the reconstructed image by arranging the partial images in the arrangement order of the sub-images corresponding to the partial images;
It is provided with.

本発明によれば、少ない計算量で再構成画像を生成できる。   According to the present invention, a reconstructed image can be generated with a small amount of calculation.

(a)は本発明の実施形態1に係るデジタルカメラの正面図である。(b)は実施形態1に係るデジタルカメラの背面図である。1A is a front view of a digital camera according to Embodiment 1 of the present invention. FIG. FIG. 2B is a rear view of the digital camera according to the first embodiment. 実施形態1に係るデジタルカメラのハードウェア構成を示すブロック図である。2 is a block diagram illustrating a hardware configuration of the digital camera according to Embodiment 1. FIG. 実施形態1に係るデジタルカメラのうち、光学系の構成例を示す模式図である。FIG. 3 is a schematic diagram illustrating a configuration example of an optical system in the digital camera according to the first embodiment. (a)は実施形態1に係るライトフィールド画像の概念図である。(b)は撮影した被写体の例を示す図である。(c)は(b)を撮影したライトフィールド画像を示す図である。(d)は(c)の一部拡大図である。FIG. 4A is a conceptual diagram of a light field image according to the first embodiment. (B) is a diagram showing an example of a photographed subject. (C) is a figure which shows the light field image which image | photographed (b). (D) is a partially enlarged view of (c). 実施形態1に係るデジタルカメラの機能構成を示す模式図である。3 is a schematic diagram illustrating a functional configuration of the digital camera according to Embodiment 1. FIG. 実施形態1に係る画像出力処理を示すフローチャートである。3 is a flowchart illustrating image output processing according to the first embodiment. 実施形態1に係るライブビュー画像生成部の機能構成を示す模式図である。3 is a schematic diagram illustrating a functional configuration of a live view image generation unit according to Embodiment 1. FIG. 実施形態1に係るデジタルカメラが実行する画像生成処理の流れを説明するフローチャートである。6 is a flowchart illustrating a flow of image generation processing executed by the digital camera according to the first embodiment. (a)は実施形態1に係るライトフィールド画像を示す図である。(b)は実施形態1に係る部分領域を示す図である。(c)は実施形態1に係る第1再構成画像を示す図である。(A) is a figure which shows the light field image which concerns on Embodiment 1. FIG. (B) is a figure which shows the partial area | region which concerns on Embodiment 1. FIG. (C) is a figure which shows the 1st reconstruction image which concerns on Embodiment 1. FIG. (a)は実施形態1に係る確認画像生成部の機能構成を示す模式図である。(b)は実施形態1に係る領域定義テーブルの例を示す図である。(A) is a schematic diagram which shows the function structure of the confirmation image generation part which concerns on Embodiment 1. FIG. (B) is a figure which shows the example of the area | region definition table which concerns on Embodiment 1. FIG. 実施形態1に係るデジタルカメラが実行する画像生成処理の流れを説明するフローチャートである。6 is a flowchart illustrating a flow of image generation processing executed by the digital camera according to the first embodiment. (a)は実施形態1に係るライトフィールド画像を示す図である。(b)は実施形態1に係る部分領域を示す図である。(c)は実施形態1に係る第2再構成画像を示す図である。(A) is a figure which shows the light field image which concerns on Embodiment 1. FIG. (B) is a figure which shows the partial area | region which concerns on Embodiment 1. FIG. (C) is a figure which shows the 2nd reconstruction image which concerns on Embodiment 1. FIG. 実施形態1に係る本画像生成部の機能構成を示す模式図である。FIG. 2 is a schematic diagram illustrating a functional configuration of a main image generation unit according to the first embodiment. 実施形態1に係るデジタルカメラが実行する画像生成処理の流れを説明するフローチャートである。6 is a flowchart illustrating a flow of image generation processing executed by the digital camera according to the first embodiment. (a)は実施形態1に係るライトフィールド画像を示す図である。(b)は実施形態1に係る部分領域を示す図である。(c)は実施形態1に係る第3再構成画像を示す図である。(A) is a figure which shows the light field image which concerns on Embodiment 1. FIG. (B) is a figure which shows the partial area | region which concerns on Embodiment 1. FIG. (C) is a figure which shows the 3rd reconstruction image which concerns on Embodiment 1. FIG. 本発明の実施形態2に係る画像出力処理を示すフローチャートである。It is a flowchart which shows the image output process which concerns on Embodiment 2 of this invention. 本発明の実施形態3に係る画像出力処理を示すフローチャートである。It is a flowchart which shows the image output process which concerns on Embodiment 3 of this invention. 実施形態3に係るライブビュー画像生成部の機能構成を示す模式図である。10 is a schematic diagram illustrating a functional configuration of a live view image generation unit according to Embodiment 3. FIG. 実施形態3に係るデジタルカメラが実行する画像生成処理を示すフローチャートである。10 is a flowchart illustrating image generation processing executed by the digital camera according to the third embodiment. 本発明の実施形態4に係るライブビュー画像生成部の機能構成を示す模式__ 図である。It is a schematic__ figure which shows the function structure of the live view image generation part which concerns on Embodiment 4 of this invention. 実施形態4に係る画像出力処理を示すフローチャートである。10 is a flowchart illustrating image output processing according to the fourth embodiment. 実施形態4に係るズレ係数推定処理を示すフローチャートである。10 is a flowchart illustrating a deviation coefficient estimation process according to the fourth embodiment. 実施形態4に係る推定画像と算出画像のグループ分けの例を示す図である。It is a figure which shows the example of grouping of the estimated image and calculation image which concern on Embodiment 4. FIG. 実施形態4に係る推定画像と算出画像のグループ分けの例を示す図である。It is a figure which shows the example of grouping of the estimated image and calculation image which concern on Embodiment 4. FIG. 実施形態4に係る画像ズレ係数の推定処理例の概要を示す図である。FIG. 10 is a diagram illustrating an overview of an example of an image shift coefficient estimation process according to a fourth embodiment.

以下、本発明を実施するための形態に係る撮像装置(デジタルカメラ)を、図を参照しながら説明する。なお、図中同一又は相当する部分には同一符号を付す。   Hereinafter, an imaging device (digital camera) according to an embodiment for carrying out the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.

(実施形態1)
本発明に係る撮像装置の一実施例としてのデジタルカメラ1の外観を、図1を参照して説明する。図1(a)は正面から、図1(b)は背面の外観を示す。デジタルカメラ1は、図1(a)に示すように正面側に撮像レンズ(レンズ群)12を有している。また、デジタルカメラ1の背面には図1(b)に示すように、表示装置としての液晶モニタ画面13と、モードダイアル、カーソルキー、SETキー、ズームボタン(Wボタン、Tボタン)、メニューキー等からなる操作部14と、が設けられている。また、上面にはシャッターキー10、電源ボタン11が設けられている。なお、側部には図示されていないが、パーソナルコンピュータ(以下、パソコン)やモデム等の外部装置とUSBケーブルに接続する場合に用いるUSB端子接続部が設けられている。
(Embodiment 1)
The appearance of a digital camera 1 as an embodiment of an imaging apparatus according to the present invention will be described with reference to FIG. FIG. 1A shows the appearance from the front, and FIG. 1B shows the appearance from the back. As shown in FIG. 1A, the digital camera 1 has an imaging lens (lens group) 12 on the front side. On the back of the digital camera 1, as shown in FIG. 1B, a liquid crystal monitor screen 13 as a display device, a mode dial, a cursor key, a SET key, a zoom button (W button, T button), a menu key Etc., and an operation unit 14 made up of and the like. A shutter key 10 and a power button 11 are provided on the top surface. Although not shown in the figure, a USB terminal connection portion used when connecting to an external device such as a personal computer (hereinafter referred to as a personal computer) or a modem and a USB cable is provided on the side portion.

次に、デジタルカメラ1のハードウェアの構成を、ブロック図(図2)を参照して説明する。   Next, the hardware configuration of the digital camera 1 will be described with reference to a block diagram (FIG. 2).

デジタルカメラ1は、CPU(Central Processing Unit)21と、ROM(Read Only Memory)22と、RAM(Random Access Memory)23と、内部バス20と、を含む。また、デジタルカメラ1は、入出力インターフェース30と、撮像部31と、入力部32と、出力部33と、記憶部34と、表示部35と、通信部36と、メディアドライブ37と、を備えている。   The digital camera 1 includes a CPU (Central Processing Unit) 21, a ROM (Read Only Memory) 22, a RAM (Random Access Memory) 23, and an internal bus 20. The digital camera 1 also includes an input / output interface 30, an imaging unit 31, an input unit 32, an output unit 33, a storage unit 34, a display unit 35, a communication unit 36, and a media drive 37. ing.

CPU21は、RAM23を作業領域として用いて、ROM22又は記憶部34に格納されているプログラムにより画像を出力のための後述する処理を実行する。   The CPU 21 uses the RAM 23 as a work area, and executes later-described processing for outputting an image by a program stored in the ROM 22 or the storage unit 34.

ROM22及び/又は記憶部34は、CPU21が後述する各種の処理を実行する上において必要なデータを記憶する。記憶されたデータは、適宜RAM23にロードされる。また、RAM23は後述する処理の中間データを適時記憶する。   The ROM 22 and / or the storage unit 34 stores data necessary for the CPU 21 to execute various processes described later. The stored data is loaded into the RAM 23 as appropriate. Further, the RAM 23 stores intermediate data of processing to be described later in a timely manner.

CPU21、ROM22、RAM23、及び入出力インターフェース30は、内部バス20を介して相互に接続されている。また、入出力インターフェース30には、撮像部31、入力部32、出力部33、記憶部34、表示部35、通信部36及びメディアドライブ37が接続されている。   The CPU 21, ROM 22, RAM 23, and input / output interface 30 are connected to each other via the internal bus 20. In addition, an imaging unit 31, an input unit 32, an output unit 33, a storage unit 34, a display unit 35, a communication unit 36, and a media drive 37 are connected to the input / output interface 30.

撮像部31は、メインレンズ311と、マイクロレンズアレイ312と、撮像素子313と、を備えている。なお、撮像部31のさらなる詳細については、図3を参照して後述する。   The imaging unit 31 includes a main lens 311, a microlens array 312, and an imaging element 313. Further details of the imaging unit 31 will be described later with reference to FIG.

入力部32は、シャッターキー10、操作部14の各種ボタン、及び表示部35に設定されたタッチパネル等の入力装置と、ユーザがこれらの入力装置を用いて実行した操作の情報を入出力インターフェース30に伝達する伝達部と、から構成される。ユーザは、入力部32を用いてデジタルカメラ1にコマンドを入力し、また各種情報を入力することができる。   The input unit 32 receives input information such as the shutter key 10, various buttons of the operation unit 14, and a touch panel set in the display unit 35, and information on operations performed by the user using these input devices. And a transmission unit for transmitting to the network. The user can input commands to the digital camera 1 using the input unit 32 and can input various information.

出力部33は、モニタやスピーカ等により構成され、CPU21の処理により生成された各種画像や各種音声を出力する。
記憶部34は、ハードディスクやDRAM(Dynamic Random Access Memory)等で構成され、CPU21から伝達された、あるいは他機器から入力された、後述するライトフィールド画像や再構成画像等、各種画像のデータ、各種設定情報を記憶する。
通信部36は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The output unit 33 includes a monitor, a speaker, and the like, and outputs various images and various sounds generated by the processing of the CPU 21.
The storage unit 34 is composed of a hard disk, DRAM (Dynamic Random Access Memory), etc., and is transmitted from the CPU 21 or input from other devices, such as light field images and reconstructed images described later, Store setting information.
The communication unit 36 controls communication with other devices (not shown) via a network including the Internet.

メディアドライブ37には、リムーバブルメディア38(磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等)が適宜装着される。メディアドライブ37によってリムーバブルメディア38から読み出されたプログラムは、必要に応じて記憶部34にインストールされる。また、リムーバブルメディア38は、記憶部34に記憶されている画像のデータ等の各種データを、記憶部34と同様に記憶することができる。表示部35は液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ等より構成される。表示部35は、後述された処理により生成され、CPU21から伝達される撮影準備状態でのライブビュー画像や撮影後の確認用画像が表示される。以下、表示部35は320×240画素の解像度を持つとして説明する。   A removable medium 38 (a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like) is appropriately attached to the media drive 37. The program read from the removable medium 38 by the media drive 37 is installed in the storage unit 34 as necessary. The removable medium 38 can store various data such as image data stored in the storage unit 34 in the same manner as the storage unit 34. The display unit 35 includes a liquid crystal display, an organic EL (Electro-Luminescence) display, and the like. The display unit 35 displays a live view image in a shooting preparation state and a confirmation image after shooting, which are generated by processing described later and transmitted from the CPU 21. Hereinafter, the display unit 35 will be described as having a resolution of 320 × 240 pixels.

このような構成を有するデジタルカメラ1のうち、光学系の構成例を図3を参照して説明する。   A configuration example of the optical system in the digital camera 1 having such a configuration will be described with reference to FIG.

デジタルカメラ1の光学系においては、被写体OBからみて、メインレンズ311と、マイクロレンズアレイ312と、撮像素子313と、がその順番で配置されている。
マイクロレンズアレイ312においては、N×M個(N、Mは2以上の任意の整数値)のマイクロレンズ312−1乃至マイクロレンズ312−N×Mの各々が配置されている。図3には横一列(N個)のマイクロレンズが図示されている。以下、各マイクロレンズ312−i(iは、1乃至N×Mの範囲内の整数値)が同じ大きさの径をもち、マイクロレンズアレイ312に同じ間隔で格子状に配列されているとして説明する。
In the optical system of the digital camera 1, a main lens 311, a microlens array 312, and an image sensor 313 are arranged in that order when viewed from the subject OB.
In the microlens array 312, N × M (N and M are arbitrary integer values of 2 or more) microlenses 312-1 to 312-N × M are arranged. FIG. 3 shows one horizontal row (N pieces) of microlenses. In the following description, it is assumed that the microlenses 312-i (i is an integer value in the range of 1 to N × M) have the same size and are arranged in a grid pattern on the microlens array 312 at the same interval. To do.

メインレンズ311は、被写体OB上の点から射出された光束を集光して、所定の面MAに結像させ、マイクロレンズアレイ312に入射させる。なお、以下、メインレンズ311により結像される面を、「メインレンズ結像面MA」と呼ぶ。本実施形態では、メインレンズ結像面MAはメインレンズ311と撮像素子313との間にあるとする。   The main lens 311 condenses the light beam emitted from a point on the subject OB, forms an image on a predetermined surface MA, and enters the micro lens array 312. Hereinafter, the surface imaged by the main lens 311 is referred to as a “main lens imaging surface MA”. In the present embodiment, it is assumed that the main lens imaging surface MA is between the main lens 311 and the image sensor 313.

マイクロレンズ312−iは、被写体OBからメインレンズ311を介して入射されてくる光束を入射方向毎に集光して、撮像素子313の上にサブ画像として結像させる。
即ち、撮像素子313においては、複数のマイクロレンズ312−1乃至マイクロレンズ312−N×Mの各々により複数のサブ画像が結像され、これらの複数のサブ画像の集合体であるライトフィールド画像が生成される。
このようにして、同一の被写体に対して異なる角度から見た像が、対応する複数のサブ画像に記録される。言い換えると被写体を同時に複数の視点から見た複数のサブ画像が整列した画像が得られる。
The micro lens 312-i condenses the light beam incident from the subject OB through the main lens 311 for each incident direction and forms an image on the image sensor 313 as a sub image.
That is, in the image sensor 313, a plurality of sub-images are formed by each of the plurality of microlenses 312-1 to 312-N × M, and a light field image that is an aggregate of the plurality of sub-images is formed. Generated.
In this way, images of the same subject viewed from different angles are recorded in a plurality of corresponding sub-images. In other words, an image in which a plurality of sub-images in which the subject is viewed from a plurality of viewpoints at the same time is aligned is obtained.

こうして得られたサブ画像は、同一の被写体に対して異なる角度から見た像を含む。そ_のため、複数のサブ画像から適切な画素を選択して合成することで、撮像時に任意の距離だけ前方に離れていた面に焦点を合わせた画像や、被写界深度を任意に変更した画像を再構成することができる。   The sub-images thus obtained include images viewed from different angles with respect to the same subject. Therefore, by selecting and synthesizing appropriate pixels from multiple sub-images, you can arbitrarily change the depth of field or the image focused on the surface that was at the front at an arbitrary distance during imaging. The reconstructed image can be reconstructed.

ブロック状の被写体OBを撮影したライトフィールド画像LFIの一例を図4(a)に示す。
このライトフィールド画像(LFI)は、格子状に配置されたN×M個のマイクロレンズ312−iのそれぞれに対応する画像(副画像、サブ画像S11〜SMN)から構成されている。例えば、左上のサブ画像S11は、被写体OBを左上から撮影した画像に相当し、右下のサブ画像SMNは被写体OBを右下から撮影した画像に相当する。
An example of a light field image LFI obtained by photographing a block-like subject OB is shown in FIG.
This light field image (LFI) is composed of images (sub-images, sub-images S 11 to S MN ) corresponding to each of N × M microlenses 312-i arranged in a grid pattern. For example, the upper left sub-image S 11 corresponds to an image obtained by photographing the object OB from the upper left, the sub-image S MN the lower right corresponds to an image obtained by photographing the object OB from the lower right.

第i行のサブ画像(横の一列のサブ画像)Si1〜SiNは、メインレンズ311が結像した像を、マイクロレンズアレイ312の第i行の横に並んだマイクロレンズ312−iで結像したステレオ画像に相当する。同様に、第j列のサブ画像(縦の一列のサブ画像)S1j〜SMjは、メインレンズ311が結像した像を、マイクロレンズアレイ312の第j列の縦に並んだマイクロレンズ312−iで撮影したステレオ画像に相当する。
なお、本実施形態では各サブ画像Sはグレースケール画像であり、サブ画像を構成する各画素は画素値(スカラー値)を持つ。
The i-th row sub-images (horizontal row sub-images) Si <b> 1 to SiN are images formed by the main lens 311 and formed by the microlenses 312-i arranged next to the i-th row of the microlens array 312. It corresponds to a stereo image. Similarly, the j-th row sub-images (vertical one-row sub-images) S1j to SMj are images of the main lens 311 formed into an image formed by microlenses 312-i arranged vertically in the jth row of the microlens array 312. Corresponds to the stereo image taken in.
In the present embodiment, each sub image S is a gray scale image, and each pixel constituting the sub image has a pixel value (scalar value).

本実施形態では、マイクロレンズアレイ312にはマイクロレンズが横(x軸)に80個、縦(y軸)に60個並んでいる。各マイクロレンズに対応するサブ画像が、60×60画素の領域に収まって全体で4800×3600画素の解像度を持つLFIを形成している。   In the present embodiment, the microlens array 312 includes 80 microlenses arranged horizontally (x axis) and 60 microlenses arranged vertically (y axis). The sub-images corresponding to each microlens fall within a 60 × 60 pixel area to form an LFI having a resolution of 4800 × 3600 pixels as a whole.

LFIにおいて、被写体が各サブ画像単位で点対象に反転して写っている。図4(b)に示す被写体を撮影したLFIの例を図4(c)に示す。この一部(グレーの四角形で囲まれている部分)を拡大すると(図4(d))、被写体(図4(b)の先端部)が上下及び左右方向に反転していることがわかる。デジタルカメラ1は、このようなLFIから、再構成画像RI(図4(b)に示したような画像になる)を生成して出力する。   In LFI, a subject is reflected in a point object in units of sub-images. FIG. 4C shows an example of LFI obtained by photographing the subject shown in FIG. When this part (the part surrounded by the gray square) is enlarged (FIG. 4 (d)), it can be seen that the subject (the tip of FIG. 4 (b)) is inverted vertically and horizontally. The digital camera 1 generates and outputs a reconstructed image RI (an image as shown in FIG. 4B) from such an LFI.

デジタルカメラ1は上記物理構成により図5に示すように画像撮影部40、入力部50、LFI生成部610とライブビュー画像生成部620と確認画像生成部630と本画像生成部640とを含む画像生成処理部60、表示部70、記憶部80、として機能する。   As shown in FIG. 5, the digital camera 1 includes an image capturing unit 40, an input unit 50, an LFI generation unit 610, a live view image generation unit 620, a confirmation image generation unit 630, and a main image generation unit 640 as shown in FIG. 5. It functions as the generation processing unit 60, the display unit 70, and the storage unit 80.

画像撮影部40は、被写体をメインレンズ311とマイクロレンズアレイ312とで撮影し、その情報をLFI生成部610に伝達する。入力部50はROM22及びRAM23に記憶された撮影設定、入力部32が受け付けたユーザ操作、ROM22又はRAM23に記憶された再構成設定を取得して、画像生成処理部60の各部に伝達する。   The image capturing unit 40 captures the subject with the main lens 311 and the microlens array 312 and transmits the information to the LFI generating unit 610. The input unit 50 acquires shooting settings stored in the ROM 22 and the RAM 23, user operations received by the input unit 32, and reconstruction settings stored in the ROM 22 or RAM 23, and transmits them to each unit of the image generation processing unit 60.

LFI生成部610は画像撮影部40から伝達された情報から図4(a)で例示したようなLFIを生成する。LFI生成部610は、ライブビュー画像生成部620と、確認画像生成部630と、本画像生成部640と、に生成したLFIを伝達する。   The LFI generation unit 610 generates an LFI as illustrated in FIG. 4A from the information transmitted from the image capturing unit 40. The LFI generation unit 610 transmits the generated LFI to the live view image generation unit 620, the confirmation image generation unit 630, and the main image generation unit 640.

ライブビュー画像生成部620、確認画像生成部630及び本画像生成部640は、LFIから各マイクロレンズの位置に基づいてサブ画像から画像(再構成画像)を生成する。   The live view image generation unit 620, the confirmation image generation unit 630, and the main image generation unit 640 generate an image (reconstructed image) from the sub image based on the position of each microlens from the LFI.

ライトフィールド画像から、各マイクロレンズの位置に基づいてサブ画像から画像(再構成画像)を生成する処理を、以下「再構成処理」と呼ぶ。再構成処理において、再構成される被写体が仮想的に存在する面を、「再構成面」と呼ぶ。
ライブビュー画像生成部620は、再構成画像のうちライブビュー用の画像(ライブビュー画像)を生成する。ライブビュー画像を生成する処理を「ライブビュー画像生成処理」と呼ぶ。ライブビューでは撮影時の準備・撮影状況をユーザに表示するため、被写体の画像を高速に切り替えて表示することが望まれる。そのため、本実施形態ではライブビュー画像生成処理は必要な計算量が少なく設定されている。ライブビュー画像生成部620は、生成したライブビュー画像を表示部70に出力する。ライブビュー画像生成部620は第1の生成部とも言う。
Processing for generating an image (reconstructed image) from the sub-image based on the position of each microlens from the light field image is hereinafter referred to as “reconstruction processing”. In the reconstruction process, a surface on which a subject to be reconstructed virtually exists is referred to as a “reconstructed surface”.
The live view image generation unit 620 generates an image for live view (live view image) among the reconstructed images. Processing for generating a live view image is referred to as “live view image generation processing”. In live view, in order to display the preparation and shooting status at the time of shooting to the user, it is desirable to display the subject image by switching at high speed. Therefore, in the present embodiment, the live view image generation process is set with a small amount of calculation. The live view image generation unit 620 outputs the generated live view image to the display unit 70. The live view image generation unit 620 is also referred to as a first generation unit.

また、確認画像生成部630は再構成画像のうち画像撮影後の確認のための画像(確認画像)を生成する。確認画像を生成する処理を「確認画像生成処理」と呼ぶ。撮影後の確認では、鑑賞用画像ほどの画質は要求されない一方、どのような画像が得られたか確認が出来る程度には高い画質が望まれる。また、撮影後速やかに表示する必要はあるが、ライブビュー画像ほど迅速に生成する必要が無い。そのため、確認画像生成処理はより画質の高い画像を生成できるように、ライブビュー画像生成処理よりは必要計算量が多く設定されている。確認画像生成部630は、生成した確認画像を表示部70に出力する。なお、ここで画質が高いとは、単に解像度が大きいことはもとより、再構成の精度が高い、ノイズが少ない、適切なボケを負荷して本確認の特徴をより的確に反映している、等のユーザにとって利便性の高い画像全般を言う。確認画像生成部630は第2の生成部とも言う。   In addition, the confirmation image generation unit 630 generates an image (confirmation image) for confirmation after image capturing among the reconstructed images. The process for generating the confirmation image is referred to as “confirmation image generation process”. In the confirmation after shooting, the image quality is not as high as that for viewing images, but high image quality is desired so that what kind of image is obtained can be confirmed. Further, although it is necessary to display promptly after shooting, it is not necessary to generate as quickly as the live view image. Therefore, the necessary amount of calculation is set more in the confirmation image generation process than in the live view image generation process so that an image with higher image quality can be generated. The confirmation image generation unit 630 outputs the generated confirmation image to the display unit 70. Note that high image quality here means that the resolution is high, the reconstruction accuracy is high, the noise is low, the proper blur is applied, and the characteristics of this confirmation are reflected more accurately. This is an image that is convenient for all users. The confirmation image generation unit 630 is also referred to as a second generation unit.

本画像生成部640は再構成画像のうち観賞用の画像(本画像)を生成する。本画像を生成する処理を「本画像生成処理」と呼ぶ。本画像は鑑賞に堪えるため、ユーザが所望する再構成設定に合致しかつ高画質な画像であることが望まれる。そのため、本画像生成処理は必要な計算量が大きく設定されている。本画像生成部640は、生成した本画像を記憶部80に記憶する。本画像生成部640は第3の生成部とも言う。なお、ライブビュー画像生成部620と確認画像生成部630と本画像生成部640とを区別せず、単に生成部と言う場合もある。   The main image generation unit 640 generates an ornamental image (main image) among the reconstructed images. The process of generating the main image is called “main image generation process”. Since this image can withstand viewing, it is desired that the image matches the reconstruction setting desired by the user and is a high-quality image. Therefore, a large amount of calculation is required for the image generation process. The main image generation unit 640 stores the generated main image in the storage unit 80. This image generation unit 640 is also referred to as a third generation unit. The live view image generation unit 620, the confirmation image generation unit 630, and the main image generation unit 640 may be simply referred to as a generation unit without being distinguished from each other.

表示部70は伝達された再構成画像を表示する。なお、表示部70は320×240画素の解像度を持つ。
また、記憶部80は伝達された本画像を記憶する。なお、記憶部80は本画像を対応する確認画像と共に記憶しても良い。
The display unit 70 displays the transmitted reconstructed image. The display unit 70 has a resolution of 320 × 240 pixels.
The storage unit 80 stores the transmitted main image. The storage unit 80 may store the main image together with the corresponding confirmation image.

デジタルカメラ1が実行するLFIを取得して再構成画像を出力するための処理(画像出力処理1)を、図6を参照して説明する。
デジタルカメラ1は、電源を投入され、入力部50が撮影を準備する操作を受け取ると、図6に示す画像出力処理1を開始する。
Processing for acquiring an LFI executed by the digital camera 1 and outputting a reconstructed image (image output processing 1) will be described with reference to FIG.
When the digital camera 1 is turned on and the input unit 50 receives an operation for preparing for shooting, the digital camera 1 starts an image output process 1 shown in FIG.

画像出力処理1では、まず画像撮影部40とLFI生成部610とがLFIを生成する(ステップS101)。   In the image output process 1, first, the image capturing unit 40 and the LFI generation unit 610 generate an LFI (step S101).

次に、入力部50がRAM23及びROM22に記憶されている現在の撮像設定情報を取得する(ステップS102)。撮像設定には、現在のメインレンズ311の焦点距離fML、絞り(F値)、マイクロレンズアレイ312における各マイクロレンズの位置情報、マイクロレンズアレイ312と撮像素子313との位置情報、等が含まれる。 Next, the input unit 50 acquires the current imaging setting information stored in the RAM 23 and the ROM 22 (step S102). The imaging settings include the current focal length f ML of the main lens 311, aperture (F value), position information of each microlens in the microlens array 312, position information between the microlens array 312 and the image sensor 313, and the like. It is.

撮像設定情報を取得すると、ライブビュー画像生成部620がライブビュー画像生成処理を実行する(ステップS103)。本実施形態では、ライブビュー画像生成処理は後述する画像生成処理1である。   When the imaging setting information is acquired, the live view image generation unit 620 executes live view image generation processing (step S103). In the present embodiment, the live view image generation process is an image generation process 1 described later.

ライブビュー画像生成処理を実行するライブビュー画像生成部620の機能構成を図7を参照して説明する。本実施形態では、ライブビュー画像生成部620は、図7に示す第1再構成画像生成部710である。   A functional configuration of the live view image generation unit 620 that executes the live view image generation process will be described with reference to FIG. In the present embodiment, the live view image generation unit 620 is the first reconstructed image generation unit 710 illustrated in FIG.

第1再構成画像生成部710は、サブ画像抽出部711と、部分領域定義部712と、画素抽出部713と、画素配置部714と、出力部715と、から構成される。第1再構成画像生成部710は、これら各部によりLFIから出力画像として第1再構成画像(本願のライブビュー画像)を生成する。第1再構成画像は、320×240画素の画像とする。   The first reconstructed image generation unit 710 includes a sub image extraction unit 711, a partial region definition unit 712, a pixel extraction unit 713, a pixel arrangement unit 714, and an output unit 715. The first reconstructed image generation unit 710 generates a first reconstructed image (live view image of the present application) as an output image from the LFI using these units. The first reconstructed image is a 320 × 240 pixel image.

サブ画像抽出部711は、LFIを構成するサブ画像を順次注目サブ画像として抽出して、部分領域定義部712に伝達する。   The sub-image extraction unit 711 sequentially extracts the sub-images constituting the LFI as the attention sub-images and transmits them to the partial region definition unit 712.

部分領域定義部712は、サブ画像抽出部711から伝達された注目サブ画像の所定の領域を部分領域として定義する。部分領域の詳細については後述する。部分領域定義部712は、部分領域を示す情報を画素抽出部713に伝達する。   The partial region definition unit 712 defines a predetermined region of the target sub-image transmitted from the sub-image extraction unit 711 as a partial region. Details of the partial area will be described later. The partial region definition unit 712 transmits information indicating the partial region to the pixel extraction unit 713.

画素抽出部713は部分領域定義部712から伝達された情報が示す注目サブ画像上の部分領域から、所定の条件で画素を抽出する。画素を抽出する処理の具体的な内容については後述する。画素抽出部713は抽出した画素を画素配置部714に伝達する。   The pixel extraction unit 713 extracts pixels under a predetermined condition from the partial region on the target sub-image indicated by the information transmitted from the partial region definition unit 712. The specific contents of the pixel extracting process will be described later. The pixel extraction unit 713 transmits the extracted pixel to the pixel arrangement unit 714.

画素配置部714は画素抽出部713が抽出した画素を第1再構成画像上に配置する。
画素を配置する処理の具体的な内容については後述する。
The pixel placement unit 714 places the pixels extracted by the pixel extraction unit 713 on the first reconstructed image.
Specific contents of the process of arranging the pixels will be described later.

サブ画像抽出部711から画素配置部714は、全てのサブ画像を注目画像として順次画素を抽出して第1再構成画像上に配置することにより、第1再構成画像を生成する。
出力部715は、こうして生成された第1再構成画像を外部(表示部70)に出力する。
The pixel arrangement unit 714 from the sub image extraction unit 711 generates a first reconstructed image by sequentially extracting and arranging the pixels on the first reconstructed image using all the sub images as the target image.
The output unit 715 outputs the first reconstructed image generated in this way to the outside (display unit 70).

次に、第1再構成画像生成部710が実行する再構成画像生成処理(画像生成処理1)について、図8及び図9を参照して説明する。
ライブビュー画像生成部620(第1再構成画像生成部710)は、画像出力処理1(図6)のステップS103に至ると、図8に示す画像生成処理1を開始する。
Next, reconstructed image generation processing (image generation processing 1) executed by the first reconstructed image generation unit 710 will be described with reference to FIGS.
When the live view image generation unit 620 (first reconstructed image generation unit 710) reaches step S103 of the image output process 1 (FIG. 6), it starts the image generation process 1 shown in FIG.

画像生成処理1では、まずk1をカウンタ変数として、サブ画像抽出部711がLFIのk1番目のサブ画像を注目サブ画像として抽出する(ステップS201)。   In the image generation processing 1, first, the sub image extraction unit 711 extracts the k1 th sub image of the LFI as a target sub image using k1 as a counter variable (step S201).

次に、部分領域定義部712が注目サブ画像の所定領域(ここではサブ画像の中心に位置する8×8画素の正方形の領域)を部分領域として定義する(ステップS202)。この所定領域の大きさは、デジタルカメラ1の設計上撮影可能な被写体について生じる画素のズレ(視差)の大きさに基づいて設定される。例えば、カメラの撮影可能な最も近い距離と遠い距離で生じる画素のズレが4画素から12画素である場合に、中間付近の8画素を採用する。   Next, the partial region defining unit 712 defines a predetermined region of the target sub-image (here, a square region of 8 × 8 pixels located at the center of the sub-image) as a partial region (step S202). The size of the predetermined area is set based on the size of pixel shift (parallax) that occurs with respect to a subject that can be photographed in the design of the digital camera 1. For example, when the pixel shift that occurs between the closest distance and the far distance that can be photographed by the camera is 4 to 12 pixels, 8 pixels near the middle are employed.

部分領域を定義すると、画素抽出部713が部分領域の画素を、後述する第1再構成画像中の注目サブ画像に対応する領域(対応領域)の画素数だけ抽出する(ステップS203)。   When the partial area is defined, the pixel extracting unit 713 extracts the pixels of the partial area by the number of pixels of the area (corresponding area) corresponding to the target sub-image in the first reconstructed image described later (step S203).

そして、抽出した画素を画素配置部714が第1再構成画像(生成画像)の対応領域の対応部位に配置する(ステップS204)。
ステップS201からステップS204までの処理について、具体例を用いて図9を参照して説明する。
And the pixel arrangement | positioning part 714 arrange | positions the extracted pixel to the corresponding | compatible part of the corresponding | compatible area | region of a 1st reconstruction image (generated image) (step S204).
The processing from step S201 to step S204 will be described with reference to FIG. 9 using a specific example.

LFIには、図9(a)に示すように、略円状のサブ画像S11〜SMNが格子状に並んでいる。サブ画像S11から順に注目サブ画像として抽出し(ステップS201)、中心部の8×8画素の正方形の部分を部分領域として抽出する(ステップS202)。 In the LFI, as shown in FIG. 9A, substantially circular sub-images S 11 to S MN are arranged in a lattice pattern. Extracting from the sub-image S 11 as the target sub image sequentially (Step S201), and extracts the square portion of the 8 × 8 pixels of the central portion as a partial area (step S202).

部分領域の拡大図を図9(b)に示す。図9(b)の左側はサブ画像S11の、右側はサブ画像S23の部分領域である。各部分領域の画素を格子で表し、座標(1,1)〜(8,8)で表す。 An enlarged view of the partial area is shown in FIG. Left side of FIG. 9 (b) sub-image S 11, the right side is a partial area of the sub-image S 23. The pixels in each partial area are represented by a grid and represented by coordinates (1, 1) to (8, 8).

第1再構成画像の例を図9(c)に示す。この例では、第1再構成画像は320×240画素の画像であり、80×60個のサブ画像のそれぞれについて、その座標に応じた4×4画素の対応領域(太線で示す領域)に分割されている。
11の対応領域は図9(c)の座標(1,1)〜(4,4)の正方形の部分であり、S23の対応領域は座標(9,5)〜(12,8)の正方形の部分である。
An example of the first reconstructed image is shown in FIG. In this example, the first reconstructed image is an image of 320 × 240 pixels, and each of 80 × 60 sub-images is divided into corresponding regions (regions indicated by bold lines) of 4 × 4 pixels corresponding to the coordinates. Has been.
Corresponding region of the S 11 is square part of the coordinates (1,1) to (4,4) in FIG. 9 (c), the corresponding region of the S 23 coordinates (9,5) through (12,8) It is a square part.

ステップS203では、部分領域から、4×4個の画素を一つ置きに抽出する。そして、ステップS204で、抽出した画素をサブ画像ごとに上下左右(点対称)に反転して対応領域に配置する。メインレンズ結像面MAが撮像素子313の前に存在するため、被写体OBの像がサブ画像ごとに反転しているためである。
図9の例では、S11の部分領域の画素(1,1)は、第1再構成画像の座標(4,4)に配置される。また、S11の部分領域の画素(1,3)が第1再構成画像の座標(3,4)に配置される。以下同様に一つおきに画素を部分領域から抽出して配置し、部分領域の画素(7,7)が第1再構成画像の座標(1,1)に配置される。
In step S203, every other 4 × 4 pixels are extracted from the partial area. In step S204, the extracted pixels are inverted vertically and horizontally (point symmetry) for each sub-image and arranged in the corresponding region. This is because the main lens image formation surface MA exists in front of the image sensor 313, so that the image of the subject OB is inverted for each sub image.
In the example of FIG. 9, the pixels of the partial region of the S 11 (1, 1) is arranged at coordinates (4,4) in the first reconstructed image. The pixel portion region of the S 11 (1, 3) is arranged at coordinates (3,4) in the first reconstructed image. Similarly, every other pixel is extracted and arranged from the partial area, and the pixel (7, 7) of the partial area is arranged at the coordinates (1, 1) of the first reconstructed image.

図8に戻って、ステップS204で現在の注目サブ画像について対応領域の全ての画素に抽出した画素を配置すると、次に全サブ画像について上記処理が実行されたか判別する(ステップS205)。未処理のサブ画像が存在する場合(ステップS205;NO)、カウンタ変数k1をインクリメントし(ステップS206)、次の注目サブ画像についてステップS201から処理を繰り返す。   Returning to FIG. 8, when the extracted pixels are arranged in all the pixels of the corresponding area in the current target sub-image in step S204, it is next determined whether or not the above processing has been executed for all the sub-images (step S205). If there is an unprocessed sub-image (step S205; NO), the counter variable k1 is incremented (step S206), and the processing from step S201 is repeated for the next target sub-image.

一方、すべてのサブ画像について上記処理済である場合は(ステップS205;YES)、完成した第1再構成画像をライブビュー画像として、画像生成処理1は終了する。   On the other hand, when all the sub-images have been processed (step S205; YES), the image generation process 1 ends with the completed first reconstructed image as a live view image.

なお、部分領域と対応領域の画素数が同じ場合は、上記抽出処理を省略して、部分領域の全画素を点対称に反転して対応領域に配置すればよい。
また、部分領域が11×11画素、対応領域が4×4画素である場合等、等間隔で抽出できない場合は、1番目の画素と、4番目の画素と、7番目の画素と、11番目の画素と、を抽出するといった、等間隔に近い抽出方法で画素を抽出する。あるいは、部分領域(11×11画素)を補間しながら対応領域(4×4画素)にリサイズしても良い。
If the number of pixels in the partial area and the corresponding area is the same, the extraction process may be omitted, and all the pixels in the partial area may be inverted in a point-symmetric manner and arranged in the corresponding area.
If the partial area is 11 × 11 pixels and the corresponding area is 4 × 4 pixels, etc., and the pixels cannot be extracted at equal intervals, the first pixel, the fourth pixel, the seventh pixel, and the eleventh pixel The pixels are extracted by an extraction method that is close to regular intervals, such as extracting the pixels. Or you may resize to a corresponding area | region (4x4 pixel), interpolating a partial area | region (11x11 pixel).

図6に戻って、ライブビュー画像の生成が終わると、生成したライブビュー画像を表示部70が表示する(ステップS104)。
そして、入力部50が撮像操作(シャッターキー10を押し込む操作)を検出したか否か判別する(ステップS105)。撮像操作を検出していないと判別すると(ステップS105;NO)、デジタルカメラ1はステップS101に戻ってライブビュー画像を表示するための処理を繰り返す。
Returning to FIG. 6, when the generation of the live view image is completed, the display unit 70 displays the generated live view image (step S104).
And it is discriminate | determined whether the input part 50 detected imaging operation (operation which presses the shutter key 10) (step S105). If it is determined that the imaging operation has not been detected (step S105; NO), the digital camera 1 returns to step S101 and repeats the process for displaying the live view image.

一方、撮像操作を検出したと判別すると(ステップS105;YES)、次に確認画像生成部630が確認画像生成処理を実行する(ステップS106)。本実施形態では、確_認画像生成処理は後述する画像生成処理2である。   On the other hand, if it is determined that an imaging operation has been detected (step S105; YES), the confirmation image generation unit 630 next executes a confirmation image generation process (step S106). In this embodiment, the confirmation image generation process is an image generation process 2 described later.

確認画像生成処理を実行する確認画像生成部630の機能構成を図10(a)を参照して説明する。本実施形態では、確認画像生成部630は、図10(a)に示す第2再構成画像生成部720である。   A functional configuration of the confirmation image generation unit 630 that executes the confirmation image generation process will be described with reference to FIG. In the present embodiment, the confirmation image generation unit 630 is the second reconstructed image generation unit 720 illustrated in FIG.

第2再構成画像生成部720は、サブ画像抽出部721と、ズレ値算出部722と、部分領域定義部723と、配置画像生成部724と、画像配置部725と、出力部726と、から構成される。第2再構成画像生成部720は、これら各部によりLFIから出力画像として第2再構成画像(本実施形態の確認画像)を生成する。第2再構成画像は、320×240画素の画像とする。   The second reconstructed image generation unit 720 includes a sub image extraction unit 721, a deviation value calculation unit 722, a partial region definition unit 723, an arrangement image generation unit 724, an image arrangement unit 725, and an output unit 726. Composed. The second reconstructed image generation unit 720 generates a second reconstructed image (confirmation image of the present embodiment) as an output image from the LFI by these units. The second reconstructed image is a 320 × 240 pixel image.

サブ画像抽出部721は、LFIを構成するサブ画像を順次注目サブ画像として抽出して、ズレ値算出部722に伝達する。   The sub-image extraction unit 721 sequentially extracts the sub-images constituting the LFI as the attention sub-image and transmits the extracted sub-images to the deviation value calculation unit 722.

ズレ値算出部722は、注目サブ画像が、注目サブ画像を中心とした所定範囲の周囲のサブ画像(周辺サブ画像)に対してどの程度ずれているかを表す係数(画像ズレ係数)を算出する。画像ズレ係数は、例えば以下の方法で算出する。
設計上定められた注目サブ画像の中心の所定領域(例えば中心の10×10の領域)を中心領域とし、中心サブ画像に対応する部分が右隣(無い場合は左隣、この場合は以下左右逆)のサブ画像のどこにあるか求める。これは、ある画像部位が他の画像のどこにあるか決定する任意の既知の方法を用いる事が出来るが、本実施形態では次の方法を用いる。
まず、右隣の中心の10×10の領域を算出対象部位とする。そして、中心部位と算出対象部位の各画素値の差分絶対値和を取る。次に右に1画素ずらした領域について同様に差分絶対値和を取る。これを起こりうる視差の範囲について繰り返す。得られた絶対差分値和が最小である位置ズレを画像ズレ係数とする。
The deviation value calculation unit 722 calculates a coefficient (image deviation coefficient) indicating how much the target sub-image is deviated from the surrounding sub-images (peripheral sub-images) around the predetermined range centering on the target sub-image. . The image shift coefficient is calculated by the following method, for example.
A predetermined area at the center of the target sub-image determined by design (for example, a 10 × 10 area at the center) is set as the central area, and a portion corresponding to the central sub-image is adjacent to the right (if not present, left adjacent; Find where the sub-image is. For this, any known method for determining where an image part is located in another image can be used. In the present embodiment, the following method is used.
First, a center 10 × 10 region on the right side is set as a calculation target part. Then, the sum of absolute differences of the pixel values of the central part and the calculation target part is taken. Next, the sum of absolute differences is similarly taken for the area shifted by one pixel to the right. This is repeated for the range of possible parallax. The obtained position shift with the smallest sum of absolute difference values is defined as an image shift coefficient.

なお、右隣の2つのサブ画像から画像ズレ係数を取得する場合は、すぐ右隣のサブ画像についてd画素ずれた位置で差分絶対値和を求め、その隣のサブ画像について2d画素ずれた位置で差分絶対値和の総和を求め、二つの値の和を評価関数として評価関数が最小となるdを求めればよい。サブ画像の数が増えた場合は以下同様に処理することが出来る。   In addition, when acquiring an image shift coefficient from two right-side sub-images, a difference absolute value sum is obtained at a position shifted by d pixels for the right-side sub-image, and a position shifted by 2d pixels for the next sub-image. Then, the sum of the absolute difference sums is obtained, and d that minimizes the evaluation function may be obtained using the sum of the two values as the evaluation function. When the number of sub-images increases, the same processing can be performed thereafter.

部分領域定義部723は、ズレ値算出部722が算出した画像ズレ係数に対応する部分領域の大きさを、ROM22に記憶された領域テーブルを参照して取得する。
領域定義テーブルは、図10(b)に示すように、画像ズレ係数の範囲と、領域の大きさを示す値と、を対応づけて記録する。例えば、画像ズレ係数が8である場合、部分領域は注目サブ画像の中心6×6画素の領域である。部分領域定義部723は、定義した部分領域を示す情報を配置画像生成部724に伝達する。
The partial area definition unit 723 acquires the size of the partial area corresponding to the image deviation coefficient calculated by the deviation value calculation unit 722 with reference to the area table stored in the ROM 22.
As shown in FIG. 10B, the region definition table records the range of the image shift coefficient and the value indicating the size of the region in association with each other. For example, when the image deviation coefficient is 8, the partial area is an area of the center 6 × 6 pixels of the target sub-image. The partial area definition unit 723 transmits information indicating the defined partial area to the arrangement image generation unit 724.

なお、領域定義テーブルは、画像ズレ係数が大きくなると、所定のオフセット値を前提としておおむね比例して部分領域の大きさが大きくなるようなテーブルであることが望ましい。
領域の大きさを求める方法はこれに限らず、画像ズレ係数が大きくなると部分領域の大きさ(自然数)が所定範囲で大きくなるような任意のテーブルまたは算出式を用いて算出して良い。
Note that the area definition table is desirably a table in which the size of the partial area increases approximately in proportion to a predetermined offset value when the image shift coefficient increases.
The method for obtaining the size of the area is not limited to this, and the area size may be calculated using an arbitrary table or calculation formula that increases the size (natural number) of the partial area within a predetermined range as the image shift coefficient increases.

配置画像生成部724は、部分領域を定義する情報を受け取ると、その領域に含まれる画像を補間によりリサイズして、生成画像(第2再構成画像)に配置するための配置画像を生成する。具体的には、生成画像(第2再構成画像)の対応領域の大きさに合致する大きさ(ここでは4×4画素)にリサイズする。   When the arrangement image generation unit 724 receives the information defining the partial area, the arrangement image generation unit 724 resizes the image included in the area by interpolation, and generates an arrangement image for arrangement in the generation image (second reconstructed image). Specifically, the image is resized to a size (4 × 4 pixels here) that matches the size of the corresponding region of the generated image (second reconstructed image).

画像配置部725は配置画像生成部724が生成した配置画像を第2再構成画像上に配置する。   The image placement unit 725 places the placement image generated by the placement image generation unit 724 on the second reconstructed image.

サブ画像抽出部721から画像配置部725は、全てのサブ画像について配置画像生成し、画像配置部725が第2再構成画像上に配置して第2再構成画像を生成する。
出力部726は、こうして生成された第2再構成画像を外部(表示部70)に出力する。
The sub image extraction unit 721 to the image arrangement unit 725 generate arrangement images for all sub images, and the image arrangement unit 725 arranges them on the second reconstructed image to generate a second reconstructed image.
The output unit 726 outputs the second reconstructed image generated in this way to the outside (display unit 70).

次に、第2再構成画像生成部720が実行する処理(画像生成処理2)について、図11及び図12を参照して説明する。
確認画像生成部630(第2再構成画像生成部720)は、画像出力処理1(図6)のステップS106に至ると、図11に示す画像生成処理2を開始する。
Next, processing (image generation processing 2) executed by the second reconstructed image generation unit 720 will be described with reference to FIGS.
When the confirmation image generation unit 630 (second reconstructed image generation unit 720) reaches step S106 of the image output process 1 (FIG. 6), it starts the image generation process 2 shown in FIG.

画像生成処理2では、まずk2をカウンタ変数として、サブ画像抽出部721がLFIのk2番目のサブ画像を注目サブ画像として抽出する(ステップS301)。   In the image generation process 2, first, the sub-image extraction unit 721 extracts k2 as the target sub-image of the LFI using k2 as a counter variable (step S301).

次に、ズレ値算出部722が注目サブ画像の所定領域(中央部10×10画素)に写っている被写体が、右隣のサブ画像で中央から何画素ずれていると推定されるかを示す画像ズレ係数を上述した方法で算出する(ステップS302)。   Next, the deviation value calculation unit 722 indicates how many pixels the subject in the predetermined area (center 10 × 10 pixels) of the target sub-image is deviated from the center in the right-side sub-image. The image shift coefficient is calculated by the method described above (step S302).

次に、部分領域定義部723が注目サブ画像の部分領域を定義する(ステップS303)。ステップS303では、領域定義テーブルを参照して、ステップS302で得られた画像ズレ係数に対応する領域の大きさLを取得する。そして、注目サブ画像の中央部にその大きさの領域(L×L画素の正方形の領域)を部分領域として定義する。   Next, the partial area definition unit 723 defines a partial area of the target sub-image (step S303). In step S303, the size L of the area corresponding to the image shift coefficient obtained in step S302 is acquired with reference to the area definition table. Then, an area of that size (a square area of L × L pixels) is defined as a partial area at the center of the target sub-image.

そして配置画像生成部724が、L×L画素の部分領域の画像を第2再構成画像中の注目サブ画像に対応する領域(対応領域)に合致するようにリサイズして配置画像とする(ステップS304)。対応領域の大きさは、設定上定められた第2再構成画像(ここでは320×240画素)を各サブ画像に分配した大きさであり、予め記憶された設定値に従
う。
Then, the arrangement image generation unit 724 resizes the image of the partial area of L × L pixels so as to match the area (corresponding area) corresponding to the target sub-image in the second reconstructed image to be an arrangement image (step) S304). The size of the corresponding area is a size obtained by distributing the second reconstructed image (320 × 240 pixels in this case) determined in the setting to each sub-image, and follows a preset stored value.

そして、配置画像を第2再構成画像(生成画像)の注目サブ画像に対応する部位に配置する(ステップS305)。ここでは、左右上下に反転して配置する。
ステップS301からステップS305までの処理の具体例を、図12を参照して説明する。
Then, the arrangement image is arranged at a site corresponding to the target sub-image of the second reconstructed image (generated image) (step S305). Here, they are arranged so as to be reversed left and right and up and down.
A specific example of the processing from step S301 to step S305 will be described with reference to FIG.

LFIには、図12(a)に示すように、略円状のサブ画像S11〜SMNが格子状に並んでいる。S11から順に注目サブ画像として抽出し(ステップS301)、右隣のサブ画像との位置ズレ係数を取得する(ステップS302)。図12(a)では、太い矢印で示したS11のS12との画像ズレ係数は大きく、S23のS24との画像ズレ係数は小さいとする。 In the LFI, as shown in FIG. 12A, substantially circular sub-images S 11 to S MN are arranged in a lattice pattern. Extracted as a sub image of interest in order from S 11 (step S 301), and acquires a position shift coefficient with the sub image on the right (step S 302). Figure 12 (a), the image shift coefficients of the S 12 of S 11 indicated by a thick arrow is large, the image shift factors and S 24 of S 23 is small.

画像ズレ係数が大きいほど部分領域が大きくなるように定義する(ステップS303)。
本例では図12(b)に示すように、S11の中心部の10×10画素の正方形の部分をS11の部分領域として、S23の中心部の3×3画素の正方形の部分をS23の部分領域として、それぞれ定義している。
The definition is made so that the partial area becomes larger as the image shift coefficient is larger (step S303).
As shown in FIG. 12 (b) in the present example, a 10 × 10 pixel square portions of the central portion of S 11 as a partial region of the S 11, the 3 × 3 pixels square portion of the central portion of S 23 as partial region of the S 23, are defined respectively.

第2再構成画像の例を図12(c)に示す。この例では、第2再構成画像は320×2_40画素の画像であり、80×60個のサブ画像のそれぞれについて、その座標に応じた4×4画素の対応領域(太線で示す領域)が定義される。   An example of the second reconstructed image is shown in FIG. In this example, the second reconstructed image is an image of 320 × 2_40 pixels, and for each of 80 × 60 sub-images, a corresponding region of 4 × 4 pixels (region indicated by a bold line) corresponding to the coordinates is defined. Is done.

ステップS304では、部分領域の画像をリサイズして4×4の配置画像とし、続くステップS305では配置画像を上下左右(点対象)に反転して対応領域に配置する。メインレンズ結像面MAが撮像素子313の前に存在するため、被写体OBの画像はサブ画像ごとに反転しているためである。リサイズは、液晶モニタ画面13の画素数に対応した第2再構成画像が小さい場合は縮小のみとなり、縮小率が画像ズレ係数に応じて変化する。一方、液晶モニタ画面13の画素数が大きく、対応領域が大きければ、画像ズレ係数に応じて拡大又は縮小を行うこととなる。   In step S304, the image of the partial area is resized to a 4 × 4 arrangement image, and in the subsequent step S305, the arrangement image is inverted vertically and horizontally (point object) and arranged in the corresponding area. This is because the image of the subject OB is inverted for each sub-image because the main lens imaging surface MA exists in front of the image sensor 313. Resizing is only reduced when the second reconstructed image corresponding to the number of pixels on the liquid crystal monitor screen 13 is small, and the reduction rate changes according to the image shift coefficient. On the other hand, if the number of pixels on the liquid crystal monitor screen 13 is large and the corresponding area is large, the image is enlarged or reduced according to the image shift coefficient.

図11に戻って、ステップS305で現在の注目サブ画像について対応領域に画像を配置すると、次に全サブ画像について上記処理が実行されたか判別する(ステップS306)。未処理のサブ画像が存在する場合(ステップS306;NO)、カウンタ変数k2をインクリメントし(ステップS307)、次の注目サブ画像についてステップS301から処理を繰り返す。   Returning to FIG. 11, when an image is arranged in the corresponding area for the current target sub-image in step S305, it is determined whether or not the above processing has been executed for all sub-images (step S306). If there is an unprocessed sub-image (step S306; NO), the counter variable k2 is incremented (step S307), and the processing from step S301 is repeated for the next target sub-image.

一方、すべてのサブ画像について上記処理済である場合は(ステップS306;YES)、完成した第2再構成画像を確認画像として、画像生成処理2は終了する。   On the other hand, when all the sub-images have been processed (step S306; YES), the image generation process 2 ends with the completed second reconstructed image as a confirmation image.

なお、ここでは確認画像を、液晶モニタ画面13の画素数に対応してライブビュー画像と同じ画素数(320×240画素)とした。しかし、確認画像はライブビュー画像より大きくても良い。
また、配置画像を、部分領域をリサイズして生成したが、部分領域の画素を対応領域の大きさに合わせて抽出して配置画像を生成しても良い。
Here, the confirmation image has the same number of pixels (320 × 240 pixels) as the live view image corresponding to the number of pixels on the liquid crystal monitor screen 13. However, the confirmation image may be larger than the live view image.
Further, although the arrangement image is generated by resizing the partial area, the arrangement image may be generated by extracting the pixels in the partial area according to the size of the corresponding area.

図6に戻って、確認画像の生成が終わると、生成した確認画像を表示部70が表示する(ステップS107)。
そして、入力部50が記憶部34、入力部32等から本画像を生成するための再構成設定を取得する(ステップS108)。再構成設定には、メインレンズ311と再構成面との距離及び再構成画像が占める部位、フィルタの使用の有無及びフィルタ設定、再構成画像の画素数、等の情報が含まれる。
Returning to FIG. 6, when the generation of the confirmation image is completed, the display unit 70 displays the generated confirmation image (step S107).
Then, the input unit 50 acquires the reconstruction setting for generating the main image from the storage unit 34, the input unit 32, and the like (step S108). The reconstruction setting includes information such as the distance between the main lens 311 and the reconstruction surface, the portion occupied by the reconstruction image, whether or not the filter is used, the filter setting, and the number of pixels of the reconstruction image.

再構成設定を取得すると、その再構成設定を用いて本画像生成部640が本画像生成処理を実行する(ステップS109)。本実施形態では、本画像生成処理は後述する画像生成処理3である。   When the reconstruction setting is acquired, the main image generation unit 640 executes the main image generation process using the reconstruction setting (step S109). In the present embodiment, the main image generation processing is image generation processing 3 described later.

本画像生成処理を実行する本画像生成部640の機能構成を図13を参照して説明する。本実施形態では、本画像生成部640は、図13に示す第3再構成画像生成部730である。   A functional configuration of the main image generation unit 640 that executes the main image generation processing will be described with reference to FIG. In the present embodiment, the main image generation unit 640 is the third reconstructed image generation unit 730 shown in FIG.

第3再構成画像生成部730は、サブ画像抽出部731と、画素ズレ係数算出部732と、フィルタ処理部733と、画像ズレ係数算出部734と、部分領域定義部735と、画像配置部736と、出力部737と、から構成される。第3再構成画像生成部730は、これら各部によりLFIから出力画像として第3再構成画像(本願の本画像)を生成する。   The third reconstructed image generation unit 730 includes a sub image extraction unit 731, a pixel shift coefficient calculation unit 732, a filter processing unit 733, an image shift coefficient calculation unit 734, a partial region definition unit 735, and an image arrangement unit 736. And an output unit 737. The third reconstructed image generation unit 730 generates a third reconstructed image (the main image of the present application) as an output image from the LFI using these units.

サブ画像抽出部731は、LFIを構成するサブ画像を順次注目サブ画像として抽出して、画素ズレ係数算出部732に伝達する。   The sub-image extraction unit 731 sequentially extracts the sub-images constituting the LFI as the attention sub-image and transmits the extracted sub-images to the pixel shift coefficient calculation unit 732.

画素ズレ係数算出部732は、注目サブ画像の各画素を順次注目画素として、注目画素に対応する画素が、周辺サブ画像でどの程度ずれているかを示す係数(注目画素の画素ズレ係数)を算出する。画素ズレ係数は注目画素の被写体との距離に対応する。画素ズレ係数は、LFIの画素の被写体の距離を推定する任意の方法を用いて算出してよいが、ここでは以下の方法で算出する。   The pixel shift coefficient calculation unit 732 sequentially calculates each pixel of the target sub-image as the target pixel, and calculates a coefficient (pixel shift coefficient of the target pixel) indicating how much the pixel corresponding to the target pixel is shifted in the peripheral sub-image. To do. The pixel shift coefficient corresponds to the distance of the target pixel from the subject. The pixel shift coefficient may be calculated using any method for estimating the distance of the subject of the LFI pixel, but here it is calculated by the following method.

注目サブ画像の右側(無い場合は左側、この場合は以下左右逆)のサブ画像を、位置順にSR1、SR2、…SRkとする。kは設定上定められた自然数である。また、注目画素の画素値を画素値a、注目サブ画像上の座標を(x、y)とする。現在の画素ズレをdとして、画素値aとSR1の(x+d、y)の画素値(右にd個ずれた画素の画素値)との差を取る。同様に、SR2の(x+2d、y)との差、…、SRkの(x+kd、y)との差、をそれぞれ取得して、差分絶対値和を求める。これを起こりうる視差の範囲について繰り返す。得られた絶対差分値和が最小である位置ズレを画素ズレ係数とする。   The sub-images on the right side of the target sub-image (the left side when there is no sub-image, in this case, the left and right are reversed in this case) are set as SR1, SR2,. k is a natural number determined in setting. Further, the pixel value of the target pixel is assumed to be a pixel value a, and the coordinates on the target sub-image are set to (x, y). Taking the current pixel shift as d, the difference between the pixel value a and the pixel value of (x + d, y) of SR1 (the pixel value of the pixel shifted to the right by d) is taken. Similarly, the difference between SR2 and (x + 2d, y),..., The difference between SRk and (x + kd, y) is obtained, and the sum of absolute differences is obtained. This is repeated for the range of possible parallax. The obtained positional deviation with the smallest sum of absolute difference values is defined as a pixel deviation coefficient.

画素ズレ係数算出部732は、注目サブ画像に含まれる全ての画素の画素ズレ係数を算出し、フィルタ処理部733に伝達する。フィルタ処理部733は、画素ズレ係数が示す各画素に対応する被写体までの距離と、入力部50から取得した再構成設定に含まれる再構成面までの距離と、を比較する。そして、その差に応じたフィルタ処理を実行して、ライトフィールド画像の各画素についてボケ付加を行う。再焦点距離と被写体までの距離の差が所定値以上あれば設定されたボケ強度に従ってボケ付加処理を行う。ボケ付加処理には例えばガウシアンフィルターを用いる。   The pixel shift coefficient calculation unit 732 calculates the pixel shift coefficients of all the pixels included in the target sub-image and transmits them to the filter processing unit 733. The filter processing unit 733 compares the distance to the subject corresponding to each pixel indicated by the pixel shift coefficient with the distance to the reconstruction plane included in the reconstruction setting acquired from the input unit 50. Then, filter processing corresponding to the difference is executed, and blur is added to each pixel of the light field image. If the difference between the refocus distance and the distance to the subject is greater than or equal to a predetermined value, blur addition processing is performed according to the set blur intensity. For example, a Gaussian filter is used for the blur addition process.

ある画素が非常に遠くにある被写体を撮影した点である場合には画素ズレ係数(位置ずれの量に対応)は小さく、近くにある被写体を撮影した点である場合に大きい。この位置ずれと、実世界における被写体とカメラの距離の関係は、メインレンズ311、マイクロレンズアレイ312内のマイクロレンズ312−iの焦点距離と、撮像素子313の置かれた位置および大きさによって決まる。位置ズレと、被写体距離の対応関係は、予め実験によって求められ、ズレ距離テーブルとしてROM22に格納されている。   The pixel shift coefficient (corresponding to the amount of misalignment) is small when a certain pixel is taken from a subject that is very far away, and large when the subject is taken from a nearby subject. The relationship between the positional deviation and the distance between the subject and the camera in the real world is determined by the focal length of the main lens 311 and the microlens 312-i in the microlens array 312, and the position and size of the image sensor 313. . The correspondence between the positional deviation and the subject distance is obtained in advance by experiments and stored in the ROM 22 as a deviation distance table.

本実施形態ではズレ距離テーブルを用いてフィルタ処理を実行する。ズレ距離テーブルは予め実験により求められ、ROM22に記憶されている。ズレ距離テーブルは、所定範囲の距離を示すレベル(LV)と、そのレベルに属するズレ係数(画像ズレ係数及び画素ズレ係数)と、そのレベルに属する再構成面までの距離と、を対応付けて記憶している。   In the present embodiment, filter processing is executed using a deviation distance table. The deviation distance table is obtained in advance by experiments and stored in the ROM 22. The deviation distance table associates a level (LV) indicating a distance within a predetermined range, a deviation coefficient (image deviation coefficient and pixel deviation coefficient) belonging to that level, and a distance to a reconstruction plane belonging to that level. I remember it.

フィルタ処理部733は、画素ズレ係数が属するレベルと、再構成面までの距離が属するレベルと、の差をズレ距離テーブルを用いて算出する。差が0である画素は再構成面に十分近い距離にある被写体に対応するとの推定の元、フィルタ処理を実行しない。即ち、ボケは付加されない。一方、その差が1以上あれば、その画素の被写体は再構成面とずれているため、ボケを付加する。差が大きくなればなるほど、強いボケを付加するようにフィルタ処理を実行する。   The filter processing unit 733 calculates the difference between the level to which the pixel deviation coefficient belongs and the level to which the distance to the reconstruction plane belongs using a deviation distance table. The filter processing is not executed based on the assumption that the pixel having a difference of 0 corresponds to a subject that is sufficiently close to the reconstruction plane. That is, no blur is added. On the other hand, if the difference is 1 or more, the subject of the pixel is deviated from the reconstruction plane, so blur is added. As the difference becomes larger, the filtering process is executed so as to add stronger blur.

画像ズレ係数算出部734は、図10のズレ値算出部722と同様に注目サブ画像の画像ズレ係数を算出する。ただし、画像ズレ係数算出部734は、横方向と縦方向両方に画像ズレ係数を算出した後、両者を平均して注目画像の画像ズレ係数とする。また、画像ズレ係数に応じて、部分領域の画像を再構成画像に配置する際の間隔を決定する。配置間隔は、画像ズレ係数と、撮像設定情報に含まれるメインレンズ311の焦点距離と、マイクロレンズアレイ312内のマイクロレンズ312−iの焦点距離と、撮像素子313の置かれた位置と、再構成設定に含まれる再構成面までの距離によって定まる。
遠くにある被写体ほどマイクロレンズ毎の見込み角度の差が小さくなるためサブ画像内での移動も小さい。これに従い配置間隔を小さくする。逆に近くにある被写体ほどマイク_ロレンズ毎の見込み角度の差が大きくなるためサブ画像内での移動も大きい。これに従い配置間隔を大きくする。
The image deviation coefficient calculation unit 734 calculates the image deviation coefficient of the target sub-image in the same manner as the deviation value calculation unit 722 in FIG. However, the image deviation coefficient calculation unit 734 calculates the image deviation coefficient in both the horizontal direction and the vertical direction, and then averages both to obtain the image deviation coefficient of the target image. In addition, the interval at which the partial area image is arranged in the reconstructed image is determined according to the image shift coefficient. The arrangement interval includes the image shift coefficient, the focal length of the main lens 311 included in the imaging setting information, the focal length of the microlens 312-i in the microlens array 312, the position where the imaging element 313 is placed, It is determined by the distance to the reconstruction surface included in the configuration settings.
The farther away the subject, the smaller the expected angle difference for each microlens, so the movement within the sub-image is also small. Accordingly, the arrangement interval is reduced. Conversely, the closer the subject, the greater the difference in the expected angle for each microphone_lens, so the movement within the sub-image is also greater. Accordingly, the arrangement interval is increased.

本実施形態では、メインレンズ311の焦点距離と、再構成面までの距離と、画像ズレ係数とをインデックスとして配置間隔を定めたROM22に記憶されたテーブル(配置間隔テーブル)を用いて決定するものとする。
配置間隔テーブルは、固定パラメータであるマイクロレンズアレイ312内のマイクロレンズ312−iの焦点距離と、撮像素子313の置かれた位置と、に応じて、画像ズレ係数と、再構成面までの距離と、メインレンズ311の焦点距離と、のそれぞれの値に対して実験により求めた好適な配置間隔の値を定義している。
なお、配置間隔は、上記パラメータを変数とするROM22に記憶された予め実験により定めた方程式により求めても良い。
In the present embodiment, a determination is made using a table (arrangement interval table) stored in the ROM 22 in which the arrangement interval is determined using the focal length of the main lens 311, the distance to the reconstruction surface, and the image shift coefficient as indexes. And
The arrangement interval table has an image shift coefficient and a distance to the reconstruction surface according to the focal length of the microlens 312-i in the microlens array 312, which is a fixed parameter, and the position where the image sensor 313 is placed. And a suitable arrangement interval value obtained by experiment for each value of the focal length of the main lens 311 is defined.
The arrangement interval may be obtained from an equation determined in advance stored in the ROM 22 using the above parameters as variables.

部分領域定義部735は、図10(b)の領域定義テーブルから画像ズレ係数に合致する部分領域の大きさを取得し、注目サブ画像のボケ強度の大きさに基づいて大きさを補正する。
注目画像のボケ強度は、注目サブ画像全体がどの程度再構成面からずれており、その部分をぼかして表示すべきかを定める係数である。ここでは、前述のズレ距離テーブルが定める画像ズレ係数のレベルと、再構成面までの距離のレベルと、の差をボケ強度とする。
The partial area definition unit 735 acquires the size of the partial area that matches the image deviation coefficient from the area definition table of FIG. 10B, and corrects the size based on the magnitude of the blur intensity of the sub image of interest.
The blur intensity of the target image is a coefficient that determines how much the entire target sub-image is deviated from the reconstruction plane and that portion should be displayed in a blurred manner. Here, the difference between the level of the image shift coefficient determined by the shift distance table described above and the level of the distance to the reconstruction surface is defined as the blur intensity.

補正後の部分領域の一辺は配置間隔よりも大きいものである。そのため、部分領域の画像が第3再構成画像に配置された際には配置画像同士の重なりが生ずる。重ねた部分については画素値を加算平均するから、重ねられる配置画像の枚数が多いほどボケが強くなる。そのため、ボケ強度が強ければ、部分領域の大きさが大きくなるように補正を実行する。   One side of the corrected partial region is larger than the arrangement interval. Therefore, when the partial region images are arranged in the third reconstructed image, the arrangement images overlap each other. Since the pixel values of the overlapped parts are averaged, the blurring becomes stronger as the number of arranged images to be overlapped increases. For this reason, if the blur intensity is strong, the correction is executed so that the size of the partial area becomes large.

画像配置部736は、部分領域の画像をリサイズせず、生成画像(第3再構成画像)に配置する。このとき、前に配置された部分領域の画像との間隔は、上記画像ズレ係数算出部734が求めた配置間隔に従う。このとき、配置した画像が重なるように配置間隔と部分領域の大きさが定められている。重なった部分については、重複して配置された画素の画素値を加算平均して生成画像の画素値とする。
サブ画像抽出部731〜画像配置部736は、LFIに含まれる全てのサブ画像について上記処理を実行して、第3再構成画像を生成する。
The image arrangement unit 736 arranges the partial region image in the generated image (third reconstructed image) without resizing the image. At this time, the interval between the previously arranged partial regions and the image follows the arrangement interval obtained by the image deviation coefficient calculation unit 734. At this time, the arrangement interval and the size of the partial area are determined so that the arranged images overlap. For the overlapped portion, the pixel values of the pixels arranged in an overlapping manner are added and averaged to obtain the pixel value of the generated image.
The sub image extraction unit 731 to the image arrangement unit 736 perform the above process on all the sub images included in the LFI to generate a third reconstructed image.

次に、第3再構成画像生成部730が実行する処理(画像生成処理3)について、図14及び図15を参照して説明する。
本画像生成部640(第3再構成画像生成部730)は、画像出力処理1(図6)のステップS109に至ると、図14に示す画像生成処理3を開始する。
Next, processing (image generation processing 3) executed by the third reconstructed image generation unit 730 will be described with reference to FIGS.
The main image generation unit 640 (third reconstructed image generation unit 730) starts image generation processing 3 shown in FIG. 14 when step S109 of the image output processing 1 (FIG. 6) is reached.

画像生成処理3では、まずk3をカウンタ変数として、サブ画像抽出部731がLFIのk3番目のサブ画像を注目サブ画像として抽出する(ステップS401)。   In the image generation process 3, first, the sub-image extraction unit 731 extracts the k3th sub-image of LFI as a target sub-image using k3 as a counter variable (step S401).

次に、注目サブ画像の各画素について、画素ズレ係数算出部732が上記のとおり画素ズレ係数を算出する(ステップS402)。   Next, for each pixel of the target sub-image, the pixel shift coefficient calculation unit 732 calculates the pixel shift coefficient as described above (step S402).

そして、注目サブ画像の各画素について、フィルタ処理部733がズレ距離テーブルを用いて画素ズレ係数と再構成距離との差(レベル差)を算出する(ステップS403)。   Then, for each pixel of the target sub-image, the filter processing unit 733 calculates a difference (level difference) between the pixel shift coefficient and the reconstruction distance using the shift distance table (step S403).

次に、再構成距離との差が所定以上ある(レベル差が0でない)画素について、ROM22に記憶された条件でレベル差に応じたフィルタ処理を実行する(ステップS404)。   Next, a filtering process corresponding to the level difference is executed under the conditions stored in the ROM 22 for the pixels having a difference from the reconstruction distance of a predetermined value or more (the level difference is not 0) (step S404).

次に、画像ズレ係数算出部734が、注目サブ画像の画像ズレ係数を取得する(ステップS405)。ステップS405では、図11のステップS302と同様に右隣について画像ズレ係数を取得した上で、下隣(無い場合は上)にも画像ズレ係数を取得し、両者の平均を注目サブ画像の画像ズレ係数とする。
計算量の増加と引き換えに縦方向と横方向と両方の位置ずれに基づいて画像ズレ係数を算出するので、図11のステップS302よりも正確にサブ画像の被写体距離を反映した画像ズレ係数となり、生成画像の画質が向上する。その他に画像ズレ係数の精度を向上する方法として、1方向についてより多いサブ画像について画像ズレ係数を計算することが考えられる。
なお、画像ズレ係数はステップS402で求めたサブ画像の各画素の画素ズレ係数を平均して求めてもよい。
Next, the image shift coefficient calculation unit 734 acquires the image shift coefficient of the target sub-image (step S405). In step S405, in the same manner as in step S302 of FIG. 11, the image deviation coefficient is acquired for the right neighbor, and the image deviation coefficient is also obtained for the lower neighbor (upper when there is no image). The deviation coefficient.
Since the image deviation coefficient is calculated based on the positional deviation in both the vertical direction and the horizontal direction in exchange for the increase in the calculation amount, the image deviation coefficient that reflects the subject distance of the sub-image more accurately than step S302 in FIG. The image quality of the generated image is improved. As another method for improving the accuracy of the image shift coefficient, it is conceivable to calculate the image shift coefficient for more sub-images in one direction.
Note that the image deviation coefficient may be obtained by averaging the pixel deviation coefficients of each pixel of the sub-image obtained in step S402.

次に、ステップS406において、画像ズレ係数算出部734は、画像ズレ係数と、メインレンズ311の焦点距離と、再構成面までの距離と、に応じた配置間隔の数値をROM22に記憶された配置間隔テーブルから読み出し、配置間隔として設定する。   Next, in step S <b> 406, the image deviation coefficient calculation unit 734 arranges numerical values of arrangement intervals corresponding to the image deviation coefficient, the focal length of the main lens 311, and the distance to the reconstruction surface, stored in the ROM 22. Read from the interval table and set as the arrangement interval.

次に、部分領域定義部735が、領域定義テーブルから画像ズレ係数に合致する部分領域の大きさ(L2×L2)を取得する。さらに、ボケ強度が大きくなれば部分領域が大きくなるように補正して、部分領域の大きさ(L2×L2)を決定する。そして、注目サブ画像の中央部のL2×L2の正方形の領域を、部分領域として定義する(ステップS407)。なお、L2は配置間隔よりも大きい。
図15(a)及び(b)の例では、S11とS12は画像ズレ係数が大きいので、部分領域が大きい。一方、S23は画像ズレ係数が小さく、部分領域が小さい。
Next, the partial area definition unit 735 acquires the size (L2 × L2) of the partial area that matches the image shift coefficient from the area definition table. Further, the correction is made so that the partial area increases as the blur intensity increases, and the size of the partial area (L2 × L2) is determined. Then, an L2 × L2 square area at the center of the target sub-image is defined as a partial area (step S407). Note that L2 is larger than the arrangement interval.
In the examples of FIGS. 15A and 15B, S 11 and S 12 have a large partial area because the image shift coefficient is large. On the other hand, S 23 is the image shift factors are small, partial region is small.

そして、部分領域の画像を、ステップS406で定めた配置間隔で生成画像である第3再構成画像に配置する(図15(c)、ステップS408)。ここでは、左右上下に反転して配置する。画像が重なるので、重なった部分については重なった分だけ加算平均して画素値を定める。図15(c)では、S11の部分領域の画像(横線の領域)とS12の部分領域の画像(縦線の領域)が重なっている。 Then, the partial region images are arranged in the third reconstructed image that is the generated image at the arrangement interval determined in step S406 (FIG. 15C, step S408). Here, they are arranged so as to be reversed left and right and up and down. Since the images overlap, the pixel values are determined by averaging the overlapped portions by the overlap. Figure 15 (c), the image of the partial region of the S 12 as the image of the partial region of the S 11 (region of horizontal lines) (region of the vertical line) is overlapped.

ステップS408で現在の注目サブ画像について対応領域に画像を配置すると、次に全サブ画像について上記処理が実行されたか判別する(ステップS409)。未処理のサブ画像が存在する場合(ステップS409;NO)、カウンタ変数k3をインクリメントし(ステップS410)、次の注目サブ画像についてステップS401から処理を繰り返す。   If an image is arranged in the corresponding region for the current sub image of interest in step S408, it is then determined whether the above processing has been executed for all sub images (step S409). If there is an unprocessed sub-image (step S409; NO), the counter variable k3 is incremented (step S410), and the processing from step S401 is repeated for the next target sub-image.

一方、すべてのサブ画像について上記処理済である場合は(ステップS409;YES)、完成した第3再構成画像を本画像として、画像生成処理3は終了する。   On the other hand, when all the sub-images have been processed (step S409; YES), the image generation process 3 ends with the completed third reconstructed image as the main image.

図6に戻って、本画像の生成が終わると、生成した本画像を記憶部80に記憶し(ステップS110)、画像出力処理1は終了する。   Returning to FIG. 6, when the generation of the main image is completed, the generated main image is stored in the storage unit 80 (step S110), and the image output process 1 ends.

画像生成処理3では、サブ画像ごとのボケ加工と、画素ごとのボケ加工がそれぞれ実行される。そのため、画素ごとの被写体距離推定に誤りが含まれていた場合でも、サブ画像ごとのボケ加工(重ね書きに)より平均化され、誤りの影響が緩和される。そのため、画質が高い本画像を生成できる。   In the image generation process 3, blur processing for each sub image and blur processing for each pixel are executed. For this reason, even if an error is included in the subject distance estimation for each pixel, it is averaged by blur processing (for overwriting) for each sub-image, and the influence of the error is mitigated. Therefore, a main image with high image quality can be generated.

以上説明したとおり、本実施形態のデジタルカメラ1は、確保できる計算時間と用途に合わせた複数の再構成画像生成手段を有する。そのため、ライブビュー、撮影後の確認、観賞用、といったさまざまな用途に合わせた好適な再構成画像を、好ましい速さで生成して表示することが出来る。このように、本実施形態のデジタルカメラ1は状況に合わせて必要十分な画質の再構成画像を十分な速さで表示できるため、ユーザにとって利便性が高い。   As described above, the digital camera 1 according to the present embodiment includes a plurality of reconstructed image generation units that can be secured in accordance with calculation time and usage. Therefore, it is possible to generate and display a reconstructed image suitable for various uses such as live view, confirmation after shooting, and ornamental use at a preferable speed. As described above, the digital camera 1 according to the present embodiment can display a reconstructed image having a necessary and sufficient image quality at a sufficient speed according to the situation, and thus is highly convenient for the user.

具体的には、第1再構成画像生成処理により、少ない計算量でLFIに含まれる全てのサブ画像の内容を含む再構成画像(第1再構成画像)を生成することが出来る。
そのため、ライブビューに使用するなど、通常の再構成画像生成処理(例えば特許文献1に例示されたような)には十分な計算量が確保できない場合でも、撮影準備のために使用できる再構成画像を特に高速に生成して表示することが出来る。また、サブ画像から一つずつ画素を抽出して並べた画像を使用する場合に比べて、画質が高い画像を生成できる。
Specifically, the first reconstructed image generation process can generate a reconstructed image (first reconstructed image) including the contents of all the sub-images included in the LFI with a small amount of calculation.
Therefore, a reconstructed image that can be used for shooting preparation even when a sufficient amount of calculation cannot be ensured for normal reconstructed image generation processing (eg, as exemplified in Patent Document 1) such as use in live view. Can be generated and displayed particularly fast. Also, it is possible to generate an image with higher image quality than when using an image in which pixels are extracted and arranged one by one from the sub-image.

また、第2再構成画像生成処理により、各サブ画像単位で被写体の距離に対応する係数に応じた、第1再構成画像よりも画質が高い再構成画像(第2再構成画像)を生成することが出来る。この処理の必要計算量は、第1再構成画像生成処理よりは多いが、通常の再構成画像生成処理(例えば特許文献1に例示されたような)よりは少ない。そのため、第1再構成画像よりも画質が高い再構成画像を、撮影後の確認用に高速に表示することが出来る。   In addition, by the second reconstructed image generation process, a reconstructed image (second reconstructed image) having higher image quality than the first reconstructed image is generated in accordance with the coefficient corresponding to the subject distance in each sub-image unit. I can do it. The necessary calculation amount of this process is larger than that of the first reconstructed image generation process, but is smaller than that of a normal reconstructed image generation process (for example, as exemplified in Patent Document 1). Therefore, a reconstructed image having higher image quality than the first reconstructed image can be displayed at high speed for confirmation after shooting.

さらに、第3再構成画像生成処理により、サブ画像単位のボケ加算処理と、画素単位のボケ加算処理と、を実行した画質の高い再構成画像(第3再構成画像)を生成できる。この処理の必要計算量は、第2再構成画像生成処理よりは多いが、通常の再構成画像生成処理(例えば特許文献1に例示されたような)よりは少ない。そのため、デジタルカメラ等の、CPUの処理速度が制限されるような端末で、画質が高い再構成画像を生成することができる。
また、第1〜第3再構成画像生成処理においてサブ画像毎に上下左右に反転して画像を配置することで、光学系の構成によりサブ画像毎に反転して撮影された像から、正しく配置した再構成画像を少ない計算量で生成することが出来る。
Further, the third reconstructed image generation process can generate a reconstructed image (third reconstructed image) with high image quality obtained by performing the blur addition process in units of sub-images and the blur addition process in units of pixels. The required calculation amount of this process is larger than that of the second reconstructed image generation process, but is smaller than that of a normal reconstructed image generation process (for example, as exemplified in Patent Document 1). Therefore, a reconstructed image with high image quality can be generated on a terminal such as a digital camera that limits the processing speed of the CPU.
Also, in the first to third reconstructed image generation processing, the image is inverted vertically and horizontally for each sub image, so that the image is correctly arranged from the image captured by being inverted for each sub image by the configuration of the optical system. The reconstructed image can be generated with a small amount of calculation.

また、本実施形態のデジタルカメラ1は、画像ズレ係数が大きいサブ画像についてより大きな部分領域を定義して、その部分領域の全体の情報が再構成画像に現れるように設定されている。
画像ズレ係数が大きいことは、注目サブ画像の被写体がメインレンズから近い位置にあり、隣のサブ画像では、対応するマイクロレンズの視差により見える位置が大きくずれていることを示す。ここでは中央部の被写体を、サブ画像を代表する被写体とする。
対応する被写体の位置がサブ画像間で大きくずれることは、隣接するサブ画像の部分領域をつなげて全体の画像を構成するに当たって情報の抜けを作らないために必要な部分領域の大きさが大きいことを意味する。そこで、本実施形態では画像ズレ係数が大きいほど部分領域を大きく取って生成画像の対応領域に配置して、生成画像に情報の抜けが生じないようにしている。また、画像ズレ係数が小さい画像については部分領域を小さくして、隣同士のサブ画像間に現れる情報の重複が、再構成画像上に過度に現れないようにしている。
本実施形態のデジタルカメラ1では、このような構成により高速に生成した再構成画像であっても、視差による位置ズレを考慮し、情報抜けや情報の重複の度合いを軽減することができる。
Further, the digital camera 1 of the present embodiment is set so that a larger partial area is defined for a sub-image having a large image deviation coefficient, and the entire information of the partial area appears in the reconstructed image.
A large image shift coefficient indicates that the subject of the target sub-image is close to the main lens, and that the position of the adjacent sub-image that is visible due to the parallax of the corresponding microlens is greatly shifted. Here, the subject in the center is a subject representing the sub-image.
When the position of the corresponding subject is greatly shifted between the sub-images, the size of the partial area required to prevent missing information when connecting the partial areas of adjacent sub-images to form the entire image is large. Means. Therefore, in the present embodiment, the larger the image deviation coefficient, the larger the partial region is arranged in the corresponding region of the generated image so that no information is lost in the generated image. In addition, for an image with a small image shift coefficient, the partial area is made small so that duplication of information appearing between adjacent sub-images does not appear excessively on the reconstructed image.
In the digital camera 1 of the present embodiment, even a reconstructed image generated at high speed with such a configuration can reduce the degree of information omission and information duplication in consideration of positional deviation due to parallax.

(実施形態2)
本発明の実施形態2について説明する。
本実施形態のデジタルカメラ1は、図2に示す物理構成を持つ。本実施形態のデジタルカメラ1は、実施形態1の対応する部位と比べて、CPU21がより高速であり、表示部35がより大きな解像度、例えばVGA(640×480画素)を持つ。その他の図2の各部は、実施形態1のデジタルカメラ1と同様である。
本実施形態のデジタルカメラ1では、表示部35が大きいので、実施形態1に記載した方法では画像の粗さが目立ってしまう。そこでCPU21が高速なことを利用して、より高精細で画質の高い、デジタルカメラ1の表示部35に表示するための再構成画像を作成する。
(Embodiment 2)
A second embodiment of the present invention will be described.
The digital camera 1 of this embodiment has a physical configuration shown in FIG. In the digital camera 1 of the present embodiment, the CPU 21 is faster and the display unit 35 has a higher resolution, for example, VGA (640 × 480 pixels), compared to the corresponding part of the first embodiment. 2 are the same as those of the digital camera 1 of the first embodiment.
In the digital camera 1 of the present embodiment, since the display unit 35 is large, the method described in the first embodiment makes the image roughness noticeable. Therefore, by utilizing the high speed of the CPU 21, a reconstructed image to be displayed on the display unit 35 of the digital camera 1 with higher definition and higher image quality is created.

本実施形態のデジタルカメラ1は、図5に示す機能構成を備える。
本実施形態では、ライブビュー画像生成部620は第2再構成画像生成部720であり、確認画像生成部630は第3再構成画像生成部730であり、本画像生成部640は第4再構成画像生成部である。その他の図5の各部は、実施形態1のデジタルカメラ1の対応する構成と同様である。
The digital camera 1 of this embodiment has a functional configuration shown in FIG.
In the present embodiment, the live view image generation unit 620 is the second reconstructed image generation unit 720, the confirmation image generation unit 630 is the third reconstructed image generation unit 730, and the main image generation unit 640 is the fourth reconstruction image. An image generation unit. The other units in FIG. 5 are the same as the corresponding configurations of the digital camera 1 of the first embodiment.

第2再構成画像生成部720と第3再構成画像生成部730とは、実施形態1の同名の部位と同様の構成を持つ。
第4再構成画像生成部は、後述する再構成画像生成処理を実行してLFIから再構成画像を生成し、記憶部80に生成した画像を伝達する。
The second reconstructed image generation unit 720 and the third reconstructed image generation unit 730 have the same configuration as the part having the same name in the first embodiment.
The fourth reconstructed image generation unit executes a reconstructed image generation process, which will be described later, generates a reconstructed image from the LFI, and transmits the generated image to the storage unit 80.

本実施形態のデジタルカメラ1が実行する処理について、フローチャートを参照して説明する。   Processing executed by the digital camera 1 of the present embodiment will be described with reference to a flowchart.

デジタルカメラ1は、電源を投入され、入力部50が撮影を準備する操作を受け取ると、図16に示す画像出力処理2を開始する。   When the digital camera 1 is turned on and the input unit 50 receives an operation to prepare for shooting, the digital camera 1 starts an image output process 2 shown in FIG.

画像出力処理2では、ステップS501からステップS502までを、図6の画像出力処理のステップS101からステップS102までと同様に実行する。   In the image output process 2, steps S501 to S502 are executed in the same manner as steps S101 to S102 of the image output process in FIG.

本実施形態では、ステップS503で画像生成処理2(図11)を実施形態1と同様に実行してライブビュー画像を生成する。   In the present embodiment, in step S503, the image generation process 2 (FIG. 11) is executed in the same manner as in the first embodiment to generate a live view image.

ステップS503でライブビュー画像の生成が終わると、デジタルカメラ1はステップS504からステップS505までを、図6の画像出力処理1のステップS104からステップS105までと同様に実行する。   When the generation of the live view image is completed in step S503, the digital camera 1 executes steps S504 to S505 in the same manner as steps S104 to S105 of the image output process 1 in FIG.

ステップS506では、図13の第3再構成画像生成部730である確認画像生成部630が、図14に示す画像生成処理3を、実施形態1と同様に実行して確認画像を生成する。   In step S506, the confirmation image generation unit 630 that is the third reconstructed image generation unit 730 in FIG. 13 executes the image generation processing 3 shown in FIG. 14 in the same manner as in the first embodiment to generate a confirmation image.

図16に戻って、ステップS506で確認画像の生成が終わると、デジタルカメラ1はステップS507を、図6の画像出力処理のステップS107と同様に実行する。   Returning to FIG. 16, when the generation of the confirmation image is completed in step S506, the digital camera 1 executes step S507 in the same manner as step S107 of the image output process of FIG.

ステップS508では、第4再構成画像生成部である本画像生成部640が、画像生成処理4を実行して本画像を生成する。
画像生成処理4は、ライトフィールド画像の画素値を、光線が通過してきたマイクロレンズ毎に重み付け加算することで画像再構成を行う。
In step S508, the main image generation unit 640 that is the fourth reconstructed image generation unit executes the image generation processing 4 to generate a main image.
The image generation process 4 performs image reconstruction by weighting and adding the pixel values of the light field image for each microlens through which the light beam has passed.

画像生成処理4は、次のような手順で再構成画像を生成する。
(1)再構成したい画素からの光線がメインレンズの主点を通過してマイクロレンズアレイに到達した位置を特定する。
(2)特定された位置を中心に再構成面に対応する再焦点距離に基づいた半径のメインレンズブラー領域(再構成したい画素からの光線が到達するマイクロレンズアレイ上の領域)を計算する。
(3)マイクロレンズアレイに含まれるマイクロレンズの内、一部又は全てがメインレンズブラー領域に含まれるマイクロレンズを特定する。
(4)特定されたマイクロレンズの内の一つを選択する。
(5)選択されたマイクロレンズとメインレンズブラー領域とが重なっている面積を計算し、これをマイクロレンズの面積で割って重み付け係数とする。
(6)再構成したい画素からの光線が、選択されたマイクロレンズによって結像される位置にある、サブ画像上に画素値を取得する。
(7)この取得された画素値に先の重み付け係数をかけたものを補正画素値とする。
(8)一部又は全てがメインレンズブラー領域に含まれるマイクロレンズの全てにわたって補正画素値を計算し総和を取る。
(9)補正画素値の総和を、重なり面積の総和で除算して再構成したい画像の画素値とする。
The image generation process 4 generates a reconstructed image in the following procedure.
(1) The position where the light beam from the pixel to be reconstructed passes through the main point of the main lens and reaches the microlens array is specified.
(2) A main lens blur area having a radius based on the refocus distance corresponding to the reconstruction plane with the specified position as the center (area on the microlens array where the light beam from the pixel to be reconstructed reaches) is calculated.
(3) A microlens in which some or all of the microlenses included in the microlens array are included in the main lens blur region is specified.
(4) Select one of the specified microlenses.
(5) The area where the selected microlens and the main lens blur region overlap is calculated and divided by the area of the microlens to obtain a weighting coefficient.
(6) A pixel value is acquired on a sub-image at a position where a light beam from a pixel to be reconstructed is imaged by the selected microlens.
(7) The corrected pixel value is obtained by multiplying the acquired pixel value by the above weighting coefficient.
(8) The correction pixel value is calculated over the entire microlens part or all of which is included in the main lens blur region, and the sum is obtained.
(9) Divide the sum of the corrected pixel values by the sum of the overlapping areas to obtain the pixel value of the image to be reconstructed.

ステップS508で本画像の生成が終わると、デジタルカメラ1はステップS509を、図6の画像出力処理のステップS110と同様に実行して、画像出力処理2を終了する。   When the generation of the main image is completed in step S508, the digital camera 1 executes step S509 in the same manner as step S110 of the image output process in FIG. 6, and ends the image output process 2.

以上説明したように、本実施形態のデジタルカメラ1では、実施形態1の確認画像と同等の画質でライブビュー画像を表示できる。また、実施形態1の本画像と同等の画質で確認画像を表示できる。   As described above, the digital camera 1 of the present embodiment can display a live view image with the same image quality as the confirmation image of the first embodiment. In addition, the confirmation image can be displayed with the same image quality as the main image of the first embodiment.

また、本実施形態の変形例として、ライブビュー画像を画像生成処理2に代わり画像生成処理1を用いて生成する構成が考えられる。
この構成によれば、もっとも生成速度が速いことが望まれるライブビュー画像については実施形態1と同様の少ない計算量で生成できる一方、確認画像と本画像については実施形態1よりも高い画質の画像とすることができる。
なお、本実施形態の第4再構成画像生成部はLFIから再構成画像を生成する既知の任意の処理(例えば特許文献1に例示された処理)を用いて再構成画像を生成するとしてもよい。
As a modification of the present embodiment, a configuration in which a live view image is generated using the image generation process 1 instead of the image generation process 2 is conceivable.
According to this configuration, a live view image that is desired to have the highest generation speed can be generated with the same amount of calculation as in the first embodiment, while a confirmation image and a main image have higher image quality than those in the first embodiment. It can be.
Note that the fourth reconstructed image generation unit of the present embodiment may generate a reconstructed image using any known process for generating a reconstructed image from the LFI (for example, the process exemplified in Patent Document 1). .

(第3実施形態)
本発明の実施形態3について説明する。
本実施形態のデジタルカメラ1は、図2に示す物理構成を持つ。本実施形態のデジタルカメラ1は、実施形態2の対応する部位と比べて、CPU21がより高速である。その他の図2の各部は、実施形態2のデジタルカメラ1と同様である。
(Third embodiment)
Embodiment 3 of the present invention will be described.
The digital camera 1 of this embodiment has a physical configuration shown in FIG. In the digital camera 1 of the present embodiment, the CPU 21 is faster than the corresponding part of the second embodiment. 2 are the same as those of the digital camera 1 according to the second embodiment.

実施形態1及び実施形態2においては、ライブビュー画像としてボケを含まない画像を表示した。実施形態3においては、CPU21がより高速であることを利用し、ライブビュー画像段階からボケを付加した画像を表示することを特徴とする。   In the first and second embodiments, an image that does not include blur is displayed as a live view image. The third embodiment is characterized in that an image to which blur is added from the live view image stage is displayed using the fact that the CPU 21 is faster.

本実施形態のデジタルカメラ1は、図5に示す機能構成を備える。
本実施形態では、ライブビュー画像生成部620は、図18に示す第5再構成画像生成部740である。その他の図5の各部は、実施形態2のデジタルカメラ1の対応する構成と同様である。
The digital camera 1 of this embodiment has a functional configuration shown in FIG.
In the present embodiment, the live view image generation unit 620 is the fifth reconstructed image generation unit 740 shown in FIG. Other parts in FIG. 5 are the same as the corresponding configurations of the digital camera 1 of the second embodiment.

第5再構成画像生成部740は、図13に示す第3再構成画像生成部730と比して、(1)画素ズレ係数算出部732とフィルタ処理部733に対応する部位が無い、(2)画像ズレ係数算出部734aが所定部位のサブ画像の画素ズレ係数を取得し、その平均値を全サブ画像のズレ係数として配置領域の大きさ・配置間隔を決定する、点が異なる。その他の部位は実施形態1の第3再構成画像生成部730の同名の部位と同様である。   Compared with the third reconstructed image generating unit 730 shown in FIG. 13, the fifth reconstructed image generating unit 740 has (1) no part corresponding to the pixel shift coefficient calculating unit 732 and the filter processing unit 733, (2 ) The difference is that the image deviation coefficient calculation unit 734a acquires the pixel deviation coefficient of the sub-image of the predetermined part, and determines the arrangement area size and arrangement interval using the average value as the deviation coefficient of all the sub-images. Other parts are the same as the parts having the same names in the third reconstructed image generation unit 730 of the first embodiment.

本実施形態のデジタルカメラ1が実行する処理について、フローチャートを参照して説明する。   Processing executed by the digital camera 1 of the present embodiment will be described with reference to a flowchart.

デジタルカメラ1は、電源を投入され、入力部50が撮影を準備する操作を受け取ると、図17に示す画像出力処理3を開始する。   When the digital camera 1 is turned on and the input unit 50 receives an operation to prepare for shooting, the digital camera 1 starts an image output process 3 shown in FIG.

画像出力処理3では、ステップS601からステップS602までを、実施形態1に係る図6の画像出力処理のステップS101からステップS102までと同様に実行する。   In the image output process 3, steps S601 to S602 are executed in the same manner as steps S101 to S102 of the image output process of FIG. 6 according to the first embodiment.

本実施形態では、ステップS603で画像生成処理5(図19)を実行してライブビュー画像を生成する。   In this embodiment, the image generation process 5 (FIG. 19) is executed in step S603 to generate a live view image.

画像生成処理5を、図19を参照して説明する。
画像生成処理5では、まず画像ズレ係数算出部734aが、LFIに含まれるサブ画像のうち、設定で定められた一部のサブ画像について画像ズレ係数を取得する(ステップS701)。ここで、「一部のサブ画像」から得られた画像ズレ係数が、LFI全体のずれ度合いを反映するように「一部」を設定する。具体的には、中央部の所定部位、角の4つのサブ画像、等が考えられる。
各サブ画像について画像ズレ係数を取得する方法は実施形態1に係る画像生成処理2(図11)のステップS302と同様である。
The image generation process 5 will be described with reference to FIG.
In the image generation process 5, first, the image deviation coefficient calculation unit 734a acquires image deviation coefficients for some of the sub-images determined by setting among the sub-images included in the LFI (step S701). Here, “part” is set so that the image shift coefficient obtained from “partial sub-image” reflects the degree of deviation of the entire LFI. Specifically, a predetermined portion at the center, four sub-images at the corner, and the like are conceivable.
The method for acquiring the image shift coefficient for each sub-image is the same as that in step S302 of the image generation process 2 (FIG. 11) according to the first embodiment.

次にステップS701で算出した一部のサブ画像の画像ズレ係数に基づいてLFI全体の画像ズレ係数とする。ここでは、算出した複数の画像ズレ係数を加算平均して、LFIに含まれるサブ画像全体のズレ係数として設定する(ステップS702)。   Next, based on the image shift coefficients of some of the sub-images calculated in step S701, the image shift coefficients of the entire LFI are set. Here, the calculated plurality of image deviation coefficients are averaged and set as the deviation coefficient of the entire sub-image included in the LFI (step S702).

そして、サブ画像全体のズレ係数に基づいて、予めROM22又は記憶部34に保存された条件に従って全てのサブ画像に適用される配置間隔と部分領域の大きさを算出する(ステップS703)。ズレ係数が大きくなると部分領域及び配置間隔も大きくなる。また、部分領域の大きさは配置間隔より大きい。ここでは、例えばサブ画像全体のズレ係数が10の場合には配置間隔を10画素に、部分領域の大きさを20画素×20画素とする。   Then, based on the deviation coefficient of the entire sub-image, the arrangement interval and the size of the partial area applied to all the sub-images are calculated according to the conditions stored in advance in the ROM 22 or the storage unit 34 (step S703). As the deviation coefficient increases, the partial areas and the arrangement interval also increase. The size of the partial area is larger than the arrangement interval. Here, for example, when the deviation coefficient of the entire sub-image is 10, the arrangement interval is 10 pixels, and the size of the partial area is 20 pixels × 20 pixels.

次に、k4をカウンタ変数として、サブ画像抽出部731がLFIのk4番目のサブ画像を注目サブ画像として抽出する(ステップS704)。   Next, using k4 as a counter variable, the sub-image extraction unit 731 extracts the k-th sub-image of the LFI as a target sub-image (step S704).

そして、部分領域定義部735が、図14のステップS407と同様に注目サブ画像の中央部にステップS703で求めた大きさの部分領域を定義する(ステップS705)。   Then, the partial region defining unit 735 defines the partial region having the size obtained in step S703 at the center of the target sub-image, similarly to step S407 in FIG. 14 (step S705).

さらに、画像配置部736が、図14のステップS408と同様に、ステップS703で求めた配置間隔で部分領域の画像を配置する(ステップS706)。このとき、画像は上下左右に反転して配置される。   Further, the image placement unit 736 places the images of the partial areas at the placement interval obtained in step S703, similarly to step S408 in FIG. 14 (step S706). At this time, the image is arranged upside down and horizontally.

そして、ステップS707で全てのサブ画像について画像を配置する処理を実行したか判別する。
未処理のサブ画像が残っている場合には(ステップS707;NO)、k4をインクリメント(ステップS708)してステップS704から処理を繰り返す。
一方、全てのサブ画像について処理が終了していた場合には(ステップS707;YES)、生成した画像をライブビュー画像として出力し、画像生成処理5は終了する。
図17に戻って、ステップS604からステップS609までを、実施形態2での図16のステップS504からステップS509までと同様に実行して、処理を終了する。
Then, in step S707, it is determined whether or not the processing for arranging images for all sub-images has been executed.
If an unprocessed sub-image remains (step S707; NO), k4 is incremented (step S708), and the processing is repeated from step S704.
On the other hand, when the processing has been completed for all the sub-images (step S707; YES), the generated image is output as a live view image, and the image generation processing 5 ends.
Returning to FIG. 17, steps S604 to S609 are executed in the same manner as steps S504 to S509 of FIG. 16 in the second embodiment, and the process is terminated.

以上説明したように、本実施形態のデジタルカメラ1によれば、ライブビュー画像の生成段階からボケを付加した画像を表示することができる。これによりユーザは容易に完成画像を予想できる。
また、ライブビュー画像の生成段階では画素ごとのズレ係数を算出する必要が無いため、ボケを付加するための必要計算量の増大が少ない。そのため、ボケを付加した画像を高速に生成することが出来る。
As described above, according to the digital camera 1 of the present embodiment, it is possible to display an image with blur added from the live view image generation stage. As a result, the user can easily predict the completed image.
In addition, since it is not necessary to calculate the shift coefficient for each pixel at the live view image generation stage, the amount of calculation required for adding blur is small. Therefore, an image with blur can be generated at high speed.

(第4実施形態)
本発明の実施形態4について説明する。
本実施形態のデジタルカメラ1は、図2に示す物理構成を持つ。デジタルカメラ1の各部の機能は、実施形態1のデジタルカメラ1と同様である。
(Fourth embodiment)
Embodiment 4 of the present invention will be described.
The digital camera 1 of this embodiment has a physical configuration shown in FIG. The function of each part of the digital camera 1 is the same as that of the digital camera 1 of the first embodiment.

実施形態1においては、画像生成処理2及び画像生成処理3において、全てのサブ画像について画像ズレ係数を算出した。また、実施形態3では画像生成処理5において、一部のサブ画像(中央部の所定部位又は角の4つのサブ画像、など)の画像ズレ係数を算出し、その加算平均を全体の画像ズレ係数として設定した。これに対して、本実施形態ではライブビュー画像を生成するに当たって一部のサブ画像について画像ズレ係数を算出し、算出結果からその他のサブ画像(画像ズレ係数の算出対象外)の画像ズレ係数を推定する。また、本実施形態は算出対象となるサブ画像を巡回的に選択することを特徴とする。   In the first embodiment, in the image generation process 2 and the image generation process 3, image shift coefficients are calculated for all sub-images. In the third embodiment, in the image generation process 5, image shift coefficients of some sub-images (four sub-images at a predetermined portion in the center or corners, etc.) are calculated, and the addition average is calculated as the total image shift coefficient. Set as. On the other hand, in the present embodiment, when generating a live view image, image shift coefficients are calculated for some sub-images, and image shift coefficients of other sub-images (not subject to image shift coefficient calculation) are calculated from the calculation results. presume. Further, the present embodiment is characterized in that a sub-image to be calculated is selected cyclically.

本実施形態のデジタルカメラ1は、図5に示す機能構成を備える。
本実施形態では、ライブビュー画像生成部620は第6再構成画像生成部750(図20)であり、確認画像生成部630は図13に示す第3再構成画像生成部730である。また、本画像生成部640は、実施形態2で説明した第4再構成画像生成部である。その他の図5の各部は、実施形態1のデジタルカメラ1の対応する構成と同様である。
The digital camera 1 of this embodiment has a functional configuration shown in FIG.
In the present embodiment, the live view image generation unit 620 is the sixth reconstructed image generation unit 750 (FIG. 20), and the confirmation image generation unit 630 is the third reconstructed image generation unit 730 shown in FIG. The main image generation unit 640 is the fourth reconstructed image generation unit described in the second embodiment. The other units in FIG. 5 are the same as the corresponding configurations of the digital camera 1 of the first embodiment.

図20の第6再構成画像生成部750は、画像ズレ係数算出部751と、画像ズレ係数推定部752と、サブ画像抽出部721と、部分領域定義部723と、配置画像生成部724と、画像配置部725と、出力部726と、から構成される。第6再構成画像生成部750は、図10(a)の第2再構成画像生成部720と比べて、ズレ値算出部722の代わりに画像ズレ係数算出部751と、画像ズレ係数推定部752と、を含む。その他の構成については第2再構成画像生成部720と同様である。   The sixth reconstructed image generation unit 750 in FIG. 20 includes an image deviation coefficient calculation unit 751, an image deviation coefficient estimation unit 752, a sub image extraction unit 721, a partial region definition unit 723, a layout image generation unit 724, An image arrangement unit 725 and an output unit 726 are included. The sixth reconstructed image generation unit 750 is different from the second reconstructed image generation unit 720 in FIG. 10A in that an image shift coefficient calculation unit 751 and an image shift coefficient estimation unit 752 instead of the shift value calculation unit 722. And including. Other configurations are the same as those of the second reconstructed image generation unit 720.

画像ズレ係数算出部751は、ライブビュー画像を生成する度に、ズレ係数の算出対象となるサブ画像(算出画像)を巡回的に選択する。そして、選択した算出画像について、画像ズレ係数を算出する。具体的には、サブ画像をn個のグループ(例えばn=2)にクラス分けする。そして、ライブビュー画像を順次生成するにあたって、注目グループ(算出画像を含むグループ)として、一ループ毎にグループを順に選択する。注目グループに属するサブ画像を算出画像とする。nの値は、予め設定され記憶部34に記憶されている。
画像ズレ係数の算出方法は、実施形態1のズレ値算出部722と同様である。
The image deviation coefficient calculation unit 751 cyclically selects a sub-image (calculated image) for which a deviation coefficient is to be calculated every time a live view image is generated. Then, an image shift coefficient is calculated for the selected calculated image. Specifically, the sub-images are classified into n groups (for example, n = 2). Then, when the live view images are sequentially generated, the groups are sequentially selected for each loop as the group of interest (the group including the calculated image). A sub-image belonging to the group of interest is a calculated image. The value of n is preset and stored in the storage unit 34.
The calculation method of the image deviation coefficient is the same as that of the deviation value calculation unit 722 of the first embodiment.

画像ズレ係数推定部752は、画像ズレ係数算出部751が算出した算出画像の画像ズレ係数を用いて、算出画像以外のサブ画像(推定画像)の画像ズレ係数を推定する。推定の具体的な方法は後述する。   The image deviation coefficient estimation unit 752 estimates the image deviation coefficient of a sub-image (estimated image) other than the calculated image, using the image deviation coefficient of the calculated image calculated by the image deviation coefficient calculation unit 751. A specific method of estimation will be described later.

本実施形態のデジタルカメラ1が実施する処理を、図21を参照して説明する。本実施形態のデジタルカメラ1は、電源を投入され、入力部50が撮影を準備する操作を受け取ると、図21に示す画像出力処理4を開始する。   Processing performed by the digital camera 1 of the present embodiment will be described with reference to FIG. When the digital camera 1 of the present embodiment is turned on and receives an operation for the input unit 50 to prepare for shooting, the image output process 4 shown in FIG. 21 is started.

画像出力処理4では、実施形態1で実行される画像出力処理1(図6)のステップS101及びステップS102と同様に、ステップS801及びステップS802を実行する。   In the image output process 4, steps S801 and S802 are executed in the same manner as in steps S101 and S102 of the image output process 1 (FIG. 6) executed in the first embodiment.

そして、ライブビュー画像生成部620(第6再構成画像生成部750)の画像ズレ係数算出部751がフレームフラグを更新する(ステップS803)。フレームフラグは、算出画像を算出するグループを選ぶためのフラグである。フレームフラグは最初1に設定され、ライブビュー画像を生成するループ(ステップS801〜S807)が一度回るごとに、1ずつ加算される。そして、設定されたグループ数nを超えると、1に戻る。その結果、例えばn=4の場合、フレームフラグは1、2、3,4、1、2、3,4,1…のように、1〜4までの数値が巡回的に設定される。   Then, the image shift coefficient calculation unit 751 of the live view image generation unit 620 (sixth reconstructed image generation unit 750) updates the frame flag (step S803). The frame flag is a flag for selecting a group for calculating a calculated image. The frame flag is initially set to 1, and is incremented by 1 each time the loop (steps S801 to S807) for generating a live view image is performed once. When the set number of groups n is exceeded, the number returns to 1. As a result, for example, when n = 4, the frame flags are cyclically set to numerical values 1 to 4 such as 1, 2, 3, 4, 1, 2, 3, 4, 1,.

ステップS803でフレームフラグを更新すると、画像ズレ係数算出部751が算出画像の画像ズレ係数を算出し、推定画像の画像ズレ係数を推定するための処理(ズレ係数推定処理)を開始する。   When the frame flag is updated in step S803, the image deviation coefficient calculation unit 751 calculates an image deviation coefficient of the calculated image, and starts processing for estimating the image deviation coefficient of the estimated image (deviation coefficient estimation processing).

ステップS804で実行されるズレ係数推定処理について、図22を参照して説明する。ズレ係数推定処理では、まず画像ズレ係数算出部751が、現在のフレームフラグに応じた算出画像を選択する(ステップS901)。   The deviation coefficient estimation process executed in step S804 will be described with reference to FIG. In the shift coefficient estimation process, first, the image shift coefficient calculation unit 751 selects a calculated image corresponding to the current frame flag (step S901).

ここで選択される算出画像の選択方法について、図23及び図24を用いて説明する。図23及び図24では、各サブ画像が正方形で表されている。例えば、サブ画像が2つのグループに分かれている場合(n=2)、図23の黒で示されたサブ画像と、白で示されたサブ画像の何れかが算出画像として選択される。例えば、フレームフラグが1である場合に黒、フレームフラグが2である場合には白のサブ画像が選択される。   A calculation image selection method selected here will be described with reference to FIGS. In FIGS. 23 and 24, each sub-image is represented by a square. For example, when the sub-images are divided into two groups (n = 2), one of the sub-image shown in black and the sub-image shown in white in FIG. 23 is selected as the calculated image. For example, a black sub-image is selected when the frame flag is 1, and a white sub-image is selected when the frame flag is 2.

あるいは、LFIをn個のサブ画像を含む領域に分割して、分割した領域内で巡回的に算出画像を選択してよい。例えばn=9である場合に、図24に示したように縦3個、横3個のサブ画像を含む領域(太線)に分割する。そして、領域内のサブ画像を1〜9までナンバリングする。例えば、図24のサブ画像a1〜a9は、一つ目の領域(a領域)の1〜9番目のサブ画像をそれぞれ意味する。そして、各領域(図24の例では、a領域〜l領域)から、現在のフレームフラグと一致する番号のサブ画像を一つ、算出画像として選択する。   Alternatively, the LFI may be divided into regions including n sub-images, and the calculated image may be selected cyclically within the divided regions. For example, when n = 9, as shown in FIG. 24, the image is divided into regions (thick lines) including three vertical and three horizontal sub-images. Then, the sub-images in the area are numbered from 1 to 9. For example, the sub images a1 to a9 in FIG. 24 mean the first to ninth sub images of the first region (region a), respectively. Then, one sub-image having a number that matches the current frame flag is selected as a calculated image from each region (region a to region l in the example of FIG. 24).

ステップS901で算出画像を選択すると、次に画像ズレ係数算出部751が算出画像から一つ注目サブ画像を選択する(ステップS902)。そして、画像ズレ係数算出部751が注目サブ画像について画像ズレ係数を算出する(ステップS903)。画像ズレ係数の算出方法は実施形態1と同じである。   When the calculated image is selected in step S901, the image deviation coefficient calculating unit 751 next selects one target sub-image from the calculated image (step S902). Then, the image shift coefficient calculation unit 751 calculates an image shift coefficient for the target sub-image (step S903). The method for calculating the image shift coefficient is the same as that in the first embodiment.

そして、画像ズレ係数算出部751は、注目サブ画像の画像ズレ係数の変化量が閾値以上であるか否か判定する(ステップS904)。ここでは、画像ズレ係数算出部751は、注目サブ画像について、前回のズレ係数推定処理で推定された画像ズレ係数と今回の処理で算出された画像ズレ係数との差分を、所定の閾値と比較する。この閾値は、予め実験により求められ、記憶部34に記憶されている。なお、nの数値が比較的少なく、前回算出した時刻との時間差が少ない場合(例えばn=2である場合)などには、最後に算出した画像ズレ係数に対する差分を、所定の閾値と比較してもよい。   Then, the image deviation coefficient calculation unit 751 determines whether or not the amount of change in the image deviation coefficient of the target sub-image is greater than or equal to a threshold value (step S904). Here, the image deviation coefficient calculation unit 751 compares the difference between the image deviation coefficient estimated in the previous deviation coefficient estimation process and the image deviation coefficient calculated in the current process with a predetermined threshold for the target sub-image. To do. This threshold value is obtained in advance by experiments and stored in the storage unit 34. When the numerical value of n is relatively small and the time difference from the previously calculated time is small (for example, when n = 2), the difference with respect to the last calculated image shift coefficient is compared with a predetermined threshold value. May be.

そして、比較の結果、変化量が閾値未満であった場合(ステップS904;NO)、画像ズレ係数算出部751は、注目サブ画像の変化フラグをOFFとする(ステップS905)。一方、変化量が閾値以上であった場合(ステップS904;YES)、画像ズレ係数算出部751は、注目サブ画像の変化フラグをONとする(ステップS906)。変化フラグは、各サブ画像に対応付けられた二値変数である。   If the change amount is less than the threshold value as a result of the comparison (step S904; NO), the image deviation coefficient calculation unit 751 turns off the change flag of the sub image of interest (step S905). On the other hand, when the amount of change is equal to or greater than the threshold (step S904; YES), the image deviation coefficient calculation unit 751 turns on the change flag of the target sub-image (step S906). The change flag is a binary variable associated with each sub-image.

変化フラグの設定を終えると、次に画像ズレ係数算出部751はステップS901で選択した全算出画像について画像ズレ係数を算出済みであるか判定する(ステップS907)。未処理の算出画像が有る場合は(ステップS907;NO)次の算出画像についてステップS902から処理を繰り返す。一方、全算出画像について処理済みである場合(ステップS907;YES)、ステップS908に移行する。   When the setting of the change flag is completed, the image deviation coefficient calculation unit 751 next determines whether image deviation coefficients have been calculated for all the calculated images selected in step S901 (step S907). If there is an unprocessed calculated image (step S907; NO), the process is repeated from step S902 on the next calculated image. On the other hand, if all the calculated images have been processed (step S907; YES), the process proceeds to step S908.

ステップS908では、算出画像以外の画像(推定画像)のうち、推定処理済みで無いサブ画像を一つ注目画像として選択する(ステップS908)。   In step S908, one sub-image that has not been subjected to estimation processing among images other than the calculated image (estimated image) is selected as a target image (step S908).

そして、周辺の算出画像(周辺画像)の変化フラグをチェックし、画像ズレ係数が変化したか否か判定する(ステップS909)。例えば、n=2の場合、注目画像の上下左右に隣接する算出画像のうち、変化フラグがONである画像が所定の数(例えば2つ以上)ある場合に周辺画像に変化ありと決定する(ステップS909;YES)。このとき、変化フラグがONである画像が全て同方向(たとえば、ズレ係数が増加する方向)に変化していた場合に、その変化が信用できると判定して変化ありと決定し、異なる方向に変化している場合には信用できないと判定して、変化なしと決定しても良い。nが2より大きい場合には、注目画像から近い順にm個(例えばm=4)の算出画像を選択して、同様に変化フラグを参照する。   Then, the change flag of the peripheral calculated image (peripheral image) is checked to determine whether or not the image shift coefficient has changed (step S909). For example, in the case of n = 2, it is determined that there is a change in the peripheral image when there is a predetermined number (for example, two or more) of images whose change flag is ON among calculated images adjacent to the target image in the upper, lower, left, and right directions ( Step S909; YES). At this time, if all the images whose change flag is ON have changed in the same direction (for example, the direction in which the deviation coefficient increases), it is determined that the change is reliable and it is determined that there is a change. If it has changed, it may be determined that it is not reliable and it may be determined that there is no change. When n is larger than 2, m (for example, m = 4) calculated images are selected in order from the target image, and the change flag is similarly referred to.

変化ありと決定された場合は(ステップS909;YES)、最も近い算出画像の画像ズレ係数を、注目画像の画像ズレ係数と推定する(ステップS910)。なお、このときステップS909で参照した算出画像の画像ズレ係数を加算平均した数値を推定値としても良い。   When it is determined that there is a change (step S909; YES), the image deviation coefficient of the closest calculated image is estimated as the image deviation coefficient of the target image (step S910). At this time, a numerical value obtained by adding and averaging the image shift coefficients of the calculated image referred to in step S909 may be used as the estimated value.

一方、周辺画像に変化が無いと決定すると(ステップS909;NO)、ステップS910をスキップする。その結果、前回までのループで設定された画像ズレ係数が更新されないままその後の処理で使用される。そして、全推定画像について、上記処理を終了したか判定し(ステップS911)、未処理の推定画像が有る場合には(ステップS911;NO)次の推定画像についてステップS908から処理を繰り返す。一方、全推定画像が処理済であれば(ステップS911;YES)ズレ係数推定処理は終了する。   On the other hand, if it is determined that there is no change in the peripheral image (step S909; NO), step S910 is skipped. As a result, the image shift coefficient set in the previous loop is used in subsequent processing without being updated. Then, it is determined whether or not the above processing has been completed for all estimated images (step S911). If there is an unprocessed estimated image (step S911; NO), the processing is repeated from step S908 on the next estimated image. On the other hand, if all estimated images have been processed (step S911; YES), the deviation coefficient estimation process ends.

なお、ここでは周辺画像が変化ありと判定した場合に、周辺の算出画像の画像ズレ係数を推定画像の画像ズレ係数と推定する処理について説明した。その他の推定方法として、周辺の算出画像の変化量を、算出画像からの距離に応じて振り分ける方法を適用しても良い。振り分けの具体例を図25に示す。図25は、太線で示した算出画像について、前回算出値(又は前回推定値)に対して最新の算出値が異なった(左側の算出画像について+3、右側の算出画像について+1)の例を示す。画像ズレ係数の差に、算出画像から遠いほど小さくなる重みを乗算して推定画像(点線の正方形)の前回のループ処理で設定された画像ズレ係数に加算し、加算結果を推定結果とする。
なお、図25において、矢印が振り分け(加算)の方向を、矢印上の数値が振り分けられた数を、それぞれ示す。ここでは、算出画像の上下左右及び斜めに隣接する推定画像には算出画像の差の2/3を、その隣の推定画像に3/1を、それぞれ振り分けている。
Here, the process of estimating the image deviation coefficient of the surrounding calculated image as the image deviation coefficient of the estimated image when it is determined that the surrounding image has changed has been described. As another estimation method, a method of distributing the amount of change in the surrounding calculated image according to the distance from the calculated image may be applied. A specific example of distribution is shown in FIG. FIG. 25 shows an example in which the latest calculated value is different from the previous calculated value (or the previous estimated value) (+3 for the left calculated image and +1 for the right calculated image) for the calculated image indicated by the bold line. . The difference between the image misalignment coefficients is multiplied by a weight that decreases with distance from the calculated image and added to the image misalignment coefficient set in the previous loop processing of the estimated image (dotted square), and the addition result is used as the estimation result.
In FIG. 25, the arrow indicates the direction of distribution (addition), and the number of numerical values on the arrow is allocated. Here, 2/3 of the difference between the calculated images is assigned to estimated images adjacent to the calculated image vertically and horizontally and diagonally, and 3/1 is assigned to the estimated image adjacent thereto.

他の推定方法として、算出画像の画像ズレ係数を用いた3次元補間処理によって、推定画像の画像ズレ係数を設定しても良い。   As another estimation method, the image deviation coefficient of the estimated image may be set by three-dimensional interpolation processing using the image deviation coefficient of the calculated image.

図21に戻って、ステップS804で全サブ画像について画像ズレ係数を設定すると、サブ画像抽出部721が設定した画像ズレ係数を用いて図11に示す画像生成処理2を開始する(ステップS805)。画像生成処理2においては、ステップS302において画像ズレ係数推定処理で設定された画像係数を取得する以外は、実施形態1と同様に各ステップを実行する。   Returning to FIG. 21, when image shift coefficients are set for all sub-images in step S804, the image generation process 2 shown in FIG. 11 is started using the image shift coefficients set by the sub-image extraction unit 721 (step S805). In the image generation process 2, each step is executed in the same manner as in the first embodiment except that the image coefficient set in the image shift coefficient estimation process in step S302 is acquired.

画像生成処理2によってライブビュー画像を生成すると、生成した画像を表示部70が表示する(ステップS806)。そして、入力部50が撮像操作を検出したか判別する(ステップS807)。   When the live view image is generated by the image generation process 2, the display unit 70 displays the generated image (step S806). And it is discriminate | determined whether the input part 50 detected imaging operation (step S807).

判別の結果、撮像操作を検出しなかった場合は(ステップS807;NO)、ステップS801に戻ってライブビュー画像の生成を続ける。一方、撮像操作を検出した場合は(ステップS807;YES)、確認画像生成部630(第3再構成画像生成部730)は、図14の画像生成処理3によって確認画像を生成する(ステップS808)。この場合、画像生成処理3においては、全てのサブ画像について画像ズレ係数を算出しても良いし、最後のズレ係数推定処理(ステップS804)で設定した画像ズレ係数を用いても良い。あるいは、ライブビュー画像を生成する処理と同様に、サブ画像を算出画像と推定画像に分けて推定処理を実行しても良い。このとき、サブ画像全体に占める算出画像の割合を、ライブビュー画像よりも増やす事で推定精度を上昇させる事が出来る。   As a result of the determination, if an imaging operation is not detected (step S807; NO), the process returns to step S801 and continues to generate a live view image. On the other hand, when an imaging operation is detected (step S807; YES), the confirmation image generation unit 630 (third reconstructed image generation unit 730) generates a confirmation image by the image generation processing 3 of FIG. 14 (step S808). . In this case, in the image generation process 3, the image deviation coefficient may be calculated for all the sub-images, or the image deviation coefficient set in the last deviation coefficient estimation process (step S804) may be used. Or similarly to the process which produces | generates a live view image, you may divide a sub image into a calculation image and an estimated image, and may perform an estimation process. At this time, it is possible to increase the estimation accuracy by increasing the ratio of the calculated image in the entire sub image as compared with the live view image.

以下、生成した確認画像を表示し(ステップS809)、実施形態3と同様に画像生成処理4によって本画像を生成する(ステップS810)。そして、生成した本画像を記録して(ステップS811)、画像出力処理4を終了する。   Subsequently, the generated confirmation image is displayed (step S809), and the main image is generated by the image generation process 4 as in the third embodiment (step S810). Then, the generated main image is recorded (step S811), and the image output process 4 ends.

以上説明したように、本実施形態のデジタルカメラ1によると、画像生成処理2のような各サブ画像の画像ズレ係数を必要とする処理において、画像ズレ係数の算出を全ての画像について実行する必要が無い。必要計算量が大きい画像ズレ係数の算出を制限できるので、高画質な画像を生成するにあたって、必要な計算量が軽減される。
その結果、計算処理に必要な電力も低減される。よって、デジタルカメラ1の駆動時間及び撮影枚数を増大させることが出来る。
As described above, according to the digital camera 1 of the present embodiment, it is necessary to calculate the image shift coefficient for all images in the process that requires the image shift coefficient of each sub-image, such as the image generation process 2. There is no. Since the calculation of the image shift coefficient having a large necessary calculation amount can be limited, the calculation amount necessary for generating a high-quality image is reduced.
As a result, the power required for the calculation process is also reduced. Therefore, the driving time of the digital camera 1 and the number of shots can be increased.

また、ライブビュー画像を生成するにあたっては、算出画像を巡回的に選択する。算出画像を固定した場合は、算出画像の被写体が他の被写体と異なる場合や、算出画像にノイズが発生していた場合に、その不具合が常に画像上に現れてしまう。本実施形態では、算出画像は一度の生成処理毎に変更されるので、一部のサブ画像に不具合があってもその影響を緩和することが出来る。また、長期的に見れば全部のサブ画像について画像ズレ計数を算出しているので、ライブビュー画像が被写体全体の傾向を加味した画像となる。   In addition, when generating a live view image, a calculated image is selected cyclically. When the calculated image is fixed, the defect always appears on the image when the subject of the calculated image is different from other subjects or when noise is generated in the calculated image. In the present embodiment, since the calculated image is changed for each generation process, even if some of the sub-images are defective, the influence can be reduced. In addition, since the image deviation count is calculated for all the sub-images in the long term, the live view image is an image that takes into account the tendency of the entire subject.

なお、本実施形態ではライブビュー画像生成部620が、図20のズレ係数推定処理によって算出又は推定した画像ズレ係数を用いて、画像生成処理2によってライブビュー画像を生成した。これに限られず、ズレ係数推定処理は画像ズレ係数を用いて再構成画像を生成する任意の処理(画像生成処理3,画像生成処理5等)に応用できる。例えば、ライブビュー画像生成部620がズレ係数推定処理と画像生成処理3とによって画像生成を実行してもよい。また、ライブビュー画像生成部620に限らず、確認画像生成部630又は本画像生成部640についても、画像ズレ係数を用いて再構成画像を生成する構成を採用した場合には本実施形態のズレ係数推定処理を用いることが出来る。   In this embodiment, the live view image generation unit 620 generates a live view image by the image generation process 2 using the image shift coefficient calculated or estimated by the shift coefficient estimation process of FIG. However, the present invention is not limited to this, and the shift coefficient estimation process can be applied to any process (image generation process 3, image generation process 5, etc.) that generates a reconstructed image using an image shift coefficient. For example, the live view image generation unit 620 may execute image generation by the deviation coefficient estimation processing and the image generation processing 3. Further, not only the live view image generation unit 620 but also the confirmation image generation unit 630 or the main image generation unit 640 adopts a configuration in which a reconstructed image is generated using an image shift coefficient. A coefficient estimation process can be used.

以上、本発明の実施形態1乃至4について説明したが、本発明の実施形態はこれに限られず、さまざまな変形が可能である。   As mentioned above, although Embodiment 1 thru | or 4 of this invention was demonstrated, embodiment of this invention is not restricted to this, A various deformation | transformation is possible.

例えば、上記実施例では、画像をグレースケール画像であるとして説明したが、本発明の処理対象となる画像はグレースケール画像に限らない。例えば、画像は各画素にR(レッド)、G(グリーン)、B(ブルー)、の三つの画素値が定義されたRGB画像であってよい。この場合、画素値をRGBのベクトル値として同様に処理する。また、R、G、B、の各値をそれぞれ独立したグレースケール画像として、それぞれ上記処理を行っても良い。この構成によれば、カラー画像であるライトフィールド画像からカラー画像である再構成画像を生成できる。   For example, in the above embodiment, the image is described as a grayscale image, but the image to be processed according to the present invention is not limited to a grayscale image. For example, the image may be an RGB image in which three pixel values of R (red), G (green), and B (blue) are defined for each pixel. In this case, the pixel value is similarly processed as an RGB vector value. Alternatively, the above processing may be performed using each of R, G, and B values as independent grayscale images. According to this configuration, a reconstructed image that is a color image can be generated from a light field image that is a color image.

また、再焦点距離(再構成面までの距離に対応)の設定は、マニュアル操作で設定しても良いし、焦点を合わせたい被写体までの距離を測定して設定しても良い。さらに、再構成画像の表示後にタッチパネルなどにより焦点を合わせたい被写体を選択し直して、再焦点距離を再設定するようにしても良い。   The refocus distance (corresponding to the distance to the reconstruction surface) may be set manually or by measuring the distance to the subject to be focused. Furthermore, after the reconstructed image is displayed, the subject to be focused on may be selected again using a touch panel or the like, and the refocus distance may be reset.

また、メインレンズ結像面MAがマイクロレンズアレイよりメインレンズ側に存在する場合について説明したが、本発明の光学系の構成はこれに限らない。
例えば、その他の設計は同じで、メインレンズ結像面MAはマイクロレンズアレイより後ろにあってもよい。この場合、配置用画像を生成画像に配置する場合に、上下左右に反転せずそのまま配置する。
また、マイクロレンズの結像面が撮像素子よりマイクロレンズ側にある場合も考えられる。この場合は、そうでない場合を基礎として、さらに上下左右に反転させて配置画像を生成画像に配置することとなる。
Further, although the case where the main lens imaging surface MA exists on the main lens side from the micro lens array has been described, the configuration of the optical system of the present invention is not limited to this.
For example, the other designs are the same, and the main lens imaging surface MA may be behind the microlens array. In this case, when the arrangement image is arranged in the generated image, the arrangement image is arranged as it is without being inverted vertically and horizontally.
In addition, there may be a case where the imaging surface of the microlens is on the microlens side of the imaging element. In this case, on the basis of the case other than that, the arrangement image is arranged in the generated image by being further inverted vertically and horizontally.

また、ライブビュー画像生成処理と確認画像生成処理と本画像生成処理は、上記の組み合わせに限らない。本発明では、ライブビュー画像生成処理の必要計算量が確認画像生成処理以下であり、本画像生成処理が確認画像生成処理よりも必要計算量が大きいという条件で任意に上記処理の組み合わせを選択することが出来る。
例えば、ライブビュー画像生成処理と確認画像生成処理が上記画像生成処理1であって、本画像生成処理が画像生成処理3又は4であってもよい。さらに、ライブビュー画像生成処理と確認画像生成処理が画像生成処理2であり、本画像生成処理が画像生成処理3又は4という組み合わせも可能である。
Further, the live view image generation process, the confirmation image generation process, and the main image generation process are not limited to the above combinations. In the present invention, the combination of the above processes is arbitrarily selected under the condition that the necessary calculation amount of the live view image generation process is equal to or less than the confirmation image generation process, and the main image generation process requires a larger calculation amount than the confirmation image generation process. I can do it.
For example, the live view image generation process and the confirmation image generation process may be the image generation process 1, and the main image generation process may be the image generation process 3 or 4. Further, the live view image generation process and the confirmation image generation process are the image generation process 2, and the main image generation process can be combined with the image generation process 3 or 4.

また、ライブビュー画像生成処理と確認画像生成処理とで、同じ種類の画像生成処理を採用し、その処理の中で計算量を調節しても良い。例えば、ライブビュー画像生成処理と確認画像生成処理が画像生成処理2である場合に、ライブビュー画像生成処理では画像ズレ係数を一方向のみで計算し、確認画像生成処理では画像ズレ係数を縦と横の二方向で計算することで、確認画像について画像ズレ係数の精度を向上させるという構成が可能である。
あるいは、画像ズレ係数を計算するための領域を、確認画像生成処理についてはライブビュー生成処理よりも大きく取ることにより、画像ズレ係数の精度を向上させる構成も可能である。
Further, the same type of image generation processing may be adopted in the live view image generation processing and the confirmation image generation processing, and the calculation amount may be adjusted in the processing. For example, when the live view image generation process and the confirmation image generation process are the image generation process 2, the live view image generation process calculates the image deviation coefficient in only one direction, and the confirmation image generation process sets the image deviation coefficient to be vertical. By calculating in the two horizontal directions, it is possible to improve the accuracy of the image shift coefficient for the confirmation image.
Alternatively, it is also possible to improve the accuracy of the image shift coefficient by taking a larger area for calculating the image shift coefficient than the live view generation process for the confirmation image generation process.

このような構成により、CPUの速度に合わせて、最も高速に表示すべきライブビュー画像を最も必要計算量が少ない処理を用いて高速に表示することができる。また、確認画像を少なくともライブビュー画像と同等の画質で、設定によってはより高い画質で、十分に早く表示することが出来る。また、本画像についてはより高画質な画像とすることが出来る。このように、必要な表示速度に応じて画像生成処理を使い分けることにより、ユーザにとって利便性が高いデジタルカメラを提供できる。   With such a configuration, it is possible to display a live view image to be displayed at the highest speed in accordance with the speed of the CPU, using a process with the least amount of calculation, at a high speed. In addition, the confirmation image can be displayed sufficiently quickly with at least the same image quality as the live view image and with higher image quality depending on the setting. In addition, the main image can be a higher quality image. As described above, a digital camera that is highly convenient for the user can be provided by properly using the image generation processing according to the required display speed.

その他、前記のハードウェア構成やフローチャートは一例であり、任意に変更および修正が可能である。   In addition, the hardware configuration and the flowchart described above are merely examples, and can be arbitrarily changed and modified.

CPU21、ROM22、RAM23、などから構成される画像生成のための処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROMなど)に格納して配布し、前記コンピュータプログラムをコンピュータにインストールし、上記画像生成処理を実行する部分を構成してもよい。また、インターネットなどの通信ネットワーク上のサーバ装置が有する記憶装置に前記コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロードなどすることで上記画像生成処理を実行する部分を構成してもよい。   A central part that performs processing for image generation including the CPU 21, the ROM 22, the RAM 23, and the like can be realized by using a normal computer system without depending on a dedicated system. For example, a computer program for executing the above operation is stored and distributed in a computer-readable recording medium (flexible disk, CD-ROM, DVD-ROM, etc.), and the computer program is installed in the computer. You may comprise the part which performs the said image generation process. Alternatively, the computer program may be stored in a storage device included in a server device on a communication network such as the Internet, and a part that executes the image generation processing by downloading or the like using a normal computer system may be configured.

上記画像生成処理を実行する部分の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。   When the function of the part that executes the image generation processing is realized by sharing of an OS (operating system) and an application program, or by cooperation of the OS and the application program, only the application program part is recorded on a recording medium or a storage device. May be stored.

また、コンピュータプログラムを、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。   It is also possible to distribute the computer program via a communication network. For example, the computer program may be posted on a bulletin board (BBS: Bulletin Board System) on a communication network, and the computer program may be distributed via the network. The computer program may be started and executed in the same manner as other application programs under the control of the OS, so that the above-described processing may be executed.

以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to the specific embodiment which concerns, This invention includes the invention described in the claim, and its equivalent range It is. Hereinafter, the invention described in the scope of claims of the present application will be appended.

(付記1)
被写体を複数の視点から見た複数の副画像が整列した多視点画像を取得する取得部と、
前記多視点画像に含まれる副画像の所定範囲から、部分画像を抽出する抽出部と、
前記部分画像を、当該部分画像に対応する副画像の並び順に配置して再構成画像を生成する生成部と、
を備えたことを特徴とする画像処理装置。
(Appendix 1)
An acquisition unit for acquiring a multi-viewpoint image in which a plurality of sub-images obtained by viewing a subject from a plurality of viewpoints are aligned;
An extraction unit that extracts a partial image from a predetermined range of sub-images included in the multi-viewpoint image;
A generation unit configured to generate the reconstructed image by arranging the partial images in the arrangement order of the sub-images corresponding to the partial images;
An image processing apparatus comprising:

(付記2)
前記生成部は、前記部分画像をそれぞれ点対象に反転して配置して前記再構成画像を生成する、
ことを特徴とする付記1に記載の画像処理装置。
(Appendix 2)
The generation unit generates the reconstructed image by inverting and arranging the partial images as point targets,
The image processing apparatus according to appendix 1, wherein:

(付記3)
前記複数の副画像ごとに、当該副画像の所定部位について、当該所定部位の当該副画像における位置と、当該所定部位の被写体が当該副画像から所定範囲にある他の副画像に映る位置と、の位置のズレを示す画像ズレ係数を取得するズレ取得部をさらに備え、
前記抽出部は、前記ズレ取得部が取得した画像ズレ係数が大きいほど、当該副画像のより大きい範囲から部分画像を抽出する、
ことを特徴とする付記1又は2に記載の画像処理装置。
(Appendix 3)
For each of the plurality of sub-images, for a predetermined portion of the sub-image, the position of the predetermined portion in the sub-image, and the position where the subject of the predetermined portion appears in another sub-image within a predetermined range from the sub-image, A displacement acquisition unit for acquiring an image displacement coefficient indicating the displacement of the position of
The extraction unit extracts a partial image from a larger range of the sub-image as the image deviation coefficient acquired by the deviation acquisition unit is larger.
The image processing apparatus according to appendix 1 or 2, characterized in that:

(付記4)
前記ズレ取得部は、前記複数の副画像から選択した算出対象の副画像について前記画像ズレ係数を算出し、当該算出した画像ズレ係数に基づいて当該算出対象以外の副画像について前記画像ズレ係数を推定する、
ことを特徴とする付記3に記載の画像処理装置。
(Appendix 4)
The shift acquisition unit calculates the image shift coefficient for a calculation target sub-image selected from the plurality of sub-images, and calculates the image shift coefficient for sub-images other than the calculation target based on the calculated image shift coefficient. presume,
The image processing apparatus according to appendix 3, characterized in that:

(付記5)
前記取得部は前記多視点画像を順次取得し、
前記ズレ取得部は、順次取得された前記多視点画像毎に、前記算出対象の副画像を巡回的に選択して、前記複数の副画像の画像ズレ係数を順次取得し、
前記生成部は、前記取得部が順次取得した多視点画像から、前記ズレ取得部が順次取得した画像ズレ係数を用いて前記再構成画像を順次生成する、
ことを特徴とする付記4に記載の画像処理装置。
(Appendix 5)
The acquisition unit sequentially acquires the multi-viewpoint images,
The shift acquisition unit cyclically selects the calculation target sub-image for each of the sequentially acquired multi-viewpoint images, sequentially acquires image shift coefficients of the plurality of sub-images,
The generation unit sequentially generates the reconstructed image from the multi-view images sequentially acquired by the acquisition unit, using the image shift coefficient sequentially acquired by the shift acquisition unit.
The image processing apparatus according to appendix 4, wherein

(付記6)
前記生成部は、前記再構成画像を前記副画像の何れかに対応する複数の配置領域に分割し、前記抽出部が抽出した部分画像に含まれる画素から、当該部分画像の抽出元の副画像に対応する前記配置領域に合致する数だけ画素を抽出し、当該抽出した画素を当該対応する配置領域に配置する、
ことを特徴とする付記1乃至5の何れか1つに記載の画像処理装置。
(Appendix 6)
The generation unit divides the reconstructed image into a plurality of arrangement regions corresponding to any of the sub-images, and subpixels from which the partial images are extracted from pixels included in the partial images extracted by the extraction unit Extract the number of pixels that match the arrangement area corresponding to, and arrange the extracted pixels in the corresponding arrangement area,
The image processing apparatus according to any one of appendices 1 to 5, wherein:

(付記7)
前記生成部は、前記再構成画像を前記副画像の何れかに対応する複数の配置領域に分割し、前記抽出部が抽出した部分画像を、抽出元の副画像に対応する配置領域のそれぞれの大きさに合致するように縮小又は拡大して配置する、
ことを特徴とする付記1乃至5の何れか1つに記載の画像処理装置。
(Appendix 7)
The generation unit divides the reconstructed image into a plurality of arrangement regions corresponding to any of the sub-images, and converts the partial images extracted by the extraction unit to each of the arrangement regions corresponding to the extraction-source sub-images. To reduce or enlarge to fit the size,
The image processing apparatus according to any one of appendices 1 to 5, wherein:

(付記8)
撮像部と、前記撮像部が撮像した多視点画像を取得する付記1乃至7の何れか1つに記載の画像処理装置と、前記画像処理装置が生成した再構成画像を表示する表示手段と、を備えたことを特徴とする撮像装置。
(Appendix 8)
An image processing unit, the image processing device according to any one of supplementary notes 1 to 7 that acquires a multi-viewpoint image captured by the image capturing unit, a display unit that displays a reconstructed image generated by the image processing device, An imaging apparatus comprising:

(付記9)
被写体を複数の視点から見た複数の副画像が整列した多視点画像を撮像する撮像部と、
画像を表示する表示部と、
撮影準備状態において表示するための第1の再構成画像を、前記多視点画像の複数の副画像を用いた第1の画像生成方法で生成する第1の生成部と、
撮影後の再生表示のための第2の再構成画像を、前記多視点画像の複数の副画像を用いた第2の画像生成方法で生成する第2の生成部と、
前記表示部に、撮影準備状態では前記第1の再構成画像を表示させ、撮影後の再生表示では前記第2の再構成画像を表示させる制御部と、
を備え、
前記第2の画像生成方法は、画質向上のため、前記第1の画像生成方法より計算量が大きい、
ことを特徴とする撮像装置。
(Appendix 9)
An imaging unit that captures a multi-viewpoint image in which a plurality of sub-images obtained by viewing a subject from a plurality of viewpoints are aligned;
A display for displaying an image;
A first generation unit that generates a first reconstructed image to be displayed in a shooting preparation state by a first image generation method using a plurality of sub-images of the multi-viewpoint image;
A second generation unit that generates a second reconstructed image for reproduction display after shooting by a second image generation method using a plurality of sub-images of the multi-viewpoint image;
A control unit that causes the display unit to display the first reconstructed image in a shooting preparation state and to display the second reconstructed image in a reproduction display after shooting;
With
The second image generation method has a larger calculation amount than the first image generation method in order to improve image quality.
An imaging apparatus characterized by that.

(付記10)
前記多視点画像に含まれる副画像の所定範囲から、部分画像を抽出する抽出部と、
前記部分画像を、当該部分画像に対応する副画像の並び順に配置する配置部と、
をさらに備え、
前記第1の画像生成方法は前記抽出部と前記配置部とを用いて前記第1の再構成画像を生成する方法であり、
前記第2の画像生成方法は前記抽出部と前記配置部とを用いて前記第2の再構成画像を生成する方法であり、
前記第2の画像生成方法は、前記第1の画像生成方法を基礎として、画質向上のための処理を追加し、又はより計算量が大きい代替の処理を実行する方法である、
ことを特徴とする付記9に記載の撮像装置。
(Appendix 10)
An extraction unit that extracts a partial image from a predetermined range of sub-images included in the multi-viewpoint image;
An arrangement unit that arranges the partial images in the arrangement order of the sub-images corresponding to the partial images;
Further comprising
The first image generation method is a method of generating the first reconstructed image using the extraction unit and the arrangement unit,
The second image generation method is a method of generating the second reconstructed image using the extraction unit and the arrangement unit,
The second image generation method is a method in which processing for improving image quality is added based on the first image generation method, or alternative processing with a larger calculation amount is executed.
The imaging apparatus according to appendix 9, characterized in that:

(付記11)
前記複数の副画像ごとに、当該副画像の所定部位について、当該所定部位の当該副画像における位置と、当該所定部位の被写体が当該副画像から所定範囲にある他の副画像に映る位置と、の位置のズレを示す画像ズレ係数を取得する画像ズレ取得部をさらに備える、
ことを特徴とする付記10に記載の撮像装置。
(Appendix 11)
For each of the plurality of sub-images, for a predetermined portion of the sub-image, the position of the predetermined portion in the sub-image, and the position where the subject of the predetermined portion appears in another sub-image within a predetermined range from the sub-image, An image shift acquisition unit for acquiring an image shift coefficient indicating the shift of the position of
The imaging apparatus according to appendix 10, wherein the imaging apparatus is characterized.

(付記12)
前記画像ズレ取得部は、前記複数の副画像から選択した算出対象の副画像について前記画像ズレ係数を算出し、当該算出した画像ズレ係数に基づいて当該算出対象以外の副画像について前記画像ズレ係数を推定する、
ことを特徴とする付記11に記載の撮像装置。
(Appendix 12)
The image shift acquisition unit calculates the image shift coefficient for a calculation target sub-image selected from the plurality of sub-images, and the image shift coefficient for sub-images other than the calculation target based on the calculated image shift coefficient. Estimate
The imaging apparatus according to appendix 11, wherein:

(付記13)
前記撮像部は前記多視点画像を順次撮影し、
前記画像ズレ取得部は、順次撮影された前記多視点画像毎に、前記算出対象の副画像を巡回的に選択して、前記複数の副画像の画像ズレ係数を順次取得し、
前記第1の生成部は、前記撮像部が順次撮影した多視点画像から、前記画像ズレ取得部が順次取得した画像ズレ係数を用いて前記第1の再構成画像を順次生成する、
ことを特徴とする付記12に記載の撮像装置。
(Appendix 13)
The imaging unit sequentially captures the multi-viewpoint images,
The image shift acquisition unit cyclically selects the sub-images to be calculated for each of the multi-viewpoint images taken sequentially, sequentially acquires the image shift coefficients of the plurality of sub-images,
The first generation unit sequentially generates the first reconstructed image from the multi-viewpoint images sequentially captured by the imaging unit using the image shift coefficient sequentially acquired by the image shift acquisition unit.
The imaging apparatus according to attachment 12, wherein the imaging apparatus is characterized in that

(付記14)
前記第1の生成部は、前記第1の画像生成方法の一環として、前記抽出部に前記副画像のそれぞれから同じ大きさの所定範囲から部分画像を抽出させ、
前記第2の生成部は、前記第2の画像生成方法の一環として、前記抽出部に前記画像ズレ取得部が取得した画像ズレ係数が大きい副画像からは大きい範囲から、小さい副画像からは小さい範囲から、それぞれ部分画像を抽出させる、
ことを特徴とする付記11又は12に記載の撮像装置。
(Appendix 14)
The first generation unit, as part of the first image generation method, causes the extraction unit to extract partial images from a predetermined range of the same size from each of the sub-images,
The second generation unit, as part of the second image generation method, starts from a large range from a sub-image having a large image shift coefficient acquired by the image shift acquisition unit to the extraction unit, and is small from a small sub-image. Extract each partial image from the range,
The imaging device according to appendix 11 or 12, characterized in that.

(付記15)
前記副画像の画素のそれぞれについて、その画素が当該副画像に占める位置と、当該画素に現れる被写体が当該副画像から所定範囲にある他の副画像に表れる位置と、の位置のズレを示す画素ズレ係数を画素ごとに取得する画素ズレ取得部をさらに備え、
前記第1の生成部は、前記第1の画像生成方法の一環として、前記抽出部に前記副画像のそれぞれから同じ大きさの所定範囲から部分画像を抽出させ、
前記第2の生成部は、前記第2の画像生成方法の一環として、前記画素ズレ取得部が取得した画素ズレ係数の大きさに基づいて、前記副画像の画素にフィルタ処理を実行し、前記抽出部に前記画像ズレ取得部が取得した画像ズレ係数が大きい副画像からは大きい範囲から、小さい副画像からは小さい範囲から、それぞれ部分画像を抽出させる、
ことを特徴とする付記11又は12に記載の撮像装置。
(Appendix 15)
For each pixel of the sub-image, a pixel indicating a positional deviation between a position occupied by the pixel in the sub-image and a position where a subject appearing in the pixel appears in another sub-image within a predetermined range from the sub-image. A pixel shift acquisition unit that acquires a shift coefficient for each pixel;
The first generation unit, as part of the first image generation method, causes the extraction unit to extract partial images from a predetermined range of the same size from each of the sub-images,
The second generation unit performs filtering on the pixels of the sub-image based on the size of the pixel shift coefficient acquired by the pixel shift acquisition unit as part of the second image generation method, The extraction unit causes the partial image to be extracted from a large range from a sub-image having a large image shift coefficient acquired by the image shift acquisition unit and from a small range from a small sub-image, respectively.
The imaging device according to appendix 11 or 12, characterized in that.

(付記16)
前記第1の生成部は、前記第1の画像生成方法の一環として、前記抽出部に前記画像ズレ取得部が取得した画像ズレ係数が大きい副画像からは大きい範囲から、小さい副画像からは小さい範囲から、それぞれ部分画像を抽出させ、
前記第2の生成部は、前記第2の画像生成方法の一環として、前記画像ズレ取得部に前記第1の画像生成方法よりも大きい部位について前記画像ズレ係数を取得させ、前記抽出部に当該画像ズレ係数が大きい副画像からは大きい範囲から、小さい副画像からは小さい範囲から、それぞれ部分画像を抽出させる、
ことを特徴とする付記11乃至13の何れか1つに記載の撮像装置。
(Appendix 16)
The first generation unit, as part of the first image generation method, starts from a large range from a sub-image with a large image shift coefficient acquired by the image shift acquisition unit to the extraction unit, and is small from a small sub-image. Each partial image is extracted from the range,
As a part of the second image generation method, the second generation unit causes the image shift acquisition unit to acquire the image shift coefficient for a part larger than the first image generation method, and causes the extraction unit to Partial images are extracted from a large range from a sub-image with a large image shift coefficient, and from a small range from a small sub-image, respectively.
The imaging apparatus according to any one of appendices 11 to 13, wherein the imaging apparatus is characterized in that

(付記17)
前記副画像の画素のそれぞれについて、その画素が当該副画像に占める位置と、当該画素に現れる被写体が当該副画像から所定範囲にある他の副画像に表れる位置と、の位置のズレを示す画素ズレ係数を画素ごとに取得する画素ズレ取得部をさらに備え、
前記第1の生成部は、前記第1の画像生成方法の一環として、前記抽出部に前記画像ズレ取得部が取得した画像ズレ係数が大きい副画像からは大きい範囲から、小さい副画像からは小さい範囲から、それぞれ部分画像を抽出させ、
前記第2の生成部は、前記第2の画像生成方法の一環として、前記画素ズレ取得部が取得した画素ズレ係数の大きさに基づいて、前記副画像の画素にフィルタ処理を実行し、前記抽出部に前記画像ズレ取得部が取得した画像ズレ係数が大きい副画像からは大きい範囲から、小さい副画像からは小さい範囲から、それぞれ部分画像を抽出させる、
ことを特徴とする付記11乃至13の何れか1つに記載の撮像装置。
(Appendix 17)
For each pixel of the sub-image, a pixel indicating a positional deviation between a position occupied by the pixel in the sub-image and a position where a subject appearing in the pixel appears in another sub-image within a predetermined range from the sub-image. A pixel shift acquisition unit that acquires a shift coefficient for each pixel;
The first generation unit, as part of the first image generation method, starts from a large range from a sub-image with a large image shift coefficient acquired by the image shift acquisition unit to the extraction unit, and is small from a small sub-image. Each partial image is extracted from the range,
The second generation unit performs filtering on the pixels of the sub-image based on the size of the pixel shift coefficient acquired by the pixel shift acquisition unit as part of the second image generation method, The extraction unit causes the partial image to be extracted from a large range from a sub-image having a large image shift coefficient acquired by the image shift acquisition unit and from a small range from a small sub-image, respectively.
The imaging apparatus according to any one of appendices 11 to 13, wherein the imaging apparatus is characterized in that

(付記18)
第3の再構成画像を、第3の画像生成方法で生成する第3の生成部と、
前記第3の生成部が生成した第3の再構成画像を記憶する記憶部と、
をさらに備え、
前記第3の画像生成方法は、画質向上のため、前記第2の画像生成方法より計算量が大きい、
ことを特徴とする付記9乃至17の何れか1つに記載の撮像装置。
(Appendix 18)
A third generation unit for generating a third reconstructed image by the third image generation method;
A storage unit for storing a third reconstructed image generated by the third generation unit;
Further comprising
The third image generation method has a larger calculation amount than the second image generation method in order to improve image quality.
The imaging apparatus according to any one of appendices 9 to 17, characterized in that:

(付記19)
被写体を複数の視点から見た複数の副画像が整列した多視点画像を取得する取得ステップと、
前記多視点画像に含まれる副画像の所定範囲から、部分画像を抽出する抽出ステップと、
前記部分画像を、当該部分画像に対応する副画像の並び順に配置して再構成画像を生成する生成ステップと、
を含む画像生成方法。
(Appendix 19)
An acquisition step of acquiring a multi-viewpoint image in which a plurality of sub-images obtained by viewing a subject from a plurality of viewpoints are aligned;
An extraction step of extracting a partial image from a predetermined range of sub-images included in the multi-viewpoint image;
Generating the reconstructed image by arranging the partial images in the order of arrangement of the sub-images corresponding to the partial images;
An image generation method including:

(付記20)
コンピュータに、
被写体を複数の視点から見た複数の副画像が整列した多視点画像を取得する取得機能、
前記多視点画像に含まれる副画像の所定範囲から、部分画像を抽出する抽出機能、
前記部分画像を、当該部分画像に対応する副画像の並び順に配置して再構成画像を生成する生成機能、
を実現させるためのプログラム。
(Appendix 20)
On the computer,
An acquisition function for acquiring a multi-viewpoint image in which a plurality of sub-images obtained by viewing a subject from a plurality of viewpoints are aligned,
An extraction function for extracting a partial image from a predetermined range of sub-images included in the multi-viewpoint image;
A generation function for generating the reconstructed image by arranging the partial images in the order of arrangement of the sub-images corresponding to the partial images;
A program to realize

本発明は、多視点画像を撮影できる撮像装置に適用することができる。   The present invention can be applied to an imaging apparatus that can capture a multi-viewpoint image.

1…デジタルカメラ、10…シャッターキー、11…電源ボタン、12…撮像レンズ、13…液晶モニタ画面、14…操作部、20…内部バス、21…CPU、22…ROM、23…RAM、30…入出力インターフェース、31…撮像部、311…メインレンズ、312…マイクロレンズアレイ、313…撮像素子、312−1〜312−N×M…マイクロレンズ、32…入力部、33…出力部、34…記憶部、35…表示部、36…通信部、37…メディアドライブ、38…リムーバブルメディア、40…画像撮影部、50…入力部、60…画像生成処理部、610…LFI生成部、620…ライブビュー画像生成部、630…確認画像生成部、640…本画像生成部、70…表示部、710…第1再構成画像生成部、711…サブ画像抽出部、712…部分領域定義部、713…画素抽出部、714…画素配置部、715…出力部、720…第2再構成画像生成部、721…サブ画像抽出部、722…ズレ値算出部、723…部分領域定義部、724…配置画像生成部、725…画像配置部、726…出力部、730…第3再構成画像生成部、731…サブ画像抽出部、732…画素ズレ係数算出部、733…フィルタ処理部、734…画像ズレ係数算出部、734a…画像ズレ係数算出部、735…部分領域定義部、736…画像配置部、737…出力部、740…第5再構成画像生成部、750…第6再構成画像生成部、751…画像ズレ係数算出部、752…画像ズレ係数推定部、80…記憶部、OB…被写体、MA…メインレンズ結像面、S11〜SMN…サブ画像、LFI…ライトフィールド画像、RI…再構成画像 DESCRIPTION OF SYMBOLS 1 ... Digital camera, 10 ... Shutter key, 11 ... Power button, 12 ... Imaging lens, 13 ... Liquid crystal monitor screen, 14 ... Operation part, 20 ... Internal bus, 21 ... CPU, 22 ... ROM, 23 ... RAM, 30 ... Input / output interface, 31 ... imaging unit, 311 ... main lens, 312 ... micro lens array, 313 ... imaging device, 312-1 to 312-NxM ... micro lens, 32 ... input unit, 33 ... output unit, 34 ... Storage unit 35 ... Display unit 36 ... Communication unit 37 ... Media drive 38 ... Removable media 40 ... Image shooting unit 50 ... Input unit 60 ... Image generation processing unit 610 ... LFI generation unit 620 ... Live View image generation unit, 630 ... confirmation image generation unit, 640 ... main image generation unit, 70 ... display unit, 710 ... first reconstructed image generation unit, 711 ... sub image Output unit, 712 ... Partial region definition unit, 713 ... Pixel extraction unit, 714 ... Pixel arrangement unit, 715 ... Output unit, 720 ... Second reconstructed image generation unit, 721 ... Sub image extraction unit, 722 ... Deviation value calculation unit , 723 ... Partial region definition section, 724 ... Arrangement image generation section, 725 ... Image arrangement section, 726 ... Output section, 730 ... Third reconstructed image generation section, 731 ... Sub-image extraction section, 732 ... Pixel shift coefficient calculation section 733 ... Filter processing unit, 734 ... Image deviation coefficient calculation unit, 734a ... Image deviation coefficient calculation unit, 735 ... Partial region definition unit, 736 ... Image arrangement unit, 737 ... Output unit, 740 ... Fifth reconstructed image generation unit 750 ... Sixth reconstructed image generating unit 751 Image misalignment coefficient calculating unit 752 Image misalignment coefficient estimating unit 80 80 Storage unit OB Subject MA Main lens imaging plane S 11 to S MN Sub picture , LFI ... light field image, RI ... reconstructed image

上記目的を達成するため、本願発明に係る撮像装置は、
複数の視点から得た複数の副画像が整列した多視点画像を撮像する撮像部と、
画像を表示する表示部と、
撮影準備状態において表示するための第1の再構成画像を、前記多視点画像の複数の副画像を用いた第1の画像生成処理で生成する第1の生成部と、
撮影後の再生表示のための第2の再構成画像を、前記多視点画像の複数の副画像を用いた、画質向上のため前記第1の画像生成処理より計算量が大きい第2の画像生成処理で生成する第2の生成部と、
前記表示部に、前記撮影準備状態では前記第1の再構成画像を表示させ、前記撮影後の再生表示では前記第2の再構成画像を表示させる制御部と、
を備えることを特徴とする。
In order to achieve the above object, an imaging apparatus according to the present invention provides:
An imaging unit that captures a multi-view image in which a plurality of sub-images obtained from a plurality of viewpoints are aligned;
A display for displaying an image;
A first generation unit that generates a first reconstructed image to be displayed in a shooting preparation state by a first image generation process using a plurality of sub-images of the multi-viewpoint image;
Second image generation that uses a plurality of sub-images of the multi-viewpoint image and has a larger calculation amount than the first image generation processing for improving image quality, using the second reconstructed image for reproduction display after shooting. A second generation unit generated by processing;
A control unit that causes the display unit to display the first reconstructed image in the shooting preparation state and to display the second reconstructed image in the reproduction display after the shooting;
It is characterized by providing .

上記目的を達成するため、本願発明に係る撮像装置は、
複数の視点から得た複数の副画像が整列した多視点画像を撮像する撮像部と、
画像を表示する表示部と、
前記多視点画像に含まれる副画像の所定範囲から、部分画像を切り出す切出部と、
前記部分画像を、当該部分画像に対応する副画像の並び順に配置する配置部と、
撮影準備状態において表示するための第1の再構成画像を、前記切出部と前記配置部とを用いた第1の画像生成処理で生成する第1の生成部と、
撮影後の再生表示のための第2の再構成画像を、前記切出部と前記配置部とを用いた、画質向上のため前記第1の画像生成処理より計算量が大きい第2の画像生成処理で生成する第2の生成部と、
前記表示部に、前記撮影準備状態では前記第1の再構成画像を表示させ、前記撮影後の再生表示では前記第2の再構成画像を表示させる制御部と、
前記複数の副画像ごとに、当該副画像の所定部位について、当該所定部位の当該副画像における位置と、当該所定部位の被写体が当該副画像から所定範囲にある他の副画像における位置と、の位置のズレを示す画像ズレ係数を取得する画像ズレ取得部と、
を備えることを特徴とする。
In order to achieve the above object, an imaging apparatus according to the present invention provides:
An imaging unit that captures a multi-view image in which a plurality of sub-images obtained from a plurality of viewpoints are aligned;
A display for displaying an image;
A cutout unit that cuts out a partial image from a predetermined range of the sub-image included in the multi-viewpoint image;
An arrangement unit that arranges the partial images in the arrangement order of the sub-images corresponding to the partial images;
A first generation unit that generates a first reconstructed image to be displayed in a shooting preparation state by a first image generation process using the cutout unit and the arrangement unit ;
Second image generation with a larger amount of calculation than the first image generation processing for improving the image quality of the second reconstructed image for reproduction display after shooting using the cutout unit and the arrangement unit A second generation unit generated by processing;
A control unit that causes the display unit to display the first reconstructed image in the shooting preparation state and to display the second reconstructed image in the reproduction display after the shooting;
For each of the plurality of sub-images, for a predetermined part of the sub-image, a position of the predetermined part in the sub-image and a position in another sub-image in which the subject of the predetermined part is within a predetermined range from the sub-image An image misalignment acquisition unit that acquires an image misalignment coefficient indicating the misalignment of the position;
It is characterized by providing.

Claims (20)

被写体を複数の視点から見た複数の副画像が整列した多視点画像を取得する取得部と、
前記多視点画像に含まれる副画像の所定範囲から、部分画像を抽出する抽出部と、
前記部分画像を、当該部分画像に対応する副画像の並び順に配置して再構成画像を生成する生成部と、
を備えたことを特徴とする画像処理装置。
An acquisition unit for acquiring a multi-viewpoint image in which a plurality of sub-images obtained by viewing a subject from a plurality of viewpoints are aligned;
An extraction unit that extracts a partial image from a predetermined range of sub-images included in the multi-viewpoint image;
A generation unit configured to generate the reconstructed image by arranging the partial images in the arrangement order of the sub-images corresponding to the partial images;
An image processing apparatus comprising:
前記生成部は、前記部分画像をそれぞれ点対象に反転して配置して前記再構成画像を生成する、
ことを特徴とする請求項1に記載の画像処理装置。
The generation unit generates the reconstructed image by inverting and arranging the partial images as point targets,
The image processing apparatus according to claim 1.
前記複数の副画像ごとに、当該副画像の所定部位について、当該所定部位の当該副画像における位置と、当該所定部位の被写体が当該副画像から所定範囲にある他の副画像に映る位置と、の位置のズレを示す画像ズレ係数を取得するズレ取得部をさらに備え、
前記抽出部は、前記ズレ取得部が取得した画像ズレ係数が大きいほど、当該副画像のより大きい範囲から部分画像を抽出する、
ことを特徴とする請求項1又は2に記載の画像処理装置。
For each of the plurality of sub-images, for a predetermined portion of the sub-image, the position of the predetermined portion in the sub-image, and the position where the subject of the predetermined portion appears in another sub-image within a predetermined range from the sub-image, A displacement acquisition unit for acquiring an image displacement coefficient indicating the displacement of the position of
The extraction unit extracts a partial image from a larger range of the sub-image as the image deviation coefficient acquired by the deviation acquisition unit is larger.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記ズレ取得部は、前記複数の副画像から選択した算出対象の副画像について前記画像ズレ係数を算出し、当該算出した画像ズレ係数に基づいて当該算出対象以外の副画像について前記画像ズレ係数を推定する、
ことを特徴とする請求項3に記載の画像処理装置。
The shift acquisition unit calculates the image shift coefficient for a calculation target sub-image selected from the plurality of sub-images, and calculates the image shift coefficient for sub-images other than the calculation target based on the calculated image shift coefficient. presume,
The image processing apparatus according to claim 3.
前記取得部は前記多視点画像を順次取得し、
前記ズレ取得部は、順次取得された前記多視点画像毎に、前記算出対象の副画像を巡回的に選択して、前記複数の副画像の画像ズレ係数を順次取得し、
前記生成部は、前記取得部が順次取得した多視点画像から、前記ズレ取得部が順次取得した画像ズレ係数を用いて前記再構成画像を順次生成する、
ことを特徴とする請求項4に記載の画像処理装置。
The acquisition unit sequentially acquires the multi-viewpoint images,
The shift acquisition unit cyclically selects the calculation target sub-image for each of the sequentially acquired multi-viewpoint images, sequentially acquires image shift coefficients of the plurality of sub-images,
The generation unit sequentially generates the reconstructed image from the multi-view images sequentially acquired by the acquisition unit, using the image shift coefficient sequentially acquired by the shift acquisition unit.
The image processing apparatus according to claim 4.
前記生成部は、前記再構成画像を前記副画像の何れかに対応する複数の配置領域に分割し、前記抽出部が抽出した部分画像に含まれる画素から、当該部分画像の抽出元の副画像に対応する前記配置領域に合致する数だけ画素を抽出し、当該抽出した画素を当該対応する配置領域に配置する、
ことを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
The generation unit divides the reconstructed image into a plurality of arrangement regions corresponding to any of the sub-images, and subpixels from which the partial images are extracted from pixels included in the partial images extracted by the extraction unit Extract the number of pixels that match the arrangement area corresponding to, and arrange the extracted pixels in the corresponding arrangement area,
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記生成部は、前記再構成画像を前記副画像の何れかに対応する複数の配置領域に分割し、前記抽出部が抽出した部分画像を、抽出元の副画像に対応する配置領域のそれぞれの大きさに合致するように縮小又は拡大して配置する、
ことを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
The generation unit divides the reconstructed image into a plurality of arrangement regions corresponding to any of the sub-images, and converts the partial images extracted by the extraction unit to each of the arrangement regions corresponding to the extraction-source sub-images. To reduce or enlarge to fit the size,
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
撮像部と、前記撮像部が撮像した多視点画像を取得する請求項1乃至7の何れか1項に記載の画像処理装置と、前記画像処理装置が生成した再構成画像を表示する表示手段と、を備えたことを特徴とする撮像装置。   An image processing unit, the image processing device according to any one of claims 1 to 7 that acquires a multi-viewpoint image captured by the image capturing unit, and a display unit that displays a reconstructed image generated by the image processing device. An imaging apparatus comprising: 被写体を複数の視点から見た複数の副画像が整列した多視点画像を撮像する撮像部と、
画像を表示する表示部と、
撮影準備状態において表示するための第1の再構成画像を、前記多視点画像の複数の副画像を用いた第1の画像生成方法で生成する第1の生成部と、
撮影後の再生表示のための第2の再構成画像を、前記多視点画像の複数の副画像を用いた第2の画像生成方法で生成する第2の生成部と、
前記表示部に、撮影準備状態では前記第1の再構成画像を表示させ、撮影後の再生表示では前記第2の再構成画像を表示させる制御部と、
を備え、
前記第2の画像生成方法は、画質向上のため、前記第1の画像生成方法より計算量が大きい、
ことを特徴とする撮像装置。
An imaging unit that captures a multi-viewpoint image in which a plurality of sub-images obtained by viewing a subject from a plurality of viewpoints are aligned;
A display for displaying an image;
A first generation unit that generates a first reconstructed image to be displayed in a shooting preparation state by a first image generation method using a plurality of sub-images of the multi-viewpoint image;
A second generation unit that generates a second reconstructed image for reproduction display after shooting by a second image generation method using a plurality of sub-images of the multi-viewpoint image;
A control unit that causes the display unit to display the first reconstructed image in a shooting preparation state and to display the second reconstructed image in a reproduction display after shooting;
With
The second image generation method has a larger calculation amount than the first image generation method in order to improve image quality.
An imaging apparatus characterized by that.
前記多視点画像に含まれる副画像の所定範囲から、部分画像を抽出する抽出部と、
前記部分画像を、当該部分画像に対応する副画像の並び順に配置する配置部と、
をさらに備え、
前記第1の画像生成方法は前記抽出部と前記配置部とを用いて前記第1の再構成画像を生成する方法であり、
前記第2の画像生成方法は前記抽出部と前記配置部とを用いて前記第2の再構成画像を生成する方法であり、
前記第2の画像生成方法は、前記第1の画像生成方法を基礎として、画質向上のための処理を追加し、又はより計算量が大きい代替の処理を実行する方法である、
ことを特徴とする請求項9に記載の撮像装置。
An extraction unit that extracts a partial image from a predetermined range of sub-images included in the multi-viewpoint image;
An arrangement unit that arranges the partial images in the arrangement order of the sub-images corresponding to the partial images;
Further comprising
The first image generation method is a method of generating the first reconstructed image using the extraction unit and the arrangement unit,
The second image generation method is a method of generating the second reconstructed image using the extraction unit and the arrangement unit,
The second image generation method is a method in which processing for improving image quality is added based on the first image generation method, or alternative processing with a larger calculation amount is executed.
The imaging apparatus according to claim 9.
前記複数の副画像ごとに、当該副画像の所定部位について、当該所定部位の当該副画像における位置と、当該所定部位の被写体が当該副画像から所定範囲にある他の副画像に映る位置と、の位置のズレを示す画像ズレ係数を取得する画像ズレ取得部をさらに備える、
ことを特徴とする請求項10に記載の撮像装置。
For each of the plurality of sub-images, for a predetermined portion of the sub-image, the position of the predetermined portion in the sub-image, and the position where the subject of the predetermined portion appears in another sub-image within a predetermined range from the sub-image, An image shift acquisition unit for acquiring an image shift coefficient indicating the shift of the position of
The imaging apparatus according to claim 10.
前記画像ズレ取得部は、前記複数の副画像から選択した算出対象の副画像について前記画像ズレ係数を算出し、当該算出した画像ズレ係数に基づいて当該算出対象以外の副画像について前記画像ズレ係数を推定する、
ことを特徴とする請求項11に記載の撮像装置。
The image shift acquisition unit calculates the image shift coefficient for a calculation target sub-image selected from the plurality of sub-images, and the image shift coefficient for sub-images other than the calculation target based on the calculated image shift coefficient. Estimate
The imaging apparatus according to claim 11.
前記撮像部は前記多視点画像を順次撮影し、
前記画像ズレ取得部は、順次撮影された前記多視点画像毎に、前記算出対象の副画像を巡回的に選択して、前記複数の副画像の画像ズレ係数を順次取得し、
前記第1の生成部は、前記撮像部が順次撮影した多視点画像から、前記画像ズレ取得部が順次取得した画像ズレ係数を用いて前記第1の再構成画像を順次生成する、
ことを特徴とする請求項12に記載の撮像装置。
The imaging unit sequentially captures the multi-viewpoint images,
The image shift acquisition unit cyclically selects the sub-images to be calculated for each of the multi-viewpoint images taken sequentially, sequentially acquires the image shift coefficients of the plurality of sub-images,
The first generation unit sequentially generates the first reconstructed image from the multi-viewpoint images sequentially captured by the imaging unit using the image shift coefficient sequentially acquired by the image shift acquisition unit.
The imaging apparatus according to claim 12.
前記第1の生成部は、前記第1の画像生成方法の一環として、前記抽出部に前記副画像のそれぞれから同じ大きさの所定範囲から部分画像を抽出させ、
前記第2の生成部は、前記第2の画像生成方法の一環として、前記抽出部に前記画像ズレ取得部が取得した画像ズレ係数が大きい副画像からは大きい範囲から、小さい副画像からは小さい範囲から、それぞれ部分画像を抽出させる、
ことを特徴とする請求項11又は12に記載の撮像装置。
The first generation unit, as part of the first image generation method, causes the extraction unit to extract partial images from a predetermined range of the same size from each of the sub-images,
The second generation unit, as part of the second image generation method, starts from a large range from a sub-image having a large image shift coefficient acquired by the image shift acquisition unit to the extraction unit, and is small from a small sub-image. Extract each partial image from the range,
The imaging apparatus according to claim 11 or 12, characterized in that:
前記副画像の画素のそれぞれについて、その画素が当該副画像に占める位置と、当該画素に現れる被写体が当該副画像から所定範囲にある他の副画像に表れる位置と、の位置のズレを示す画素ズレ係数を画素ごとに取得する画素ズレ取得部をさらに備え、
前記第1の生成部は、前記第1の画像生成方法の一環として、前記抽出部に前記副画像のそれぞれから同じ大きさの所定範囲から部分画像を抽出させ、
前記第2の生成部は、前記第2の画像生成方法の一環として、前記画素ズレ取得部が取得した画素ズレ係数の大きさに基づいて、前記副画像の画素にフィルタ処理を実行し、前記抽出部に前記画像ズレ取得部が取得した画像ズレ係数が大きい副画像からは大きい範囲から、小さい副画像からは小さい範囲から、それぞれ部分画像を抽出させる、
ことを特徴とする請求項11又は12に記載の撮像装置。
For each pixel of the sub-image, a pixel indicating a positional deviation between a position occupied by the pixel in the sub-image and a position where a subject appearing in the pixel appears in another sub-image within a predetermined range from the sub-image. A pixel shift acquisition unit that acquires a shift coefficient for each pixel;
The first generation unit, as part of the first image generation method, causes the extraction unit to extract partial images from a predetermined range of the same size from each of the sub-images,
The second generation unit performs filtering on the pixels of the sub-image based on the size of the pixel shift coefficient acquired by the pixel shift acquisition unit as part of the second image generation method, The extraction unit causes the partial image to be extracted from a large range from a sub-image having a large image shift coefficient acquired by the image shift acquisition unit and from a small range from a small sub-image, respectively.
The imaging apparatus according to claim 11 or 12, characterized in that:
前記第1の生成部は、前記第1の画像生成方法の一環として、前記抽出部に前記画像ズレ取得部が取得した画像ズレ係数が大きい副画像からは大きい範囲から、小さい副画像からは小さい範囲から、それぞれ部分画像を抽出させ、
前記第2の生成部は、前記第2の画像生成方法の一環として、前記画像ズレ取得部に前記第1の画像生成方法よりも大きい部位について前記画像ズレ係数を取得させ、前記抽出部に当該画像ズレ係数が大きい副画像からは大きい範囲から、小さい副画像からは小さい範囲から、それぞれ部分画像を抽出させる、
ことを特徴とする請求項11乃至13の何れか1項に記載の撮像装置。
The first generation unit, as part of the first image generation method, starts from a large range from a sub-image with a large image shift coefficient acquired by the image shift acquisition unit to the extraction unit, and is small from a small sub-image. Each partial image is extracted from the range,
As a part of the second image generation method, the second generation unit causes the image shift acquisition unit to acquire the image shift coefficient for a part larger than the first image generation method, and causes the extraction unit to Partial images are extracted from a large range from a sub-image with a large image shift coefficient, and from a small range from a small sub-image, respectively.
The image pickup apparatus according to claim 11, wherein the image pickup apparatus is an image pickup apparatus.
前記副画像の画素のそれぞれについて、その画素が当該副画像に占める位置と、当該画素に現れる被写体が当該副画像から所定範囲にある他の副画像に表れる位置と、の位置のズレを示す画素ズレ係数を画素ごとに取得する画素ズレ取得部をさらに備え、
前記第1の生成部は、前記第1の画像生成方法の一環として、前記抽出部に前記画像ズレ取得部が取得した画像ズレ係数が大きい副画像からは大きい範囲から、小さい副画像からは小さい範囲から、それぞれ部分画像を抽出させ、
前記第2の生成部は、前記第2の画像生成方法の一環として、前記画素ズレ取得部が取得した画素ズレ係数の大きさに基づいて、前記副画像の画素にフィルタ処理を実行し、前記抽出部に前記画像ズレ取得部が取得した画像ズレ係数が大きい副画像からは大きい範囲から、小さい副画像からは小さい範囲から、それぞれ部分画像を抽出させる、
ことを特徴とする請求項11乃至13の何れか1項に記載の撮像装置。
For each pixel of the sub-image, a pixel indicating a positional deviation between a position occupied by the pixel in the sub-image and a position where a subject appearing in the pixel appears in another sub-image within a predetermined range from the sub-image. A pixel shift acquisition unit that acquires a shift coefficient for each pixel;
The first generation unit, as part of the first image generation method, starts from a large range from a sub-image with a large image shift coefficient acquired by the image shift acquisition unit to the extraction unit, and is small from a small sub-image. Each partial image is extracted from the range,
The second generation unit performs filtering on the pixels of the sub-image based on the size of the pixel shift coefficient acquired by the pixel shift acquisition unit as part of the second image generation method, The extraction unit causes the partial image to be extracted from a large range from a sub-image having a large image shift coefficient acquired by the image shift acquisition unit and from a small range from a small sub-image, respectively.
The image pickup apparatus according to claim 11, wherein the image pickup apparatus is an image pickup apparatus.
第3の再構成画像を、第3の画像生成方法で生成する第3の生成部と、
前記第3の生成部が生成した第3の再構成画像を記憶する記憶部と、
をさらに備え、
前記第3の画像生成方法は、画質向上のため、前記第2の画像生成方法より計算量が大きい、
ことを特徴とする請求項9乃至17の何れか1項に記載の撮像装置。
A third generation unit for generating a third reconstructed image by the third image generation method;
A storage unit for storing a third reconstructed image generated by the third generation unit;
Further comprising
The third image generation method has a larger calculation amount than the second image generation method in order to improve image quality.
The image pickup apparatus according to claim 9, wherein the image pickup apparatus is an image pickup apparatus.
被写体を複数の視点から見た複数の副画像が整列した多視点画像を取得する取得ステップと、
前記多視点画像に含まれる副画像の所定範囲から、部分画像を抽出する抽出ステップと、
前記部分画像を、当該部分画像に対応する副画像の並び順に配置して再構成画像を生成する生成ステップと、
を含む画像生成方法。
An acquisition step of acquiring a multi-viewpoint image in which a plurality of sub-images obtained by viewing a subject from a plurality of viewpoints are aligned;
An extraction step of extracting a partial image from a predetermined range of sub-images included in the multi-viewpoint image;
Generating the reconstructed image by arranging the partial images in the order of arrangement of the sub-images corresponding to the partial images;
An image generation method including:
コンピュータに、
被写体を複数の視点から見た複数の副画像が整列した多視点画像を取得する取得機能、
前記多視点画像に含まれる副画像の所定範囲から、部分画像を抽出する抽出機能、
前記部分画像を、当該部分画像に対応する副画像の並び順に配置して再構成画像を生成する生成機能、
を実現させるためのプログラム。
On the computer,
An acquisition function for acquiring a multi-viewpoint image in which a plurality of sub-images obtained by viewing a subject from a plurality of viewpoints are aligned,
An extraction function for extracting a partial image from a predetermined range of sub-images included in the multi-viewpoint image;
A generation function for generating the reconstructed image by arranging the partial images in the order of arrangement of the sub-images corresponding to the partial images;
A program to realize
JP2013059384A 2011-12-27 2013-03-22 Imaging apparatus, image display method, and program Expired - Fee Related JP5370606B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013059384A JP5370606B2 (en) 2011-12-27 2013-03-22 Imaging apparatus, image display method, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011287041 2011-12-27
JP2011287041 2011-12-27
JP2013059384A JP5370606B2 (en) 2011-12-27 2013-03-22 Imaging apparatus, image display method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012169655A Division JP5267708B2 (en) 2011-12-27 2012-07-31 Image processing apparatus, imaging apparatus, image generation method, and program

Publications (2)

Publication Number Publication Date
JP2013176073A true JP2013176073A (en) 2013-09-05
JP5370606B2 JP5370606B2 (en) 2013-12-18

Family

ID=49049404

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2012169655A Expired - Fee Related JP5267708B2 (en) 2011-12-27 2012-07-31 Image processing apparatus, imaging apparatus, image generation method, and program
JP2013059384A Expired - Fee Related JP5370606B2 (en) 2011-12-27 2013-03-22 Imaging apparatus, image display method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2012169655A Expired - Fee Related JP5267708B2 (en) 2011-12-27 2012-07-31 Image processing apparatus, imaging apparatus, image generation method, and program

Country Status (1)

Country Link
JP (2) JP5267708B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015200826A (en) * 2014-04-09 2015-11-12 キヤノン株式会社 Focus adjustment device, image-capturing device, and focus adjustment method
US10430935B2 (en) 2017-04-27 2019-10-01 Canon Kabushiki Kaisha Imaging apparatus, imaging system, movable body, and chip

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10660562B2 (en) 2015-05-29 2020-05-26 Conopco, Inc. System and method for measuring hair diameter
BR112018007512A2 (en) 2015-10-30 2018-10-23 Unilever Nv ? method of measuring hair type indications, hair type measurement system, reference card for use with a computer program and computer program?
EP3369041A1 (en) 2015-10-30 2018-09-05 Unilever Plc. Hair diameter measurement
WO2019012658A1 (en) * 2017-07-13 2019-01-17 オリンパス株式会社 Image processing device and light-field image pickup device
JP6472864B1 (en) * 2017-11-29 2019-02-20 株式会社近江デジタルファブリケーションズ Image distribution system and distribution image generation method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008182692A (en) * 2006-12-26 2008-08-07 Olympus Imaging Corp Coding method, electronic camera, coding program, and decoding method
JP2010273035A (en) * 2009-05-20 2010-12-02 Olympus Imaging Corp Imaging device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008294741A (en) * 2007-05-24 2008-12-04 Olympus Corp Imaging system
JP5490514B2 (en) * 2009-12-22 2014-05-14 三星電子株式会社 Imaging apparatus and imaging method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008182692A (en) * 2006-12-26 2008-08-07 Olympus Imaging Corp Coding method, electronic camera, coding program, and decoding method
JP2010273035A (en) * 2009-05-20 2010-12-02 Olympus Imaging Corp Imaging device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015200826A (en) * 2014-04-09 2015-11-12 キヤノン株式会社 Focus adjustment device, image-capturing device, and focus adjustment method
US10430935B2 (en) 2017-04-27 2019-10-01 Canon Kabushiki Kaisha Imaging apparatus, imaging system, movable body, and chip

Also Published As

Publication number Publication date
JP5267708B2 (en) 2013-08-21
JP2013153408A (en) 2013-08-08
JP5370606B2 (en) 2013-12-18

Similar Documents

Publication Publication Date Title
JP5370606B2 (en) Imaging apparatus, image display method, and program
US9749601B2 (en) Imaging device, image display method, and storage medium for displaying reconstruction image
JP6021541B2 (en) Image processing apparatus and method
JP6094863B2 (en) Image processing apparatus, image processing method, program, integrated circuit
US9214013B2 (en) Systems and methods for correcting user identified artifacts in light field images
JP5982751B2 (en) Image processing apparatus, image processing method, and program
JP4942221B2 (en) High resolution virtual focal plane image generation method
JP6548367B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
JP2013005259A (en) Image processing apparatus, image processing method, and program
JP6655379B2 (en) Method and apparatus for generating an adaptive slice image from a focus stack
JP5755571B2 (en) Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device
CN111108742A (en) Information processing device, information processing method, program, and interchangeable lens
JP2013026844A (en) Image generation method and device, program, recording medium, and electronic camera
JP2006162945A (en) Stereoscopic display apparatus
JP6128748B2 (en) Image processing apparatus and method
JP6021489B2 (en) Imaging apparatus, image processing apparatus and method thereof
JP5900017B2 (en) Depth estimation apparatus, reconstructed image generation apparatus, depth estimation method, reconstructed image generation method, and program
JP2020194454A (en) Image processing device and image processing method, program, and storage medium
JP5310890B2 (en) Image generating apparatus, image generating method, and program
JP5088973B2 (en) Stereo imaging device and imaging method thereof
JP5982907B2 (en) Image processing apparatus, image processing method, and program
JP2013175821A (en) Image processing device, image processing method, and program
JP2013242378A (en) Imaging device, display method, and program
JP2013009275A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130902

R150 Certificate of patent or registration of utility model

Ref document number: 5370606

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees