JP2014160912A - Image processor, imaging apparatus, image processing method and program - Google Patents

Image processor, imaging apparatus, image processing method and program Download PDF

Info

Publication number
JP2014160912A
JP2014160912A JP2013030046A JP2013030046A JP2014160912A JP 2014160912 A JP2014160912 A JP 2014160912A JP 2013030046 A JP2013030046 A JP 2013030046A JP 2013030046 A JP2013030046 A JP 2013030046A JP 2014160912 A JP2014160912 A JP 2014160912A
Authority
JP
Japan
Prior art keywords
image
pixel
images
light field
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013030046A
Other languages
Japanese (ja)
Other versions
JP2014160912A5 (en
JP6123341B2 (en
Inventor
Ryohei Yamamoto
量平 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013030046A priority Critical patent/JP6123341B2/en
Publication of JP2014160912A publication Critical patent/JP2014160912A/en
Publication of JP2014160912A5 publication Critical patent/JP2014160912A5/ja
Application granted granted Critical
Publication of JP6123341B2 publication Critical patent/JP6123341B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress a data amount when a plurality of light field images are stored.SOLUTION: A reconstitution section 150 of a digital camera 100 generates a plurality of reconstitution images obtained by reconstituting a light field image including a plurality of sub-images obtained by photographing a subject from different view points from the plurality of light field images different in exposure. An HDR synthesis section 160 determines a synthesis ratio of the plurality of generated reconstitution images in accordance with pixel values of respective corresponding pixels in the plurality of reconstitution images for each pixel. A specification section 170 specifies the pixel whose determined synthesis ratio is a prescribed ratio or more among the pixels constituting the plurality of reconstitution images. A reduction section 180 reduces a data amount of the sub-images including the pixel in which a relation with the specified pixel satisfies a prescribed condition. A storage section 190 stores the plurality of light field images whose data amount is reduced by the reduction section 180 in SD.

Description

本発明は、画像処理装置、撮像装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing device, an imaging device, an image processing method, and a program.

近年、様々なデジタルカメラが知られている。
例えば、撮影後にユーザがピント及び被写界深度を変更できるライトフィールドカメラが知られている。このライトフィールドカメラに関連する技術として、特許文献1には、複数のサブ画像を含むライトフィールド画像から、任意の焦点距離における被写体の画像を再構成する技術が開示されている。
In recent years, various digital cameras are known.
For example, a light field camera is known in which a user can change the focus and depth of field after shooting. As a technique related to this light field camera, Patent Document 1 discloses a technique for reconstructing a subject image at an arbitrary focal length from a light field image including a plurality of sub-images.

一方、白とびや黒つぶれがないハイダイナミックレンジ(High Dynamic Range :HDR)画像が得られるHDRカメラが知られている。このHDRカメラに関連する技術として、特許文献2には、露出を変えて高速連写した複数の画像を適正な合成比率で合成することによりHDR画像を得る技術が開示されている。   On the other hand, there is known an HDR camera capable of obtaining a high dynamic range (HDR) image without overexposure and underexposure. As a technique related to this HDR camera, Patent Document 2 discloses a technique for obtaining an HDR image by synthesizing a plurality of high-speed continuous images with different exposures at an appropriate composition ratio.

特表2008−515110号公報Special table 2008-515110 gazette 特開2012−034340号公報JP 2012-034340 A

ところで、上述したライトフィールドカメラにて露出を変えて高速連写した複数のライトフィールド画像からそれぞれ再構成した複数の再構成画像を合成することでHDR画像を得ることができる。このHDR画像のピント及び被写界深度の調整を可能にするには、複数のライトフィールド画像を記憶しておく必要がある。このため、記憶するデータ量が大きくなるという問題があった。   By the way, an HDR image can be obtained by synthesizing a plurality of reconstructed images respectively reconstructed from a plurality of light field images that are continuously shot at a high speed by changing the exposure with the light field camera described above. In order to enable adjustment of the focus and depth of field of the HDR image, it is necessary to store a plurality of light field images. For this reason, there is a problem that the amount of data to be stored becomes large.

そこで、この発明は、上記問題に鑑みてなされたものであって、複数のライトフィールド画像を記憶する場合のデータ量を抑える装置、方法及びプログラムを提供することを目的とする。   Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to provide an apparatus, a method, and a program for reducing the amount of data when storing a plurality of light field images.

上記目的を達成するため、この発明に係る画像処理装置は、
それぞれ異なる視点から被写体を撮影した複数のサブ画像を含むライトフィールド画像を再構成した再構成画像を、露出が異なる複数の前記ライトフィールド画像から複数生成する生成手段と、
前記複数の再構成画像の合成比率を、該複数の再構成画像において対応する各画素の画素値に応じて画素毎に決定する決定手段と、
前記複数の再構成画像を構成する画素のうち、前記合成比率が所定の比率以上である画素を特定する特定手段と、
前記ライトフィールド画像において、前記特定した画素との関係が所定条件を満たす画素を含むサブ画像のデータ量を削減する削減手段と、
前記削減手段により前記データ量が削減された複数のライトフィールド画像を記憶する記憶手段と、を備えたことを特徴とする。
In order to achieve the above object, an image processing apparatus according to the present invention provides:
Generating means for generating a plurality of reconstructed images obtained by reconstructing a light field image including a plurality of sub-images obtained by photographing subjects from different viewpoints, from a plurality of the light field images having different exposures;
Determining means for determining a composition ratio of the plurality of reconstructed images for each pixel according to a pixel value of each corresponding pixel in the plurality of reconstructed images;
A specifying unit for specifying a pixel having a combination ratio equal to or higher than a predetermined ratio among the pixels constituting the plurality of reconstructed images;
In the light field image, a reduction means for reducing a data amount of a sub image including a pixel whose relationship with the identified pixel satisfies a predetermined condition;
Storage means for storing a plurality of light field images whose data amount has been reduced by the reduction means.

本発明によれば、複数のライトフィールド画像を記憶する場合のデータ量を抑えることができる。   According to the present invention, it is possible to reduce the amount of data when storing a plurality of light field images.

この発明の実施形態に係るデジタルカメラのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the digital camera which concerns on embodiment of this invention. 図1に示したデジタルカメラの光学系の構成例を示す模式図である。It is a schematic diagram which shows the structural example of the optical system of the digital camera shown in FIG. ライトフィールド画像の概念図である。It is a conceptual diagram of a light field image. ライトフィールド画像と再構成画像の一例を示す写真である。It is a photograph which shows an example of a light field image and a reconstruction image. デジタルカメラの機能構成を示すブロック図である。It is a block diagram which shows the function structure of a digital camera. 実施形態に係る再構成処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the reconstruction process which concerns on embodiment. 部分画像定義テーブルの一例を示す図である。It is a figure which shows an example of a partial image definition table. 配置間隔テーブルの一例を示す図である。It is a figure which shows an example of an arrangement | positioning space | interval table. ライトフィールド画像から再構成画像を生成する処理の概要を示す図である。It is a figure which shows the outline | summary of the process which produces | generates a reconstruction image from a light field image. 画素対応テーブルの一例を示す図である。It is a figure which shows an example of a pixel correspondence table. 再構成画像の合成を説明するための図であり、(a)は露出の異なる再構成画像を、(b)は判定用画像を、(c)はHDR画像を、それぞれ示す。It is a figure for demonstrating the synthesis | combination of a reconstruction image, (a) shows the reconstruction image from which exposure differs, (b) shows the image for determination, (c) shows an HDR image, respectively. 合成比率設定グラフの一例を示す図である。It is a figure which shows an example of a synthetic | combination ratio setting graph. 合成比率対応テーブルの一例を示す図である。It is a figure which shows an example of a synthetic | combination ratio correspondence table. 実施形態に係るデータ量削減処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the data amount reduction process which concerns on embodiment.

以下、この発明の実施形態を図面に基づいて説明する。
まず、図1を参照しながらデジタルカメラ100のハードウェア構成について説明する。図1に示すように、デジタルカメラ100は、撮影部110と画像処理部120と操作部130と表示部140とを備える撮像装置である。
撮影部110は、メインレンズ111とマイクロレンズアレイ112と撮像素子113とを備える。この撮影部110の詳細については後述する。
次に、画像処理部120は、CPU(Central Processing Unit)121とROM(Read Only Memory)122とRAM(Random Access Memory)123とSD(Secure Digital Memory Card)124とを備える。
Embodiments of the present invention will be described below with reference to the drawings.
First, the hardware configuration of the digital camera 100 will be described with reference to FIG. As illustrated in FIG. 1, the digital camera 100 is an imaging device that includes a photographing unit 110, an image processing unit 120, an operation unit 130, and a display unit 140.
The imaging unit 110 includes a main lens 111, a microlens array 112, and an image sensor 113. Details of the photographing unit 110 will be described later.
Next, the image processing unit 120 includes a CPU (Central Processing Unit) 121, a ROM (Read Only Memory) 122, a RAM (Random Access Memory) 123, and an SD (Secure Digital Memory Card) 124.

このうち、CPU121は、画像処理部120及びデジタルカメラ100を制御する中央演算装置である。
ROM122は、CPU121が実行するプログラムを格納している不揮発性メモリである。
RAM123は、CPU121が実行するプログラムを一時的に展開し、CPU121が各種処理を行う際の作業領域として使用する揮発性メモリである。
Among these, the CPU 121 is a central processing unit that controls the image processing unit 120 and the digital camera 100.
The ROM 122 is a non-volatile memory that stores a program executed by the CPU 121.
The RAM 123 is a volatile memory that temporarily develops a program executed by the CPU 121 and is used as a work area when the CPU 121 performs various processes.

SD124は、各種画像のデータ、各種テーブル及び各種設定情報を記憶する記憶手段である。各種画像のデータとしては、例えば後述するライトフィールド画像のデータ及びHDR画像のデータなどである。また、各種テーブルとしては、例えば後述する部分画像定義テーブル、配置間隔テーブル及び合成比率設定グラフなどである。また、各種設定情報としては、例えばメインレンズ111の焦点距離fML、絞り(F値)及びマイクロレンズアレイ112と撮像素子113との位置情報などである。 The SD 124 is a storage unit that stores various image data, various tables, and various setting information. The various image data includes, for example, light field image data and HDR image data, which will be described later. Examples of the various tables include a partial image definition table, an arrangement interval table, and a composition ratio setting graph described later. The various setting information includes, for example, the focal length f ML of the main lens 111, a diaphragm (F value), position information between the microlens array 112 and the image sensor 113, and the like.

次に、操作部130は、撮影部110による撮影処理のトリガとなるシャッターキー及びデジタルカメラ100の電源を入れるための電源スイッチなど複数のスイッチを備える。
表示部140は、液晶ディスプレイ又は有機EL(Electroluminescence)ディスプレイなどの表示手段である。この表示部140は、SD124に記憶された各種画像のデータに基づいて、その各種画像を表示する。
Next, the operation unit 130 includes a plurality of switches such as a shutter key that triggers a photographing process by the photographing unit 110 and a power switch for turning on the digital camera 100.
The display unit 140 is a display unit such as a liquid crystal display or an organic EL (Electroluminescence) display. The display unit 140 displays the various images based on the various image data stored in the SD 124.

ここで、図2を参照しながら、デジタルカメラ100の撮影部110の詳細について説明する。図2に示すように、デジタルカメラの光学系においては、被写体OBから見て、メインレンズ111と、マイクロレンズアレイ112と、撮像素子113と、がその順番で配置されている。
メインレンズ111は、一又は複数の凸レンズ、凹レンズ又は非球面レンズなどから構成される。このメインレンズ111は、被写体OB上の点から射出された光束を集光して結像面MAに結像させる。
Here, the details of the photographing unit 110 of the digital camera 100 will be described with reference to FIG. As shown in FIG. 2, in the optical system of the digital camera, a main lens 111, a microlens array 112, and an image sensor 113 are arranged in that order when viewed from the subject OB.
The main lens 111 is composed of one or a plurality of convex lenses, concave lenses, aspherical lenses, or the like. The main lens 111 condenses the light beam emitted from a point on the subject OB and forms an image on the imaging surface MA.

マイクロレンズアレイ112は、平面状に格子状に配置されたN×M個(N及びMは2以上の任意の整数値)のマイクロレンズ112−1乃至112−N×Mから構成される。図3には、縦一列(M個)のマイクロレンズが図示されている。なお、各マイクロレンズ112−i(iは、1乃至N×Mの範囲内の整数値)は、同じ大きさの径をもち、マイクロレンズアレイ112に同じ間隔で格子状に配列されている。
このマイクロレンズ112−iは、被写体OBからメインレンズ111を介して入射されてくる光束を入射方向毎に集光して、撮像素子113上にサブ画像として結像させる。
The microlens array 112 includes N × M microlenses 112-1 to 112 -N × M (N and M are arbitrary integer values of 2 or more) arranged in a grid pattern on a plane. FIG. 3 shows a vertical row (M pieces) of microlenses. Note that the microlenses 112-i (i is an integer value in the range of 1 to N × M) have the same diameter, and are arranged in a lattice pattern in the microlens array 112 at the same interval.
The micro lens 112-i condenses the light beam incident from the subject OB through the main lens 111 for each incident direction and forms an image on the image sensor 113 as a sub image.

撮像素子113は、各マイクロレンズ112−iにより結像された複数のサブ画像を含むライトフィールド画像(Light Field Image :LFI)を生成するイメージセンサである。
このライトフィールド画像は、被写体OBを同時に複数の視点から見た複数のサブ画像を含む。このライトフィールド画像の概念図を図3に示す。この図3は、ブロック状の被写体OBを撮影したライトフィールド画像の一例である。
このライトフィールド画像は、格子状に配置されたN×M個のマイクロレンズ112−iのそれぞれに対応するサブ画像(S11〜SMN)から構成される。例えば、左上のサブ画像S11は、被写体OBを左上から撮影した画像に相当し、右下のサブ画像SMNは、被写体OBを右下から撮影した画像に相当する。
The image sensor 113 is an image sensor that generates a light field image (Light Field Image: LFI) including a plurality of sub-images formed by the micro lenses 112-i.
This light field image includes a plurality of sub-images when the subject OB is viewed from a plurality of viewpoints at the same time. A conceptual diagram of this light field image is shown in FIG. FIG. 3 is an example of a light field image obtained by photographing a block-like subject OB.
This light field image is composed of sub-images (S 11 to S MN ) corresponding to each of N × M microlenses 112-i arranged in a grid pattern. For example, the upper left sub-image S 11 corresponds to an image obtained by photographing the object OB from the upper left, the sub-image S MN the lower right corresponds to an image obtained by photographing the object OB from the lower right.

このライトフィールド画像の写真の一例を図4(a)に示す。ライトフィールド画像は、被写体OBを同時に複数の視点から見た複数のサブ画像を含むので、デジタルカメラ100の画像処理部120が各サブ画像を適切に合成することで、メインレンズ111から所定の距離だけ前方に離れた面に焦点を合わせた画像を再構成することができる(図4(b))。ライトフィールド画像から図4(b)に示すような再構成画像(Reconstructed Image :RI)を生成する処理である再構成処理については後述する。
なお、この実施形態では各サブ画像はグレースケール画像であり、サブ画像を構成する各画素は画素値を持つ。
An example of a photograph of this light field image is shown in FIG. Since the light field image includes a plurality of sub-images when the subject OB is viewed from a plurality of viewpoints at the same time, the image processing unit 120 of the digital camera 100 appropriately synthesizes the sub-images so that a predetermined distance from the main lens 111 is obtained. It is possible to reconstruct an image that is focused on a plane that is farther forward (FIG. 4B). A reconstruction process, which is a process for generating a reconstructed image (RI) as shown in FIG. 4B from the light field image, will be described later.
In this embodiment, each sub image is a grayscale image, and each pixel constituting the sub image has a pixel value.

ここで、CPU121は、ROM122内の各種プログラムを読み出し、RAM123に展開した後、その各種プログラムに従って画像処理部120を制御することで、図5に示すような各部の機能を発揮することができる。機能としては、図5に示すように、再構成部150、HDR合成部160、特定部170、削減部180及び保存部190を備える。なお、各部の機能の実行主体はCPU121であるが、説明の便宜上、各部の機能を実行主体として説明する。   Here, the CPU 121 reads out various programs in the ROM 122, develops them in the RAM 123, and then controls the image processing unit 120 according to the various programs, thereby exhibiting the functions of the respective units as shown in FIG. As functions, as shown in FIG. 5, a reconfiguration unit 150, HDR synthesis unit 160, identification unit 170, reduction unit 180, and storage unit 190 are provided. It should be noted that although the execution subject of the functions of each unit is the CPU 121, for convenience of explanation, the function of each unit will be described as the execution subject.

まず、再構成部150は、それぞれ異なる視点から被写体OBを撮影した複数のサブ画像を含むライトフィールド画像から再構成画像を生成する生成手段である。
具体的には、再構成部150は、ライトフィールド画像に含まれる各サブ画像の画像ズレ係数に基づいて、各サブ画像から部分画像を切り取る際の大きさと、再構成面に部分画像を配置する際の配置間隔と、を特定する。ここで、サブ画像から部分画像を切り取るとは、部分領域の境界を決定した上でサブ画像の画像データを全て残したままサブ画像から部分画像を抽出することをいう。
First, the reconstruction unit 150 is a generation unit that generates a reconstructed image from a light field image including a plurality of sub-images obtained by capturing the subject OB from different viewpoints.
Specifically, the reconstruction unit 150 arranges the partial image on the reconstruction plane and the size when the partial image is cut out from each sub image based on the image shift coefficient of each sub image included in the light field image. The arrangement interval at the time is specified. Here, to cut out the partial image from the sub image means to extract the partial image from the sub image while determining the boundary of the partial region and leaving all the image data of the sub image.

次に、その特定した大きさの部分画像を配置間隔に従って再構成面に順次配置して再構成画像を生成する。なお、再構成面とは、再構成が可能な再構成距離範囲内のうち、所定の再構成距離における仮想的な面である。この再構成距離範囲は、メインレンズ111などの光学系の性能等により定まるものである。この再構成距離範囲は、具体的には、サブ画像間の被写体の画素ずれ(視差)が最も大きくなるメインレンズ111から最も近い距離と、視差が最も小さくなるメインレンズ111から最も遠い距離と、の間の範囲となる。この実施形態においては、一例として、再構成が可能な再構成距離範囲はメインレンズ111の手前20cmから10mの範囲内であり、所定の再構成距離は2mであるものとする。以下、再構成処理について図6のフローチャートを参照しながら詳述する。   Next, the reconstructed image is generated by sequentially arranging the partial images of the specified size on the reconstruction surface according to the arrangement interval. The reconstruction plane is a virtual plane at a predetermined reconstruction distance within a reconstruction distance range in which reconstruction is possible. This reconstruction distance range is determined by the performance of the optical system such as the main lens 111. Specifically, this reconstruction distance range is the closest distance from the main lens 111 where the pixel shift (parallax) of the subject between sub-images is the largest, the farthest distance from the main lens 111 where the parallax is the smallest, The range is between. In this embodiment, as an example, it is assumed that a reconstruction distance range in which reconstruction is possible is within a range of 20 cm to 10 m before the main lens 111, and a predetermined reconstruction distance is 2 m. Hereinafter, the reconstruction process will be described in detail with reference to the flowchart of FIG.

再構成部150は、撮像素子113により生成されたライトフィールド画像を取得してRAM123の所定領域に設定されたバッファメモリに一時的に保存すると図6の再構成処理を開始する。
まず、再構成部150は、k1をカウンタ変数として、ライトフィールド画像のk1番目のサブ画像に注目する(ステップS11)。次に、再構成部150は、ステップS11で注目したサブ画像である注目サブ画像の画像ズレ係数を算出する(ステップS12)。具体的には、再構成部150は、注目サブ画像に写る被写体が、その注目サブ画像を中心とした所定範囲の周囲のサブ画像においてどの程度ずれて映っているかを示す係数である画像ズレ係数を算出する。画像ズレ係数は、例えば以下の方法で算出する。
When the reconstruction unit 150 acquires the light field image generated by the image sensor 113 and temporarily stores it in the buffer memory set in a predetermined area of the RAM 123, the reconstruction unit 150 starts the reconstruction process of FIG.
First, the reconstruction unit 150 pays attention to the k1th sub-image of the light field image using k1 as a counter variable (step S11). Next, the reconstruction unit 150 calculates an image shift coefficient of the target sub-image that is the sub-image focused in step S11 (step S12). Specifically, the reconstruction unit 150 is an image shift coefficient that is a coefficient indicating how much the subject that appears in the target sub-image appears in a sub-image around a predetermined range centered on the target sub-image. Is calculated. The image shift coefficient is calculated by the following method, for example.

注目サブ画像の中心の所定領域(例えば、中心の10×10の画素の領域)を中心領域とし、その中心領域に対応する部分が右隣(無い場合は、左隣)のサブ画像のどこにあるのかを求める。具体的には、右隣の中心の10×10の画素の領域を算出対象領域とする。そして、中心領域と算出対象領域の各画素値の差分絶対値和をとる。次に、右に1画素ずらした算出対象領域について同様に差分絶対値和をとる。これを起こりうる画素ずれ(視差)の範囲について繰り返す。得られた差分絶対値和が最小である算出対象領域が中心領域と対応する領域である。また、その最小の差分絶対値和が得られた画素ずれの数を画像ズレ係数とする。   A predetermined area at the center of the target sub-image (for example, the center 10 × 10 pixel area) is the central area, and the part corresponding to the central area is located on the right side (or the left side if there is none) of the sub-image. Ask for. Specifically, the area of the 10 × 10 pixel at the center on the right is set as the calculation target area. Then, the sum of absolute differences between the pixel values of the center area and the calculation target area is calculated. Next, the sum of absolute differences is similarly obtained for the calculation target region shifted to the right by one pixel. This is repeated for a range of possible pixel shifts (parallax). The area to be calculated having the smallest sum of absolute differences obtained is the area corresponding to the central area. In addition, the number of pixel shifts for which the minimum sum of absolute differences is obtained is defined as an image shift coefficient.

次に、再構成部150は、部分画像の大きさを特定する(ステップS13)。具体的には、再構成部150は、SD124に記憶された図7に示す部分画像定義テーブルを参照して、算出した画像ズレ係数と対応する部分画像の大きさを特定する。例えば、画像ズレ係数が8画素である場合、部分画像の大きさは注目サブ画像の中心6×6画素の領域である。なお、この部分画像定義テーブルは、予めSD124に記憶されているものとする。また、この部分画像定義テーブルの部分画像の大きさは、画像ズレ係数が大きい程大きくなる。これは画像ズレ係数が大きいと被写体OBの位置がサブ画像間で大きくずれていることを意味し、隣接するサブ画像の部分画像を繋げて再構成画像を生成するにあたって情報の抜けを作らないためには部分画像の大きさが大きい方が好ましいからである。一方で、画像ズレ係数が小さい画像については部分画像を小さくして、隣同士のサブ画像間に現れる情報の重複が、再構成画像上に過度に現れないようにしている。   Next, the reconstruction unit 150 identifies the size of the partial image (step S13). Specifically, the reconstruction unit 150 refers to the partial image definition table illustrated in FIG. 7 stored in the SD 124 and specifies the size of the partial image corresponding to the calculated image shift coefficient. For example, when the image shift coefficient is 8 pixels, the size of the partial image is a region of 6 × 6 pixels in the center of the target sub-image. Note that this partial image definition table is stored in the SD 124 in advance. The size of the partial image in the partial image definition table increases as the image shift coefficient increases. This means that if the image misalignment coefficient is large, the position of the subject OB is greatly shifted between the sub-images, and information is not lost when the reconstructed images are generated by connecting the partial images of the adjacent sub-images. This is because a larger partial image is preferable. On the other hand, for an image with a small image deviation coefficient, the partial image is made small so that the duplication of information appearing between adjacent sub-images does not appear excessively on the reconstructed image.

次に、再構成部150は、配置間隔を特定する(ステップS14)。具体的には、再構成部150は、再構成距離と画像ズレ係数とメインレンズ111の焦点距離と配置間隔とを対応付けた図8に示す配置間隔テーブルを参照して、部分画像の配置間隔を特定する。この配置間隔テーブルでは、予め実験により求められた好適な配置間隔が設定されている。また、この配置間隔テーブルは、予めSD124に記憶されているものとする。再構成部150は、例えば再構成距離が2m、算出した画像ズレ係数が3画素、設定情報であるメインレンズ111の焦点距離が5mである場合、配置間隔2画素を特定する。   Next, the reconfiguration unit 150 identifies the arrangement interval (step S14). Specifically, the reconstruction unit 150 refers to the arrangement interval of the partial images with reference to the arrangement interval table illustrated in FIG. 8 in which the reconstruction distance, the image deviation coefficient, the focal length of the main lens 111, and the arrangement interval are associated with each other. Is identified. In this arrangement interval table, suitable arrangement intervals obtained in advance through experiments are set. This arrangement interval table is stored in advance in the SD 124. For example, when the reconstruction distance is 2 m, the calculated image shift coefficient is 3 pixels, and the focal length of the main lens 111 as setting information is 5 m, the reconstruction unit 150 identifies an arrangement interval of 2 pixels.

次に、再構成部150は、部分画像を再構成面に重ね合わせ配置する(ステップS15)。具体的には、再構成部150は、特定した大きさの部分画像を注目サブ画像から切り出して、その切り出した部分画像を配置間隔に従って構成面に配置する。この際、部分画像の一辺の大きさは配置間隔よりも大きいので、再構成面に配置した部分画像同士には重なりが生ずる。重なった部分については、画素の画素値を加算平均して再構成画像の画素値とする。   Next, the reconstruction unit 150 superimposes and arranges the partial images on the reconstruction surface (step S15). Specifically, the reconstruction unit 150 cuts out a partial image having a specified size from the target sub-image, and places the cut-out partial image on the configuration surface according to the arrangement interval. At this time, since the size of one side of the partial images is larger than the arrangement interval, the partial images arranged on the reconstruction plane overlap each other. For the overlapped portion, the pixel values of the pixels are added and averaged to obtain the pixel value of the reconstructed image.

次に、再構成部150は、全サブ画像処理済か否か判断し(ステップS16)、処理済でない場合(ステップS16;No)、カウンタをインクリメントして(ステップS17)、全サブ画像を処理するまでステップS11乃至S15の処理を繰り返す。再構成部150は、全サブ画像処理済みであると判断すると(ステップS16;Yes)、生成した再構成画像をSD124に記憶して処理を終了する。また、再構成部150は、RAM123に一時的に記憶しているライトフィールド画像を消去する。   Next, the reconstruction unit 150 determines whether or not all sub-images have been processed (step S16). If not processed (step S16; No), the counter is incremented (step S17) to process all sub-images. Steps S11 to S15 are repeated until When the reconstruction unit 150 determines that all the sub-images have been processed (step S16; Yes), the generated reconstruction image is stored in the SD 124, and the process ends. Further, the reconstruction unit 150 deletes the light field image temporarily stored in the RAM 123.

ここで、図9を参照しながらライトフィールド画像から再構成画像を生成する処理の概要について説明する。なお、説明の便宜上、特定した部分画像の大きさの一辺が配置間隔の2倍である場合を例にとって説明する。なお、この例では再構成面の端の部分を除いて、部分画像が4枚ずつ重なる。
まず、再構成部150は、ライトフィールド画像の左上のサブ画像S11をサブ画像として注目する(ステップS11)。そして、再構成部150は、ステップS12乃至14の処理の後、注目サブ画像S11から部分画像PI11を切り出し、その切り出した部分画像PI11を再構成面の左上に配置する(ステップS15)。
Here, an outline of processing for generating a reconstructed image from a light field image will be described with reference to FIG. For convenience of explanation, a case where one side of the size of the specified partial image is twice the arrangement interval will be described as an example. In this example, the partial images are overlapped four by four except for the end portion of the reconstruction surface.
First, the reconstruction unit 150 will focus the upper left sub-image S 11 of the light field image as a sub image (step S11). The reconstruction unit 150, after the process of step S12 through 14, cut out partial image PI 11 from the target sub-images S 11, arranged at the upper left of the reconstruction plane partial image PI 11 thereof cut out (step S15) .

ステップS11に戻って、再構成部150は、次に右隣のサブ画像S12に注目する(ステップS11)。再構成部150は、注目サブ画像S12から部分画像PI12を切り出して、その切り出した部分画像PI12を先ほど再構成面に配置した部分画像PI11の右隣に配置する(ステップS15)。切り出した部分画像PI12の一辺が配置間隔の2倍であるので、水平方向に重なりをもって配置される。再構成部150は、同様に、サブ画像S12の右隣のサブ画像S13から部分画像PI13を切り出し、水平方向に重なりをもって配置する(図9(a)参照)。 Returning to step S11, reconstruction unit 150, then focuses on the sub-image S 12 to the right (step S11). Reconstruction unit 150, target sub-image is cut out S 12 partial image PI 12 from placing the clipped partial image PI 12 on the right of the partial image PI 11 disposed in the earlier reconstruction plane (step S15). Since one side of the cut out partial image PI 12 is twice the arrangement interval, it is arranged with overlap in the horizontal direction. Similarly, the reconstruction unit 150 cuts out the partial image PI 13 from the sub-image S 13 on the right side of the sub-image S 12 and arranges the partial image PI 13 with overlapping in the horizontal direction (see FIG. 9A).

再構成部150は、この処理をライトフィールド画像の右端まで繰り返す。再構成部150は、右端のサブ画像S1Nの処理が済んだら、ライトフィールド画像の左端に戻る。そして、再構成部150は、上から2段目のサブ画像S21に注目し(ステップS11)、注目したサブ画像S21から切り出した部分画像PI21を最初に再構成面に配置した部分画像P11の下側に配置する(ステップS15)。再構成部150は、切り出した部分画像PI21の一辺が配置間隔の2倍であるので垂直方向に重なりをもって配置する(図9(b)参照)。 The reconstruction unit 150 repeats this process up to the right end of the light field image. The reconstruction unit 150 returns to the left end of the light field image after the processing of the rightmost sub-image S1N is completed. The reconstruction unit 150 may focus on the sub-image S 21 next to the uppermost (step S11), and noted the partial image and the partial image PI 21 cut out from the sub-image S 21 disposed in the first reconstruction plane placed below the P 11 (step S15). Since one side of the cut out partial image PI 21 is twice the arrangement interval, the reconstruction unit 150 arranges the overlapping partial image with overlap in the vertical direction (see FIG. 9B).

再構成部150は、2段目の全てのサブ画像S21〜S2Nの処理が済んだら、ライトフィールド画像の次の段のサブ画像を処理する。再構成部150は、ライトフィールド画像の右下のサブ画像SMNまで処理すると(ステップS16;Yes)、生成した再構成画像をSD124に記憶して再構成処理を終了する。 The reconstructing unit 150 processes the sub-image in the next stage of the light field image after all the sub-images S 21 to S 2N in the second stage have been processed. Reconstruction unit 150, when processing to sub-image S MN bottom right of the light field image (Step S16; Yes), the reconstructed image generated ends the reconstruction process and stored in the SD124.

なお、再構成部150は、図6乃至9を参照して説明した再構成処理の後、後述するデータ削減処理用に、生成した再構成画像を構成する各画素を示す座標と、サブ画像を構成する各画素を示す座標と、を対応付けた図10に示す画素対応テーブルを作成してSD124に記憶する。
この画素対応テーブルにおいて再構成画像の各画素の座標は、再構成面の左上を座標原点(0,0)とし、水平方向をx座標、垂直方向をy座標で表したものである。また、サブ画像の各画素の座標は、ライトフィールド画像を構成する左上のサブ画像S11から右下のサブ画像SMNの各画素の座標のうち、再構成画像の各画素の座標と対応する座標を示している。例えば、再構成画像の画素の座標(0,0)と対応するのは、ライトフィールド画像を構成する左上のサブ画像S11の画素の座標(x,y)である。一方、再構成画像の画素の座標(1,1)と対応するのは、S11(x,y)、S12(x,y)、S21(x,y)及びS22(x,y)である。このことは、座標(1,1)の再構成画像の画素は、S11、S12、S21及びS22の各座標における部分画像の画素が重ね合っていることを示す。
Note that, after the reconstruction processing described with reference to FIGS. 6 to 9, the reconstruction unit 150 uses coordinates indicating each pixel constituting the generated reconstruction image and a sub image for data reduction processing described later. A pixel correspondence table shown in FIG. 10 in which coordinates indicating the respective pixels constituting the image are associated with each other is created and stored in the SD 124.
In this pixel correspondence table, the coordinates of each pixel of the reconstructed image are represented by the coordinate origin (0, 0) at the upper left of the reconstructed plane, the x direction in the horizontal direction, and the y coordinate in the vertical direction. The coordinates of each pixel of the sub image, of the upper left sub-image S 11 constituting the light field image coordinates of each pixel of the sub-image S MN lower right corresponds to the each pixel of the reconstructed image coordinates The coordinates are shown. For example, the coordinates (x 1 , y 1 ) of the upper left sub-image S 11 constituting the light field image correspond to the coordinates (0, 0) of the pixel of the reconstructed image. On the other hand, the coordinates (1, 1) of the pixels of the reconstructed image correspond to S 11 (x 3 , y 3 ), S 12 (x 2 , y 2 ), S 21 (x 1 , y 1 ) and S 22 (x 1 , y 1 ). This indicates that the pixels of the reconstructed image at the coordinates (1, 1) are overlapped with the pixels of the partial image at the coordinates of S 11 , S 12 , S 21 and S 22 .

図5に戻って、HDR合成部160は、再構成部150によって露出が異なる複数のライトフィールド画像から生成した複数の再構成画像を、画素毎に所定の合成比率を用いて合成する合成手段である。
具体的には、HDR合成部160は、露出を変えて高速3連写した3枚のライトフィールド画像から再構成部150により再構成された3枚の再構成画像をSD124から取得する。次に、HDR合成部160は、取得した3枚の再構成画像を画素毎に所定の合成比率を用いて合成しHDR画像を生成し、SD124に記憶する。以下、HDR画像を生成するためのHDR合成処理について図11を参照しながら詳述する。
Returning to FIG. 5, the HDR synthesizing unit 160 is a synthesizing unit that synthesizes a plurality of reconstructed images generated from a plurality of light field images with different exposures by the reconstructing unit 150 using a predetermined composition ratio for each pixel. is there.
Specifically, the HDR synthesizing unit 160 acquires, from the SD 124, three reconstructed images reconstructed by the reconstructing unit 150 from three light field images that have been subjected to three high-speed continuous shooting with different exposures. Next, the HDR synthesizing unit 160 synthesizes the acquired three reconstructed images using a predetermined synthesis ratio for each pixel, generates an HDR image, and stores the HDR image in the SD 124. Hereinafter, the HDR synthesizing process for generating the HDR image will be described in detail with reference to FIG.

まず、HDR合成部160は、再構成部150により再構成された3枚の再構成画像(図11(a)参照)をSD124から取得する。図11(a)に示す3枚の再構成画像は左から順に、露出アンダーのライトフィールド画像から再構成された再構成画像(以下、「露出アンダー再構成画像」という)、適正露出のライトフィールド画像から再構成された再構成画像(以下、「適正露出再構成画像」という)、露出オーバーのライトフィールド画像から再構成された再構成画像(以下、「露出オーバー再構成画像」という)である。なお、露出アンダーは適正露出未満の露出を意味し、露出オーバーは適正露出を超える露出を意味する。図示するように、露出アンダー再構成画像は適正露出未満の露出であるため画像全体に渡って暗く、露出オーバー再構成画像は適正露出を超える露出であるため画像全体に渡って明るい。   First, the HDR synthesizing unit 160 acquires three reconstructed images (see FIG. 11A) reconstructed by the reconstructing unit 150 from the SD 124. The three reconstructed images shown in FIG. 11A are a reconstructed image reconstructed from an underexposed light field image in order from the left (hereinafter referred to as “underexposed reconstructed image”), a light field with proper exposure. A reconstructed image reconstructed from an image (hereinafter referred to as “appropriate exposure reconstructed image”), and a reconstructed image reconstructed from an overexposed light field image (hereinafter referred to as “overexposed reconstructed image”). . Underexposure means exposure below proper exposure, and overexposure means exposure beyond proper exposure. As shown in the drawing, the underexposed reconstructed image is dark over the entire image because the exposure is less than the appropriate exposure, and the overexposed reconstructed image is bright over the entire image because the overexposed reconstructed image is exposed beyond the proper exposure.

次に、HDR合成部160は、露出アンダー再構成画像と適正露出再構成画像と露出オーバー再構成画像とを構成する各画素の画素値を平均化し、平均化後の画像を平滑化して判定用画像を作成する(図11(b))。これにより3枚の再構成画像の画素値(0:黒〜255:白)が平均化されるので明るさが平均化されるとともに、平滑化によりランダムなノイズが除去された判定用画像が得られる。なお、平滑化は公知の手法により(例えば、平均化後の画像に対してεフィルタをかけることにより)行うことができる。   Next, the HDR synthesizing unit 160 averages the pixel values of each pixel constituting the underexposure reconstructed image, the proper exposure reconstructed image, and the overexposed reconstructed image, and smoothes the averaged image for determination. An image is created (FIG. 11B). As a result, the pixel values (0: black to 255: white) of the three reconstructed images are averaged, so that the brightness is averaged and a determination image from which random noise is removed by smoothing is obtained. It is done. The smoothing can be performed by a known method (for example, by applying an ε filter to the averaged image).

次に、HDR合成部160は、SD124に記憶された図12に示す合成比率設定グラフを参照して、判定用画像の画素値に基づいて画素毎に露出アンダー用合成比率Ru、適正露出用合成比率Rm、及び露出オーバー用合成比率Roをそれぞれ決定する。なお、判定用画像の各画素の画素値は、上述したように3枚の再構成画像の各画素の画素値が平均化されて平滑化されたものである。このため、判定用画像の各画素の画素値に基づいて定まるRu、Rm及びRoそれぞれの合成比率は、3枚の再構成画像の各画素の画素値に応じて定まるともいえる。すなわち、HDR合成部160は、複数の再構成画像の合成比率を、その複数の再構成画像において対応する各画素の画素値に応じて画素毎に決定する決定手段ともいえる。
図12に示した合成比率設定グラフは、判定用画像の画素値が低い場合(暗い場合)、明るい露出オーバー再構成画像の画素の合成比率が高くなるようにRoが高く設定されている。一方、合成比率設定グラフは、判定用画像の画素値が高い場合(明るい場合)、暗い露出アンダー再構成画像の画素の合成比率が高くなるようにRuが高く設定されている。
Next, the HDR synthesizing unit 160 refers to the synthesis ratio setting graph shown in FIG. 12 stored in the SD 124, and based on the pixel value of the image for determination, the under-exposure synthesis ratio Ru and the appropriate exposure composition. The ratio Rm and the overexposure composition ratio Ro are respectively determined. Note that the pixel value of each pixel of the determination image is obtained by averaging and smoothing the pixel value of each pixel of the three reconstructed images as described above. For this reason, it can be said that the combination ratio of each of Ru, Rm, and Ro determined based on the pixel value of each pixel of the determination image is determined according to the pixel value of each pixel of the three reconstructed images. That is, it can be said that the HDR synthesizing unit 160 is a determining unit that determines a composition ratio of a plurality of reconstructed images for each pixel according to a pixel value of each corresponding pixel in the plurality of reconstructed images.
In the combination ratio setting graph shown in FIG. 12, when the pixel value of the determination image is low (when dark), Ro is set high so that the combination ratio of the pixels of the bright overexposed reconstructed image is high. On the other hand, in the combination ratio setting graph, when the pixel value of the determination image is high (when it is bright), Ru is set high so that the combination ratio of the pixels of the dark underexposed reconstructed image is high.

例えば、判定用画像の画素値が高い場合(図11(b)の判定用画像の右上を注目画素とするような場合)、合成比率設定グラフに基づいてRu、Rm及びRoの合成比率がそれぞれ概ね70%、30%及び0%となる。
ここで、適正露出再構成画像の注目画素の画素値を「RIm」とし、露出アンダー再構成画像の注目画素の画素値を「RIu」とし、露出オーバー再構成画像の注目画素の画素値を「RIo」とする。この場合、HDR画像の画素の画素値を「HDRmix」とすると、HDRmixは次の(1)の式で表される。
HDRmix=Ru×RIu+Rm×RIm+Ro×RIo・・・・(1)
For example, when the pixel value of the determination image is high (when the upper right of the determination image in FIG. 11B is the target pixel), the combination ratios of Ru, Rm, and Ro are each based on the combination ratio setting graph. They are generally 70%, 30% and 0%.
Here, the pixel value of the target pixel of the proper-exposure reconstructed image is “RIm”, the pixel value of the target pixel of the under-exposure reconstructed image is “RIu”, and the pixel value of the target pixel of the over-exposed reconstructed image is “ RIo ". In this case, assuming that the pixel value of the pixel of the HDR image is “HDRmix”, HDRmix is expressed by the following equation (1).
HDRmix = Ru × RIu + Rm × RIm + Ro × RIo (1)

HDR合成部160は、露出アンダー再構成画像、適正露出再構成画像及び露出オーバー再構成画像それぞれの同一座標の画素を注目画素に設定し、その注目画素と同一座標にある判定用画像の画素の画素値に基づいてRu、Rm、Roをそれぞれ決定する。そして、HDR合成部160は、上記(1)の式に基づいてHDR画像の画素の画素値であるHDRmixを算出する。HDR合成部160は、露出アンダー再構成画像、適正露出再構成画像及び露出オーバー再構成画像の画素全てについてHDRmixを算出して、図11(c)に示すHDR画像を生成し、SD124に記憶する。   The HDR synthesizing unit 160 sets a pixel having the same coordinate in each of the under-exposure reconstructed image, the proper exposure reconstructed image, and the over-exposure reconstructed image as a target pixel, and sets the pixel of the determination image at the same coordinate as the target pixel. Ru, Rm, and Ro are determined based on the pixel values. Then, the HDR synthesizing unit 160 calculates HDRmix that is a pixel value of a pixel of the HDR image based on the formula (1). The HDR synthesizing unit 160 calculates HDRmix for all pixels of the underexposure reconstructed image, the proper exposure reconstructed image, and the overexposed reconstructed image, generates the HDR image shown in FIG. 11C, and stores it in the SD 124. .

なお、HDR画像、露出アンダー再構成画像、適正露出再構成画像及び露出オーバー再構成画像それぞれの各画素を示す座標位置は同じである。HDR合成部160は、後述するデータ量削減処理用に、HDR画像の各画素を示す座標と合成比率Ru、Rm及びRoとを対応付けた図13に示す合成比率対応テーブルを作成してSD124に記憶する。
この合成比率対応テーブルにおいてHDR画像の各画素の座標は、HDR画像の左上を座標原点(0,0)とし、水平方向をx座標、垂直方向をy座標で表したものである。また、合成比率は、HDR画像の各画素を示す座標と同じ座標位置にある露出アンダー再構成画像、適正露出再構成画像及び露出オーバー再構成画像それぞれの各画素をどれだけの合成比率(Ru、Rm及びRo)で合成したかを示している。図中に示すA乃至Iは、図12の合成比率設定グラフに基づいて決定した各合成比率を示している。
In addition, the coordinate position which shows each pixel of an HDR image, an underexposure reconstruction image, a proper exposure reconstruction image, and an overexposure reconstruction image is the same. The HDR synthesizing unit 160 creates a synthesis ratio correspondence table shown in FIG. 13 in which coordinates indicating each pixel of the HDR image are associated with the synthesis ratios Ru, Rm, and Ro for data amount reduction processing to be described later, and stores them in the SD 124. Remember.
In the combination ratio correspondence table, the coordinates of each pixel of the HDR image are represented by the coordinate origin (0, 0) at the upper left of the HDR image, the x direction in the horizontal direction, and the y coordinate in the vertical direction. In addition, the composition ratio indicates how much composition ratio (Ru,) each pixel of each of the underexposure reconstructed image, the proper exposure reconstructed image, and the overexposed reconstructed image at the same coordinate position as the coordinates indicating each pixel of the HDR image. Rm and Ro). A to I shown in the figure indicate respective composition ratios determined based on the composition ratio setting graph of FIG.

図5に戻って、特定部170は、複数の再構成画像を構成する画素のうち、HDR合成部160により決定した合成比率が0よりも大きい画素を特定する特定手段である。
具体的には、特定部170は、図13の合成比率対応テーブルを参照して、露出アンダー再構成画像、適正露出再構成画像及び露出オーバー再構成画像それぞれについて合成比率が0よりも大きい画素を複数特定する。これは、HDR画像と各再構成画像とは各画素を示す座標位置が同じであるため、図13の合成比率対応テーブルを参照すればHDR画像の画素の座標から各再構成画像の合成比率が0よりも大きい画素を特定できるからである。なお、特定部170の具体的な特定方法については後述する。
Returning to FIG. 5, the specifying unit 170 is a specifying unit that specifies a pixel having a combination ratio determined by the HDR combining unit 160 larger than 0 among the pixels constituting the plurality of reconstructed images.
Specifically, the specifying unit 170 refers to the combination ratio correspondence table in FIG. 13 and selects pixels with a combination ratio larger than 0 for each of the underexposure reconstructed image, the proper exposure reconstructed image, and the overexposure reconstructed image. Specify more than one. This is because the HDR image and each reconstructed image have the same coordinate position indicating each pixel. Therefore, referring to the composition ratio correspondence table in FIG. 13, the composition ratio of each reconstructed image is determined from the coordinates of the HDR image pixel. This is because a pixel larger than 0 can be specified. A specific specifying method of the specifying unit 170 will be described later.

次に、削減部180は、特定部170により特定した複数の画素(合成比率が0よりも大きい複数の画素)と何れにも対応しない画素を含むサブ画像のデータ量を削減する削減手段である。
具体的には、削減部180は、特定部170により特定した複数の画素と何れにも対応しない画素を含むサブ画像について、そのサブ画像の画素の画素値を特定の値に変更し、その変更後のサブ画像を含むライトフィールド画像を圧縮してデータ量を削減する。なお、削減部180による具体的なデータ量の削減方法については後述する。
Next, the reduction unit 180 is a reduction unit that reduces the data amount of a sub-image that includes a plurality of pixels specified by the specifying unit 170 (a plurality of pixels having a combination ratio greater than 0) and pixels that do not correspond to any of them. .
Specifically, the reduction unit 180 changes the pixel value of the pixel of the sub-image to a specific value for the sub-image including a plurality of pixels specified by the specifying unit 170 and none of the pixels. The data amount is reduced by compressing the light field image including the subsequent sub-image. A specific method for reducing the amount of data by the reduction unit 180 will be described later.

次に、保存部190は、削減部180によりデータ量が削減された複数のライトフィールド画像をSD124に保存する手段である。
以上、図1乃至図11を参照しながら説明したデジタルカメラ100の一つの特徴的な点は、HDR画像の生成にあたり合成に用いなかった合成比率が0の再構成画像の画素と対応する画素を含むサブ画像のデータ量を削減してライトフィールド画像をSD124に保存する点である。そこで、以下この点に関連するデータ量削減処理について、図14のフローチャートを参照しながら説明する。
Next, the storage unit 190 is means for storing a plurality of light field images whose data amount has been reduced by the reduction unit 180 in the SD 124.
As described above, one characteristic point of the digital camera 100 described with reference to FIGS. 1 to 11 is that pixels corresponding to pixels of a reconstructed image having a combination ratio of 0 that is not used for combining in generating an HDR image. The light field image is stored in the SD 124 by reducing the data amount of the included sub image. Therefore, data amount reduction processing related to this point will be described below with reference to the flowchart of FIG.

なお、この図14のフローチャートは、CPU121が、ROM122に記憶された各種プログラムを実行して図5に示した各部の機能を発揮することにより実施する。また、この図14のフローチャートの処理開始にあたって、CPU121は各ライトフィールド画像のサブ画像の画素の座標には、予め合成に用いないことを示すフラグ0を設定する初期設定処理を実行する。
CPU121は、露出を変えて高速3連写して得られた3枚のライトフィールド画像(LFI)を撮像素子113から取得してRAM123の所定領域に設定されたバッファメモリに一時的に保存するとデータ量削減処理を開始する。
The flowchart of FIG. 14 is implemented by the CPU 121 executing various programs stored in the ROM 122 to exhibit the functions of the units shown in FIG. Further, at the start of the process of the flowchart of FIG. 14, the CPU 121 executes an initial setting process in which a flag 0 indicating that the light field image is not used for composition is set in advance in the coordinates of the sub-image pixels of each light field image.
When the CPU 121 obtains three light field images (LFI) obtained by performing three high-speed continuous shootings with different exposures from the image sensor 113 and temporarily stores them in a buffer memory set in a predetermined area of the RAM 123, the data amount Start reduction processing.

まず、CPU121は、露出の異なる3枚のライトフィールド画像をそれぞれ再構成して3枚の再構成画像を取得する(ステップS21)。具体的には、CPU121は、所定の再構成距離(この実施形態においては2m)において図6に示した再構成処理をライトフィールド画像それぞれに行って再構成画像を3枚取得する。また、CPU121は、図10の画素対応テーブルを作成してSD124に記憶する。   First, the CPU 121 reconstructs three light field images with different exposures to obtain three reconstructed images (step S21). Specifically, the CPU 121 obtains three reconstructed images by performing the reconstructing process shown in FIG. 6 on each light field image at a predetermined reconstruction distance (2 m in this embodiment). Further, the CPU 121 creates the pixel correspondence table in FIG. 10 and stores it in the SD 124.

次に、CPU121は、3枚の再構成画像をHDR合成してHDR画像を取得する(ステップS22)。具体的には、CPU121は、図11を参照しながら説明したHDR合成処理を行って、3枚の再構成画像を画素毎に所定の合成比率を用いて合成してHDR画像を取得する。また、CPU121は、図13の合成比率対応テーブルを作成してSD124に記憶する。   Next, the CPU 121 performs HDR composition on the three reconstructed images to obtain an HDR image (step S22). Specifically, the CPU 121 performs the HDR combining process described with reference to FIG. 11 and combines the three reconstructed images using a predetermined combining ratio for each pixel to obtain an HDR image. Further, the CPU 121 creates a composition ratio correspondence table in FIG. 13 and stores it in the SD 124.

次に、CPU121は、k2をカウンタ変数として、HDR画像のk2番目の画素に注目する(ステップS23)。次に、CPU121は、k3をカウンタ変数として、注目画素の座標と対応するサブ画像の画素の座標をk3番目のライトフィールド画像について特定する(ステップS24)。具体的には、CPU121は、HDR画像の注目画素の座標がHDR(X,Y)であった場合、座標HDR(X,Y)と3枚の再構成画像の座標は同一であることを利用してサブ画像の画素の座標を特定する。   Next, the CPU 121 pays attention to the k2th pixel of the HDR image using k2 as a counter variable (step S23). Next, the CPU 121 specifies the coordinates of the pixel of the sub-image corresponding to the coordinates of the pixel of interest for the k3th light field image using k3 as a counter variable (step S24). Specifically, when the coordinate of the target pixel of the HDR image is HDR (X, Y), the CPU 121 uses that the coordinate HDR (X, Y) and the coordinates of the three reconstructed images are the same. Then, the coordinates of the pixels of the sub-image are specified.

まず、CPU121は、3枚の再構成画像の中から1枚を選択する。そして、CPU121は、選択した再構成画像の生成元となったライトフィールド画像(k3=1)において、HDR(X,Y)と対応するサブ画像の画素の座標を、図10の画素対応テーブルを参照して特定する。例えば、選択した露出オーバー再構成画像の画素の座標HDR(X,Y)が(1,1)の場合、4つのサブ画像S11、S12、S21及びS22から切り出した部分画像の重ね合わせであり、4つのサブ画像の座標はそれぞれS11(x,y)、S12(x,y)、S21(x,y)及びS22(x,y)である。
ここで、説明の便宜上、座標HDR(X,Y)と対応する4つのサブ画像の座標をそれぞれSb1(x,y)、Sb2(x+α,y)、Sb3(x,y+α)及びSb4(x+α,y+α)として説明する。サブ画像Sb1乃至Sb4は、再構成画像の座標HDR(X,Y)位置にある画素と対応する画素を含むサブ画像である。また、サブ画像Sb2乃至Sb4の各座標は、座標HDR(X,Y)と対応するサブ画像Sb1の座標(x,y)を基準として、その基準座標(x,y)からどれだけずれているかを係数αを用いて表している。ここで、αは再構成距離によって変化する係数である。この実施形態では、再構成距離は2mであるので、Sb1を基準とした場合に再構成距離2mで生じる画素ずれ(視差)分がαとなる。
First, the CPU 121 selects one of the three reconstructed images. Then, the CPU 121 displays the coordinates of the sub-image pixels corresponding to HDR (X, Y) in the light field image (k3 = 1) that is the generation source of the selected reconstructed image, and the pixel correspondence table in FIG. Identify by reference. For example, when the coordinate HDR (X, Y) of the pixel of the selected overexposed reconstructed image is (1, 1), the partial images cut out from the four sub-images S 11 , S 12 , S 21 and S 22 are overlapped. The coordinates of the four sub-images are S 11 (x 3 , y 3 ), S 12 (x 2 , y 2 ), S 21 (x 1 , y 1 ), and S 22 (x 1 , y 1), respectively. ).
Here, for convenience of explanation, the coordinates of the four sub-images corresponding to the coordinates HDR (X, Y) are respectively Sb1 (x, y), Sb2 (x + α, y), Sb3 (x, y + α), and Sb4 (x + α, This will be described as y + α). The sub-images Sb1 to Sb4 are sub-images including pixels corresponding to the pixel at the coordinate HDR (X, Y) position of the reconstructed image. Further, how much each coordinate of the sub-images Sb2 to Sb4 is deviated from the reference coordinate (x, y) with respect to the coordinate (x, y) of the sub-image Sb1 corresponding to the coordinate HDR (X, Y). Is expressed using a coefficient α. Here, α is a coefficient that varies depending on the reconstruction distance. In this embodiment, since the reconstruction distance is 2 m, the amount of pixel shift (parallax) occurring at the reconstruction distance 2 m when Sb1 is used as a reference is α.

次に、CPU121は、注目画素の合成比率のうち、k3番目のライトフィールド画像から生成した再構成画像の合成比率が0か否か判断する(ステップS25)。具体的には、CPU121は、図13の合成比率対応テーブルを参照してHDR画像の注目画素の座標HDR(X,Y)と対応する合成比率Ru、Rm及びRoを特定する。次に、CPU121は、注目画素の合成比率Ru、Rm及びRoのうち、1番目(k3=1)のライトフィールド画像から生成した再構成画像の合成比率が0か否か判断する。例えば、1番目のライトフィールド画像が露出オーバーのライトフィールド画像である場合、露出オーバー再構成画像の合成比率Roを参照して、注目画素におけるRoの合成比率が0か否か判断する。   Next, the CPU 121 determines whether or not the composition ratio of the reconstructed image generated from the k3rd light field image among the composition ratios of the target pixel is 0 (step S25). Specifically, the CPU 121 identifies the composition ratios Ru, Rm, and Ro corresponding to the coordinates HDR (X, Y) of the target pixel of the HDR image with reference to the composition ratio correspondence table of FIG. Next, the CPU 121 determines whether or not the composition ratio of the reconstructed image generated from the first (k3 = 1) light field image among the composition ratios Ru, Rm, and Ro of the target pixel is zero. For example, when the first light field image is an overexposed light field image, it is determined whether the composition ratio Ro of the target pixel is 0 with reference to the composition ratio Ro of the overexposed reconstructed image.

次に、CPU121は、注目画素の合成比率のうち、k3番目のライトフィールド画像から生成した再構成画像の合成比率が0でない(合成に用いる)場合(ステップS25;No)、ステップS24で特定したk3番目のライトフィールド画像のサブ画像の画素の座標にフラグ1をたてる(ステップS26)。すなわち、合成に用いないことを示すフラグ0がたっているサブ画像の画素の座標をフラグ1に上書きする。ここでは、CPU121は、例えば露出オーバー再構成画像の合成比率Roが0でない場合、ステップS24で特定した4つのサブ画像の画素の座標Sb1(x,y)、Sb2(x+α,y)、Sb3(x,y+α)及びSb4(x+α,y+α)それぞれに1をたてる。   Next, when the composition ratio of the reconstructed image generated from the k3th light field image is not 0 (used for composition) among the composition ratios of the target pixel, the CPU 121 specifies in step S24. A flag 1 is set to the coordinates of the pixel of the sub-image of the k3rd light field image (step S26). That is, the coordinates of the pixel of the sub-image having flag 0 indicating that it is not used for composition are overwritten on flag 1. Here, for example, when the composition ratio Ro of the over-exposure reconstructed image is not 0, the coordinates Sb1 (x, y), Sb2 (x + α, y), Sb3 ( x, y + α) and Sb4 (x + α, y + α) are each set to 1.

一方で、CPU121は、注目画素の合成比率のうち、k3番目のライトフィールド画像から生成した再構成画像の合成比率が0である(合成に用いない)場合(ステップS25;Yes)、ステップS27に進む。   On the other hand, when the composition ratio of the reconstructed image generated from the k3th light field image is 0 (not used for composition) among the composition ratio of the target pixel, the CPU 121 proceeds to step S27. move on.

次に、CPU121は、全ライトフィールド画像のサブ画像の座標を特定済か否かについて判断する(ステップS27)。ここで、CPU121は、全ライトフィールド画像のサブ画像の座標を特定済でない場合(ステップS27;No)、残りのライトフィールド画像についてステップS24乃至S26の処理を行うために、カウンタk3をインクリメントして(ステップS28)、ステップS24に戻る。上述の例の場合、1番目のライトフィールド画像は露出オーバーのライトフィールド画像であったため、2番目のライトフィールド画像は適正露出又は露出アンダーのライトフィールド画像から選択される。   Next, the CPU 121 determines whether or not the coordinates of the sub-images of all light field images have been specified (step S27). Here, when the coordinates of the sub-images of all the light field images have not been specified (step S27; No), the CPU 121 increments the counter k3 to perform the processing of steps S24 to S26 for the remaining light field images. (Step S28), the process returns to Step S24. In the above example, the first light field image is an overexposed light field image, so the second light field image is selected from a properly exposed or underexposed light field image.

全てのライトフィールド画像についてステップS24乃至S26の処理を終了すると、CPU121は、全ライトフィールド画像のサブ画像の座標を特定済であるとして(ステップS27;Yes)、HDR画像の全画素注目済か否か判断する(ステップS29)。CPU121は、HDR画像の全画素注目済でない場合(ステップS29;No)、カウンタk2をインクリメントして(ステップS30)、ステップS23に戻り、HDR画像の全画素が注目済みとなるまでステップS23乃至S27の処理を繰り返す。   When the processing of steps S24 to S26 is completed for all the light field images, the CPU 121 determines that the coordinates of the sub-images of all the light field images have been identified (step S27; Yes), and whether all the pixels of the HDR image have been noticed. (Step S29). If all the pixels of the HDR image have not been noticed (step S29; No), the CPU 121 increments the counter k2 (step S30), returns to step S23, and steps S23 to S27 until all the pixels of the HDR image have been noticed. Repeat the process.

次に、CPU121は、HDR画像の全画素を注目済であると判断すると(ステップS29;Yes)、HDR画像の全画素の座標とそれぞれ対応するサブ画像の画素の座標のうち、合成に用いる画素の座標について全てフラグ1がたったものとして(フラグが0のままのサブ画像の画素については、HDR合成に用いられることがないものとして)、ステップS31に進む。ステップS31では、CPU121は、各ライトフィールド画像に含まれるサブ画像の中から、サブ画像内の画素の座標のフラグが全て0の(フラグ1がたてられなかった)サブ画像を特定する。次に、CPU121は、その特定したサブ画像内の画素値を全て0に設定する(ステップS32)。   Next, when the CPU 121 determines that all the pixels of the HDR image have been noticed (step S29; Yes), the pixel used for composition among the coordinates of the pixels of the sub image respectively corresponding to the coordinates of all the pixels of the HDR image. As for all of the coordinates, the flag 1 is left (assuming that the pixels of the sub-image where the flag remains 0 are not used for HDR synthesis), and the process proceeds to step S31. In step S <b> 31, the CPU 121 specifies a sub image in which all of the pixel coordinate flags in the sub image are 0 (flag 1 has not been set) from among the sub images included in each light field image. Next, the CPU 121 sets all the pixel values in the specified sub-image to 0 (step S32).

このステップS31及びS32の処理では、CPU121は、各ライトフィールド画像それぞれに含まれる複数のサブ画像のうち、HDR合成に用いないサブ画像を全て特定し、その特定したサブ画像内の画素値を全て特定の画素値である0に変更するようにしている。   In the processes of steps S31 and S32, the CPU 121 identifies all sub-images that are not used for HDR synthesis from among the plurality of sub-images included in each light field image, and all the pixel values in the identified sub-images. The specific pixel value is changed to 0.

次に、CPU121は、各ライトフィールド画像を圧縮保存する。具体的には、CPU121は、画素値を全て0に変更したサブ画像を含むライトフィールド画像を複数圧縮してSD124に保存する(ステップS33)。例えば、ビットマップ形式で記憶する場合はLZH等のランレングス圧縮を実行する。また、JPEGの符号化形式で記憶する場合でも、DCT係数を量子化した後の係数圧縮にラングレンス符号化(2次元ハフマン符号化)を用いているので、サブ画像の画素値を0にしておけば符号化後のデータ量を削減することができる。これにより、SD124は、データ量が削減された複数のライトフィールド画像を記憶することになる。なお、CPU121は、各ライトフィールド画像を圧縮保存した後、RAM123に一時的に記憶している各ライトフィールド画像を削除する。   Next, the CPU 121 compresses and saves each light field image. Specifically, the CPU 121 compresses a plurality of light field images including sub-images whose pixel values are all changed to 0 and stores them in the SD 124 (step S33). For example, when storing in the bitmap format, run length compression such as LZH is executed. Even in the case of storing in the JPEG encoding format, since the run length encoding (two-dimensional Huffman encoding) is used for the coefficient compression after the DCT coefficient is quantized, the pixel value of the sub-image is set to 0. If so, the amount of data after encoding can be reduced. As a result, the SD 124 stores a plurality of light field images with a reduced data amount. The CPU 121 deletes each light field image temporarily stored in the RAM 123 after compressing and saving each light field image.

また、図14においてCPU121が実施した各処理のうち、ステップS21は再構成部150の機能に、ステップS22はHDR合成部160の機能に、ステップS23乃至S30は特定部170の機能に、ステップS31及びS32は削減部180の機能に、ステップS33は保存部190の機能に、それぞれ対応する。   Further, among the processes performed by the CPU 121 in FIG. 14, step S21 is a function of the reconstruction unit 150, step S22 is a function of the HDR synthesis unit 160, steps S23 to S30 are functions of the specifying unit 170, and step S31. And S32 correspond to the function of the reduction unit 180, and step S33 corresponds to the function of the storage unit 190, respectively.

以上、図14の処理では、デジタルカメラ100は、再構成部150、HDR合成部160、特定部170、削減部180及び保存部190の機能を備えることにより、HDR合成に用いる再構成画像の画素を複数特定して、その特定した複数の画素と何れにも対応しない画素(合成に用いられない画素)がサブ画像を構成する全ての画素である場合に、サブ画像全ての画素値を特定の画素値である0に変更する。その後、そのサブ画像を含むライトフィールド画像を複数圧縮保存する。このことにより、圧縮効率を高めることができるので、HDR画像用に複数のライトフィールド画像をSD124に記憶する場合であってもデータ量を抑えることができる。   As described above, in the processing of FIG. 14, the digital camera 100 includes the functions of the reconstruction unit 150, the HDR composition unit 160, the identification unit 170, the reduction unit 180, and the storage unit 190, thereby reconstructing image pixels used for HDR composition. When a plurality of pixels are specified and pixels that do not correspond to any of the specified plurality of pixels (pixels that are not used for composition) are all the pixels constituting the sub image, the pixel values of all the sub images are specified. The pixel value is changed to 0. Thereafter, a plurality of light field images including the sub-image are compressed and stored. As a result, the compression efficiency can be increased, so that the amount of data can be suppressed even when a plurality of light field images are stored in the SD 124 for HDR images.

なお、圧縮効率が高まるのは、例えばビットマップ形式のライトフィールド画像をZIP又はLHA形式のライトフィールド画像に可逆圧縮する際には一般的に、ランレングス圧縮が用いられるので画素値が全て0のサブ画像については圧縮により大きくデータ量を削減できるからである。また、例えばビットマップ形式のライトフィールド画像をJPEG形式のライトフィールド画像に非可逆圧縮する場合には、少なくとも一部のサブ画像について画素値を全て0とすることでライトフィールド画像の高周波成分を低減できるので、画質を確保しながら圧縮率を上げることができる。さらに、少なくとも画素値を0としたサブ画像を含むブロックで、量子化率を低く設定してもよい。これにより、画素値が全て0のサブ画像については圧縮により大きくデータ量を削減できるので、圧縮効率が高まる。   Note that the compression efficiency is increased because, for example, when reversibly compressing a bitmap light field image into a ZIP or LHA light field image, run-length compression is generally used, so that the pixel values are all zero. This is because the data amount of the sub image can be greatly reduced by compression. For example, when a bitmap light field image is irreversibly compressed into a JPEG light field image, the high-frequency component of the light field image is reduced by setting all pixel values to 0 for at least some sub-images. Therefore, the compression rate can be increased while ensuring the image quality. Furthermore, the quantization rate may be set low in a block including a sub-image having at least a pixel value of 0. Thereby, since the data amount can be greatly reduced by compression for the sub-images whose pixel values are all 0, the compression efficiency is increased.

また、ユーザは、図14の処理の後、SD124に記憶された各ライトフィールド画像に基づいて、再構成距離を変化させたHDR画像を得ることができる。この場合、CPU121は、ユーザの設定した再構成距離で再構成画像を生成して(例えば、再構成距離1.5mの場合、メインレンズ111から1.5mの距離にピントを合わせた再構成画像を生成して)HDR合成を行うが、このHDR合成の際の各画素の合成比率は再構成距離2mの場合と同じ合成比率を用いる。これは、合成比率は各再構成画像を平均化して平滑化した判定用画像の明るさに応じて変化するが、この明るさは再構成距離を変化させても(例えば2mから1.5mにしても)極端に変化することはないからである。このため、ユーザが後からピント調整を行う場合であっても、所定の再構成距離において1度図14の処理を行っておけば足り、予め全ての再構成距離に渡って図14の処理を繰り返し行っておく必要がないので計算量を大幅に削減することができる。ただし、予め全ての再構成距離に渡って図14の処理を繰り返し行ってもよく、例えば再構成距離範囲内において所定間隔で所定回数図14の処理を行って、再構成距離が変化した場合に用いる合成比率の精度をあげてもよい。   Further, the user can obtain an HDR image in which the reconstruction distance is changed based on each light field image stored in the SD 124 after the processing of FIG. In this case, the CPU 121 generates a reconstructed image with a reconstruction distance set by the user (for example, in the case of a reconstruction distance of 1.5 m, a reconstructed image obtained by focusing on a distance of 1.5 m from the main lens 111). HDR synthesis is performed), and the same composition ratio as in the case of the reconstruction distance of 2 m is used as the composition ratio of each pixel in the HDR composition. This is because the composition ratio changes according to the brightness of the judgment image obtained by averaging and smoothing the reconstructed images, but this brightness can be changed even if the reconstruction distance is changed (for example, from 2 m to 1.5 m). Because it never changes drastically. For this reason, even if the user adjusts the focus later, it is sufficient to perform the process of FIG. 14 once at a predetermined reconstruction distance, and the process of FIG. 14 is performed over all reconstruction distances in advance. Since it is not necessary to repeat the calculation, the amount of calculation can be greatly reduced. However, the process of FIG. 14 may be repeatedly performed over all reconstruction distances in advance. For example, when the reconstruction distance changes after performing the process of FIG. 14 a predetermined number of times within a reconstruction distance range. You may raise the precision of the composition ratio to be used.

以上で実施形態の説明を終了するが、デジタルカメラ100の具体的な構成や図14に示した処理の内容等が上述の実施形態で説明したものに限られないことはもちろんである。
例えば、上述した実施形態では、図1のCPU121が画像処理部120及びデジタルカメラ100を制御したが、デジタルカメラ100に別途CPUを設けてもよい。この場合、画像処理部120のCPU121は、画像処理部120の制御に特化し、表示部140への表示制御や操作部130の操作検知等は行わない。
Although the description of the embodiment has been completed, the specific configuration of the digital camera 100, the contents of the processing illustrated in FIG. 14, and the like are of course not limited to those described in the above embodiment.
For example, in the above-described embodiment, the CPU 121 in FIG. 1 controls the image processing unit 120 and the digital camera 100, but the digital camera 100 may be provided with a separate CPU. In this case, the CPU 121 of the image processing unit 120 specializes in the control of the image processing unit 120 and does not perform display control on the display unit 140, operation detection of the operation unit 130, or the like.

また、画像処理部120のSD124に代えて、他のリムーバブルな記録媒体(例えば、CD、DVD等)を用いてもよい。この場合、このリムーバルな記録媒体に上述した各種画像のデータが記録される。   Further, instead of the SD 124 of the image processing unit 120, other removable recording media (for example, CD, DVD, etc.) may be used. In this case, the above-described various image data are recorded on the removable recording medium.

また、図5に示した再構成部150が行う図6の再構成処理において、サブ画像間の被写体OBの画素ずれに基づいて、メインレンズ111から被写体OBまでの距離推定を行って、その推定した距離と再構成距離との差分に応じて被写体OBにボケを付加した再構成画像を生成するようにしてもよい。なお、被写体OBまでの距離推定は、画素ずれとメインレンズ111からの距離とを対応付けたテーブルを用いて行う。例えば、このテーブルを用いて画素ずれの値が示す被写体の距離を画素毎に推定する。そして、推定した被写体の距離と再構成距離との差が大きいほど、強いガウシアンフィルタによりボケ付加を行えばよい。このとき、画素値に適用するフィルタを合成比率にも適用し、フィルタ後の合成比率を用いてステップS25〜S26の処理を行うことで、フィルタを適用した場合のHDR画像を生成する場合に参照される画素の座標にフラグ1を立てることが出来る。   Further, in the reconstruction processing of FIG. 6 performed by the reconstruction unit 150 illustrated in FIG. 5, the distance from the main lens 111 to the subject OB is estimated based on the pixel shift of the subject OB between the sub-images, and the estimation is performed. A reconstructed image in which the subject OB is blurred may be generated according to the difference between the distance and the reconstruction distance. Note that the distance to the subject OB is estimated using a table in which the pixel shift is associated with the distance from the main lens 111. For example, the distance of the subject indicated by the pixel shift value is estimated for each pixel using this table. Then, as the difference between the estimated subject distance and the reconstruction distance is larger, blurring may be performed using a stronger Gaussian filter. At this time, the filter to be applied to the pixel value is also applied to the synthesis ratio, and the processing of steps S25 to S26 is performed using the synthesis ratio after the filter, and is referred to when generating an HDR image when the filter is applied. Flag 1 can be set at the coordinates of the pixel to be processed.

また、この実施形態において行う再構成処理は、図6に示した再構成処理に限られない。すなわち、再構成画像の各画素の座標とライトフィールド画像のサブ画像の各画素の座標を対応付けることができる再構成処理であれば、図6の部分画像を重ね合わせて再構成画像を生成する手法でなくてもよい。例えば別の手法として、特許文献1の光線追跡の手法を用いて再構成画像を生成してもよい。   Further, the reconstruction process performed in this embodiment is not limited to the reconstruction process shown in FIG. That is, if the reconstruction processing can associate the coordinates of each pixel of the reconstructed image with the coordinates of each pixel of the sub-image of the light field image, a method of generating a reconstructed image by superimposing the partial images of FIG. Not necessarily. For example, as another technique, a reconstructed image may be generated using the ray tracing technique disclosed in Patent Document 1.

また、図5に示したHDR合成部160が行うHDR合成処理は、再構成画像の各画素の座標と合成比率とを対応付けることができる手法であれば別の手法でもよい。例えば、トーンマッピングによる合成又は細部強調やトーン圧縮による露出合成により合成してもよい。さらに、この実施形態においては、露出が異なる複数のライトフィールド画像からそれぞれ生成した再構成画像をHDR合成する場合を例にとって説明したが、合成はHDR合成に限られない。例えば、透明度が異なる複数のライトフィールド画像からそれぞれ生成した再構成画像を合成してもよい。この場合は、図14のステップS22の再構成処理において、複数の再構成画像から目的に応じた合成画像を生成し、この合成画像を用いてステップS22以下の処理を実行すればよい。
また、図14の処理では、ステップS25及びS26において、HDR画像の注目画素の合成比率が0より大きい(合成に用いる)の場合、注目画素の座標と対応するサブ画像の画素の座標にフラグ1をたてるようにしたが、これに限られない。例えば、合成比率が所定の比率以上(例えば5%以上)の再構成画像の画素について、上記同様にフラグをたてるようにしてもよい。
Further, the HDR synthesizing process performed by the HDR synthesizing unit 160 illustrated in FIG. 5 may be another method as long as it can associate the coordinates of each pixel of the reconstructed image with the synthesis ratio. For example, the image may be synthesized by tone mapping or exposure enhancement by detail emphasis or tone compression. Furthermore, in this embodiment, the case where the reconstructed images respectively generated from a plurality of light field images with different exposures are HDR-combined has been described as an example, but the combining is not limited to HDR combining. For example, reconstructed images generated from a plurality of light field images having different transparency levels may be combined. In this case, in the reconstruction process in step S22 of FIG. 14, a composite image corresponding to the purpose may be generated from a plurality of reconstructed images, and the processes in and after step S22 may be executed using the composite image.
In the processing of FIG. 14, in steps S25 and S26, if the composition ratio of the target pixel of the HDR image is larger than 0 (used for composition), the flag 1 is set to the pixel coordinate of the sub-image corresponding to the coordinate of the target pixel. However, it is not limited to this. For example, a flag may be set in the same manner as described above for pixels of a reconstructed image whose composition ratio is equal to or higher than a predetermined ratio (for example, 5% or higher).

また、図14の処理では、ステップS26において、注目画素と対応するサブ画像の画素の座標にフラグをたてるようにしたが、これに限られない。例えば、特定したサブ画像の画素の座標が、Sb1(x,y)、Sb2(x+α,y)、Sb3(x,y+α)及びSb4(x+α,y+α)である場合、αを再構成距離の変化に応じて起こりうる画素ずれ(視差)の範囲分変化させて、その変化させたαによって決定される座標全てにフラグをたてるようにしてもよい。このことにより、ユーザが後から再構成距離を変化させた場合であっても、合成処理にあたり必要な画素が抜けてしまう事態を防ぐことができる。   Further, in the processing of FIG. 14, in step S26, a flag is set on the coordinates of the pixel of the sub-image corresponding to the target pixel, but the present invention is not limited to this. For example, when the coordinates of the pixel of the specified sub-image are Sb1 (x, y), Sb2 (x + α, y), Sb3 (x, y + α), and Sb4 (x + α, y + α), α is a change in reconstruction distance. It is also possible to change the range of pixel shift (parallax) that can occur according to the above, and set flags for all the coordinates determined by the changed α. As a result, even when the user changes the reconstruction distance later, it is possible to prevent a situation in which pixels necessary for the synthesis process are lost.

また、図14に示したデータ量削減処理では、ステップS24乃至S27において、HDR画像の注目画素の座標と対応するサブ画像の座標をライトフィールド画像毎にそれぞれ別々に特定してフラグをたてる処理を行ったが、別の手法でもよい。例えば、注目画素の座標と対応するサブ画像の座標は各ライトフィールド画像において同じであるため、1つライトフィールド画像のサブ画像の座標を特定した後、合成比率に応じてそれぞれのライトフィールド画像のサブ画像の座標にフラグをたてる処理を同時に行ってもよい。このことにより、ステップS27及びS28の処理を省略できるのでデータ量削減処理の計算量を抑えることができる。   In the data amount reduction process shown in FIG. 14, in steps S24 to S27, the coordinates of the target pixel of the HDR image and the coordinates of the sub-image corresponding to each light field image are separately specified and flagged. However, another method may be used. For example, since the coordinates of the pixel of interest and the coordinates of the corresponding sub-image are the same in each light field image, after specifying the coordinates of the sub-image of one light field image, each light field image You may perform the process which sets a flag to the coordinate of a subimage simultaneously. As a result, the processing of steps S27 and S28 can be omitted, and the amount of calculation for the data amount reduction processing can be suppressed.

また、図14の処理では、ステップS31及びS32において、各ライトフィールド画像に含まれるサブ画像の中から、サブ画像内の画素の座標のフラグが全て0のサブ画像(フラグ1をたてなかったサブ画像)を特定し、その特定したサブ画像内の画素値を全て0に設定した。言い換えると、サブ画像内の画素の座標に一つでもフラグ1をたてるとサブ画像の各画素の画素値の値を変えない。これは、所定の再構成距離において合成に用いる画素がサブ画像内で1つだけである場合に、全ての画素値を特定の値に変更してしまうと、異なる再構成距離において合成に用いる他の画素の画素値まで変更されてしまうからである。すなわち、たとえサブ画素内で合成に用いる画素が1つだけであってもサブ画像内全ての画素値を変更しないことで、再構成距離が変わった場合に用いるおそれがある他の画素の画素値を確保しておくことができる。
ただし、上述したサブ画像内の画素の座標のフラグが全て0でなくても画素値を変更してもよい。例えば、サブ画像内のある領域に含まれる画素の座標のフラグが全て0であれば、その領域の画素値を全て0にしてもよい。その領域については高圧縮が期待できるからである。また、画素値0を別の特定の画素値にしてもよい。同じ画素値が連続すればサブ画像の圧縮率が高まるからである。
Further, in the processing of FIG. 14, in steps S31 and S32, sub-images in which the pixel coordinate flags in the sub-images are all 0 out of the sub-images included in each light field image (flag 1 was not set). Sub-image) is specified, and all the pixel values in the specified sub-image are set to zero. In other words, if even one flag is set at the coordinates of the pixels in the sub-image, the value of the pixel value of each pixel of the sub-image is not changed. This is because, when only one pixel is used for composition at a predetermined reconstruction distance in the sub-image, if all pixel values are changed to a specific value, it is used for composition at a different reconstruction distance. This is because the pixel value of this pixel is changed. That is, even if only one pixel is used for composition in the sub-pixel, the pixel values of other pixels that may be used when the reconstruction distance changes by not changing all the pixel values in the sub-image. Can be secured.
However, the pixel value may be changed even if the above-described pixel coordinate flags in the sub-image are not all zero. For example, if the coordinates flags of pixels included in a certain area in the sub-image are all 0, the pixel values in that area may all be 0. This is because high compression can be expected for that region. Further, the pixel value 0 may be set to another specific pixel value. This is because if the same pixel value continues, the compression ratio of the sub-image increases.

また、この実施形態では、ライトフィールド画像のデータ量を削減する手法として、サブ画像内の画素値を特定の画素値に変更して連続する同じ画素値にして、圧縮率を高めた上で圧縮することによりデータ量を削減したが、別の手法でもよい。例えば、サブ画像内の画素の座標のフラグが全て0又は所定の合成比率以下のサブ画像についてはサブ画像のデータを削除して、ライトフィールド画像のデータ量を削減してもよい。
あるいは、サブ画像内の所定の閾値以上の面積を持つ領域に含まれる画素の座標のフラグが全て0又は所定の合成比率以下であれば、その領域を削除してライトフィールド画像のデータ量を削減してもよい。また、ライトフィールド画像においてサブ画像を構成しない領域は合成に用いることがないので、この領域を削除してもよい。これらのことは、ライトフィールド画像において、所定の閾値以上の面積を持つ領域を構成する全ての画素が合成に用いられない場合、その領域を削除してデータ量を削減することを意味する。
In this embodiment, as a technique for reducing the data amount of the light field image, the pixel value in the sub-image is changed to a specific pixel value so as to be the same continuous pixel value, and the compression is performed after increasing the compression rate. The amount of data was reduced by doing this, but another method may be used. For example, the data amount of the light field image may be reduced by deleting the sub image data for the sub image in which all the pixel coordinate flags in the sub image are 0 or less than a predetermined composition ratio.
Alternatively, if the coordinates of pixels included in a region having an area equal to or larger than a predetermined threshold in the sub-image are all 0 or less than a predetermined composition ratio, the region is deleted to reduce the data amount of the light field image May be. In addition, since a region that does not constitute a sub-image in the light field image is not used for composition, this region may be deleted. These means that, in the light field image, when all the pixels constituting an area having an area equal to or larger than a predetermined threshold value are not used for synthesis, the area is deleted to reduce the data amount.

また、この実施形態では、各種画像がグレースケール画像であることを前提に説明したが、各種画像はカラー画像でもよい。この場合、例えばRGB又はYUV等の任意の色空間を用いることができる。   In this embodiment, the description has been made on the assumption that the various images are grayscale images, but the various images may be color images. In this case, for example, an arbitrary color space such as RGB or YUV can be used.

また、この発明の画像処理部120の各処理(再構成処理、HDR合成処理及びデータ量削減処理)は、通常のPC等のコンピュータによっても実施することができる。
具体的には、上記実施形態では、各処理に係る機能を発揮するためのプログラムが、ROM122に予め記憶されているものとして説明した。しかし、図5の各部の機能を実行させるためのプログラムを、フレキシブルディスク、CD−ROM、DVD及びMO等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータにインストールすることにより、上述の各部の機能を発揮することができるコンピュータを構成してもよい。
また、プログラムをインターネット等の通信ネットワーク上のサーバ装置が有するディスク装置等に格納しておき、例えば、コンピュータがダウンロード等することができるようにしてもよい。
In addition, each process (reconstruction process, HDR synthesis process, and data amount reduction process) of the image processing unit 120 of the present invention can also be performed by a computer such as a normal PC.
Specifically, in the above-described embodiment, it has been described that a program for exhibiting a function related to each process is stored in the ROM 122 in advance. However, a program for executing the functions of the respective units in FIG. 5 is stored and distributed on a computer-readable recording medium such as a flexible disk, CD-ROM, DVD, and MO, and the program is installed in the computer. A computer that can exhibit the functions of the above-described units may be configured.
Further, the program may be stored in a disk device or the like of a server device on a communication network such as the Internet so that, for example, the computer can download it.

以上、本発明の実施形態について説明したが、この実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態をとることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、特許請求の範囲に記載された発明とその均等の範囲に含まれる。以下に、本願出願当初の特許請求の範囲に記載された発明を付記する。   As mentioned above, although embodiment of this invention was described, this embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take various other embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope of the invention described in the claims and equivalents thereof. The invention described in the scope of claims at the beginning of the present application will be appended.

(付記1)
それぞれ異なる視点から被写体を撮影した複数のサブ画像を含むライトフィールド画像を再構成した再構成画像を、露出が異なる複数の前記ライトフィールド画像から複数生成する生成手段と、
前記複数の再構成画像の合成比率を、該複数の再構成画像において対応する各画素の画素値に応じて画素毎に決定する決定手段と、
前記複数の再構成画像を構成する画素のうち、前記合成比率が所定の比率以上である画素を特定する特定手段と、
前記ライトフィールド画像において、前記特定した画素との関係が所定条件を満たす画素を含むサブ画像のデータ量を削減する削減手段と、
前記削減手段により前記データ量が削減された複数のライトフィールド画像を記憶する記憶手段と、を備えたことを特徴とする画像処理装置。
(Appendix 1)
Generating means for generating a plurality of reconstructed images obtained by reconstructing a light field image including a plurality of sub-images obtained by photographing subjects from different viewpoints, from a plurality of the light field images having different exposures;
Determining means for determining a composition ratio of the plurality of reconstructed images for each pixel according to a pixel value of each corresponding pixel in the plurality of reconstructed images;
A specifying unit for specifying a pixel having a combination ratio equal to or higher than a predetermined ratio among the pixels constituting the plurality of reconstructed images;
In the light field image, a reduction means for reducing a data amount of a sub image including a pixel whose relationship with the identified pixel satisfies a predetermined condition;
An image processing apparatus comprising: storage means for storing a plurality of light field images whose data amount has been reduced by the reduction means.

(付記2)
前記削減手段は、前記特定した画素と何れにも対応しない画素を、前記所定条件を満たす画素とすることを特徴とする付記1に記載の画像処理装置。
(Appendix 2)
The image processing apparatus according to appendix 1, wherein the reduction unit sets a pixel that does not correspond to any of the identified pixels as a pixel that satisfies the predetermined condition.

(付記3)
前記削減手段は、前記所定条件を満たす画素を含むサブ画像について、該サブ画像の画素の画素値を特定の値に変更し、該変更後のサブ画像を含むライトフィールド画像を圧縮するものであり、
前記記憶手段は、前記圧縮されたライトフィールド画像を複数記憶することを特徴とする付記1又は2に記載の画像処理装置。
(Appendix 3)
The reduction means changes a pixel value of a pixel of the sub-image to a specific value for a sub-image including a pixel satisfying the predetermined condition, and compresses the light field image including the changed sub-image. ,
The image processing apparatus according to appendix 1 or 2, wherein the storage unit stores a plurality of the compressed light field images.

(付記4)
前記削減手段は、前記サブ画像を構成する全ての画素が前記所定条件を満たす画素である場合に、該サブ画素を構成する全ての画素の画素値を特定の画素値に変更することを特徴とする付記3に記載の画像処理装置。
(Appendix 4)
The reduction means changes the pixel values of all the pixels constituting the sub-pixel to a specific pixel value when all the pixels constituting the sub-image satisfy the predetermined condition. The image processing apparatus according to appendix 3.

(付記5)
前記削減手段は、前記複数のライトフィールド画像それぞれが含む何れかのサブ画像において、所定の閾値以上の面積を持つ領域を構成する全ての画素が前記所定条件を満たす画素である場合、該領域を削除してデータ量を削減することを特徴とする付記1又は2に記載の画像処理装置。
(Appendix 5)
In any of the sub-images included in each of the plurality of light field images, the reduction means includes, when all pixels constituting an area having an area equal to or larger than a predetermined threshold value are pixels that satisfy the predetermined condition, The image processing apparatus according to appendix 1 or 2, wherein the image processing apparatus is deleted to reduce the data amount.

(付記6)
被写体からの光りを捉えるメインレンズと、該メインレンズが捉えた光りをさらに捉える複数の視点にそれぞれ対応する複数のマイクロレンズと、を用いて、それぞれ異なる視点から前記被写体を撮影した複数のサブ画像を含むライトフィールド画像を撮影する撮影手段と、
前記撮影手段により露出を変えて撮影した複数の前記ライトフィールド画像をそれぞれ再構成して複数の再構成画像を生成する生成手段と、
前記複数の再構成画像の合成比率を、該複数の再構成画像において対応する各画素の画素値に応じて画素毎に決定する決定手段と、
前記複数の再構成画像を構成する画素のうち、前記合成比率が所定の比率以上である画素を特定する特定手段と、
前記ライトフィールド画像において、前記特定した画素との関係が所定条件を満たす画素を含むサブ画像のデータ量を削減する削減手段と、
前記削減手段により前記データ量が削減された複数のライトフィールド画像を記憶する記憶手段と、を備えたことを特徴とする撮像装置。
(Appendix 6)
A plurality of sub-images obtained by photographing the subject from different viewpoints using a main lens that captures light from the subject and a plurality of microlenses that respectively correspond to a plurality of viewpoints that further capture the light captured by the main lens Photographing means for photographing a light field image including
Generation means for generating a plurality of reconstructed images by reconstructing each of the plurality of light field images photographed with different exposures by the photographing means;
Determining means for determining a composition ratio of the plurality of reconstructed images for each pixel according to a pixel value of each corresponding pixel in the plurality of reconstructed images;
A specifying unit for specifying a pixel having a combination ratio equal to or higher than a predetermined ratio among the pixels constituting the plurality of reconstructed images;
In the light field image, a reduction means for reducing a data amount of a sub image including a pixel whose relationship with the identified pixel satisfies a predetermined condition;
An image pickup apparatus comprising: storage means for storing a plurality of light field images in which the data amount is reduced by the reduction means.

(付記7)
それぞれ異なる視点から被写体を撮影した複数のサブ画像を含むライトフィールド画像を再構成した再構成画像を、露出が異なる複数の前記ライトフィールド画像から複数生成する生成ステップと、
前記複数の再構成画像の合成比率を、該複数の再構成画像において対応する各画素の画素値に応じて画素毎に決定する決定ステップと、
前記複数の再構成画像を構成する画素のうち、前記合成比率が所定の比率以上である画素を特定する特定ステップと、
前記ライトフィールド画像において、前記特定した画素との関係が所定条件を満たす画素を含むサブ画像のデータ量を削減する削減ステップと、
前記削減ステップにより前記データ量が削減された複数のライトフィールド画像を記憶する記憶ステップと、を含むことを特徴とする画像処理方法。
(Appendix 7)
Generating a plurality of reconstructed images obtained by reconstructing a light field image including a plurality of sub-images obtained by photographing subjects from different viewpoints, from a plurality of the light field images having different exposures;
A determining step of determining a composition ratio of the plurality of reconstructed images for each pixel according to a pixel value of each corresponding pixel in the plurality of reconstructed images;
A specifying step for specifying a pixel having a combination ratio equal to or higher than a predetermined ratio among the pixels constituting the plurality of reconstructed images;
In the light field image, a reduction step of reducing a data amount of a sub-image including a pixel whose relationship with the identified pixel satisfies a predetermined condition;
A storage step of storing a plurality of light field images whose data amount has been reduced by the reduction step.

(付記8)
コンピュータを、
それぞれ異なる視点から被写体を撮影した複数のサブ画像を含むライトフィールド画像を再構成した再構成画像を、露出が異なる複数の前記ライトフィールド画像から複数生成する生成手段、
前記複数の再構成画像の合成比率を、該複数の再構成画像において対応する各画素の画素値に応じて画素毎に決定する決定手段、
前記複数の再構成画像を構成する画素のうち、前記合成比率が所定の比率以上である画素を特定する特定手段、
前記ライトフィールド画像において、前記特定した画素との関係が所定条件を満たす画素を含むサブ画像のデータ量を削減する削減手段、
前記削減手段により前記データ量が削減された複数のライトフィールド画像を記憶する記憶手段、として機能させるためのプログラム。
(Appendix 8)
Computer
Generating means for generating a plurality of reconstructed images obtained by reconstructing a light field image including a plurality of sub-images obtained by photographing subjects from different viewpoints, from a plurality of the light field images having different exposures;
Determining means for determining a composition ratio of the plurality of reconstructed images for each pixel according to a pixel value of each corresponding pixel in the plurality of reconstructed images;
A specifying unit for specifying a pixel having a combination ratio equal to or higher than a predetermined ratio among the pixels constituting the plurality of reconstructed images;
In the light field image, a reduction means for reducing a data amount of a sub-image including a pixel whose relationship with the identified pixel satisfies a predetermined condition;
A program for causing a storage unit to store a plurality of light field images whose data amount has been reduced by the reduction unit.

100…デジタルカメラ、110…撮影部、111…メインレンズ、112…マイクロレンズアレイ、113…撮像素子、120…画像処理部、121…CPU、ROM…122、RAM…123、SD…124、130…操作部、140…表示部、150…再構成部、160…HDR合成部、170…特定部、180…削減部、190…保存部 DESCRIPTION OF SYMBOLS 100 ... Digital camera, 110 ... Image pick-up part, 111 ... Main lens, 112 ... Micro lens array, 113 ... Image sensor, 120 ... Image processing part, 121 ... CPU, ROM ... 122, RAM ... 123, SD ... 124, 130 ... Operation unit 140 ... Display unit 150 ... Reconstruction unit 160 ... HDR synthesis unit 170 ... Identification unit 180 ... Reduction unit 190 ... Storage unit

Claims (8)

それぞれ異なる視点から被写体を撮影した複数のサブ画像を含むライトフィールド画像を再構成した再構成画像を、露出が異なる複数の前記ライトフィールド画像から複数生成する生成手段と、
前記複数の再構成画像の合成比率を、該複数の再構成画像において対応する各画素の画素値に応じて画素毎に決定する決定手段と、
前記複数の再構成画像を構成する画素のうち、前記合成比率が所定の比率以上である画素を特定する特定手段と、
前記ライトフィールド画像において、前記特定した画素との関係が所定条件を満たす画素を含むサブ画像のデータ量を削減する削減手段と、
前記削減手段により前記データ量が削減された複数のライトフィールド画像を記憶する記憶手段と、を備えたことを特徴とする画像処理装置。
Generating means for generating a plurality of reconstructed images obtained by reconstructing a light field image including a plurality of sub-images obtained by photographing subjects from different viewpoints, from a plurality of the light field images having different exposures;
Determining means for determining a composition ratio of the plurality of reconstructed images for each pixel according to a pixel value of each corresponding pixel in the plurality of reconstructed images;
A specifying unit for specifying a pixel having a combination ratio equal to or higher than a predetermined ratio among the pixels constituting the plurality of reconstructed images;
In the light field image, a reduction means for reducing a data amount of a sub image including a pixel whose relationship with the identified pixel satisfies a predetermined condition;
An image processing apparatus comprising: storage means for storing a plurality of light field images whose data amount has been reduced by the reduction means.
前記削減手段は、前記特定した画素と何れにも対応しない画素を、前記所定条件を満たす画素とすることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the reduction unit sets a pixel that does not correspond to any of the identified pixels as a pixel that satisfies the predetermined condition. 前記削減手段は、前記所定条件を満たす画素を含むサブ画像について、該サブ画像の画素の画素値を特定の値に変更し、該変更後のサブ画像を含むライトフィールド画像を圧縮するものであり、
前記記憶手段は、前記圧縮されたライトフィールド画像を複数記憶することを特徴とする請求項1又は2に記載の画像処理装置。
The reduction means changes a pixel value of a pixel of the sub-image to a specific value for a sub-image including a pixel satisfying the predetermined condition, and compresses the light field image including the changed sub-image. ,
The image processing apparatus according to claim 1, wherein the storage unit stores a plurality of the compressed light field images.
前記削減手段は、前記サブ画像を構成する全ての画素が前記所定条件を満たす画素である場合に、該サブ画素を構成する全ての画素の画素値を特定の画素値に変更することを特徴とする請求項3に記載の画像処理装置。   The reduction means changes the pixel values of all the pixels constituting the sub-pixel to a specific pixel value when all the pixels constituting the sub-image satisfy the predetermined condition. The image processing apparatus according to claim 3. 前記削減手段は、前記複数のライトフィールド画像それぞれが含む何れかのサブ画像において、所定の閾値以上の面積を持つ領域を構成する全ての画素が前記所定条件を満たす画素である場合、該領域を削除してデータ量を削減することを特徴とする請求項1又は2に記載の画像処理装置。   In any of the sub-images included in each of the plurality of light field images, the reduction means includes, when all pixels constituting an area having an area equal to or larger than a predetermined threshold value are pixels that satisfy the predetermined condition, The image processing apparatus according to claim 1, wherein the image processing apparatus is deleted to reduce a data amount. 被写体からの光りを捉えるメインレンズと、該メインレンズが捉えた光りをさらに捉える複数の視点にそれぞれ対応する複数のマイクロレンズと、を用いて、それぞれ異なる視点から前記被写体を撮影した複数のサブ画像を含むライトフィールド画像を撮影する撮影手段と、
前記撮影手段により露出を変えて撮影した複数の前記ライトフィールド画像をそれぞれ再構成して複数の再構成画像を生成する生成手段と、
前記複数の再構成画像の合成比率を、該複数の再構成画像において対応する各画素の画素値に応じて画素毎に決定する決定手段と、
前記複数の再構成画像を構成する画素のうち、前記合成比率が所定の比率以上である画素を特定する特定手段と、
前記ライトフィールド画像において、前記特定した画素との関係が所定条件を満たす画素を含むサブ画像のデータ量を削減する削減手段と、
前記削減手段により前記データ量が削減された複数のライトフィールド画像を記憶する記憶手段と、を備えたことを特徴とする撮像装置。
A plurality of sub-images obtained by photographing the subject from different viewpoints using a main lens that captures light from the subject and a plurality of microlenses that respectively correspond to a plurality of viewpoints that further capture the light captured by the main lens Photographing means for photographing a light field image including
Generation means for generating a plurality of reconstructed images by reconstructing each of the plurality of light field images photographed with different exposures by the photographing means;
Determining means for determining a composition ratio of the plurality of reconstructed images for each pixel according to a pixel value of each corresponding pixel in the plurality of reconstructed images;
A specifying unit for specifying a pixel having a combination ratio equal to or higher than a predetermined ratio among the pixels constituting the plurality of reconstructed images;
In the light field image, a reduction means for reducing a data amount of a sub image including a pixel whose relationship with the identified pixel satisfies a predetermined condition;
An image pickup apparatus comprising: storage means for storing a plurality of light field images in which the data amount is reduced by the reduction means.
それぞれ異なる視点から被写体を撮影した複数のサブ画像を含むライトフィールド画像を再構成した再構成画像を、露出が異なる複数の前記ライトフィールド画像から複数生成する生成ステップと、
前記複数の再構成画像の合成比率を、該複数の再構成画像において対応する各画素の画素値に応じて画素毎に決定する決定ステップと、
前記複数の再構成画像を構成する画素のうち、前記合成比率が所定の比率以上である画素を特定する特定ステップと、
前記ライトフィールド画像において、前記特定した画素との関係が所定条件を満たす画素を含むサブ画像のデータ量を削減する削減ステップと、
前記削減ステップにより前記データ量が削減された複数のライトフィールド画像を記憶する記憶ステップと、を含むことを特徴とする画像処理方法。
Generating a plurality of reconstructed images obtained by reconstructing a light field image including a plurality of sub-images obtained by photographing subjects from different viewpoints, from a plurality of the light field images having different exposures;
A determining step of determining a composition ratio of the plurality of reconstructed images for each pixel according to a pixel value of each corresponding pixel in the plurality of reconstructed images;
A specifying step for specifying a pixel having a combination ratio equal to or higher than a predetermined ratio among the pixels constituting the plurality of reconstructed images;
In the light field image, a reduction step of reducing a data amount of a sub-image including a pixel whose relationship with the identified pixel satisfies a predetermined condition;
A storage step of storing a plurality of light field images whose data amount has been reduced by the reduction step.
コンピュータを、
それぞれ異なる視点から被写体を撮影した複数のサブ画像を含むライトフィールド画像を再構成した再構成画像を、露出が異なる複数の前記ライトフィールド画像から複数生成する生成手段、
前記複数の再構成画像の合成比率を、該複数の再構成画像において対応する各画素の画素値に応じて画素毎に決定する決定手段、
前記複数の再構成画像を構成する画素のうち、前記合成比率が所定の比率以上である画素を特定する特定手段、
前記ライトフィールド画像において、前記特定した画素との関係が所定条件を満たす画素を含むサブ画像のデータ量を削減する削減手段、
前記削減手段により前記データ量が削減された複数のライトフィールド画像を記憶する記憶手段、として機能させるためのプログラム。
Computer
Generating means for generating a plurality of reconstructed images obtained by reconstructing a light field image including a plurality of sub-images obtained by photographing subjects from different viewpoints, from a plurality of the light field images having different exposures;
Determining means for determining a composition ratio of the plurality of reconstructed images for each pixel according to a pixel value of each corresponding pixel in the plurality of reconstructed images;
A specifying unit for specifying a pixel having a combination ratio equal to or higher than a predetermined ratio among the pixels constituting the plurality of reconstructed images;
In the light field image, a reduction means for reducing a data amount of a sub-image including a pixel whose relationship with the identified pixel satisfies a predetermined condition;
A program for causing a storage unit to store a plurality of light field images whose data amount has been reduced by the reduction unit.
JP2013030046A 2013-02-19 2013-02-19 Image processing apparatus, imaging apparatus, image processing method, and program Active JP6123341B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013030046A JP6123341B2 (en) 2013-02-19 2013-02-19 Image processing apparatus, imaging apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013030046A JP6123341B2 (en) 2013-02-19 2013-02-19 Image processing apparatus, imaging apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2014160912A true JP2014160912A (en) 2014-09-04
JP2014160912A5 JP2014160912A5 (en) 2016-03-17
JP6123341B2 JP6123341B2 (en) 2017-05-10

Family

ID=51612329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013030046A Active JP6123341B2 (en) 2013-02-19 2013-02-19 Image processing apparatus, imaging apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6123341B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016167436A1 (en) * 2015-04-17 2016-10-20 삼성전자 주식회사 Image photographing apparatus and image photographing method
JP2017011364A (en) * 2015-06-17 2017-01-12 日本電信電話株式会社 Image capturing device, image capturing method and computer program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007215073A (en) * 2006-02-13 2007-08-23 Seiko Epson Corp Image compression apparatus, image compression program and image compression method, hdr image generator, hdr image generator and hdr image formation method, as well as image processing system, image processing program, and image processing method
JP2008182692A (en) * 2006-12-26 2008-08-07 Olympus Imaging Corp Coding method, electronic camera, coding program, and decoding method
JP2012034340A (en) * 2010-07-09 2012-02-16 Casio Comput Co Ltd Image processing apparatus and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007215073A (en) * 2006-02-13 2007-08-23 Seiko Epson Corp Image compression apparatus, image compression program and image compression method, hdr image generator, hdr image generator and hdr image formation method, as well as image processing system, image processing program, and image processing method
JP2008182692A (en) * 2006-12-26 2008-08-07 Olympus Imaging Corp Coding method, electronic camera, coding program, and decoding method
JP2012034340A (en) * 2010-07-09 2012-02-16 Casio Comput Co Ltd Image processing apparatus and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016167436A1 (en) * 2015-04-17 2016-10-20 삼성전자 주식회사 Image photographing apparatus and image photographing method
JP2017011364A (en) * 2015-06-17 2017-01-12 日本電信電話株式会社 Image capturing device, image capturing method and computer program

Also Published As

Publication number Publication date
JP6123341B2 (en) 2017-05-10

Similar Documents

Publication Publication Date Title
Wadhwa et al. Synthetic depth-of-field with a single-camera mobile phone
JP6055332B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP6347675B2 (en) Image processing apparatus, imaging apparatus, image processing method, imaging method, and program
US9094648B2 (en) Tone mapping for low-light video frame enhancement
JP5968073B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
US20150092066A1 (en) Using a Second Camera to Adjust Settings of First Camera
JP5237978B2 (en) Imaging apparatus and imaging method, and image processing method for the imaging apparatus
WO2017045558A1 (en) Depth-of-field adjustment method and apparatus, and terminal
US20130162861A1 (en) Image processing device for generating reconstruction image, image generating method, and storage medium
JP6308748B2 (en) Image processing apparatus, imaging apparatus, and image processing method
TW201622403A (en) Digital refocusing method
JP2011159159A (en) Imaging device and method, and image processing method for imaging device
RU2010105103A (en) METHOD FOR PRESENTING THE ORIGINAL THREE-DIMENSIONAL SCENE BY THE RESULTS OF SHOOTING THE IMAGES IN A TWO-DIMENSIONAL PROJECTION
JP6270413B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5843599B2 (en) Image processing apparatus, imaging apparatus, and method thereof
JP6624785B2 (en) Image processing method, image processing device, imaging device, program, and storage medium
JP6976754B2 (en) Image processing equipment and image processing methods, imaging equipment, programs
JP6123341B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
TWI504936B (en) Image processing device
JP6089742B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
Liang et al. Guidance network with staged learning for image enhancement
JP2018067868A (en) Imaging apparatus
JP6961423B2 (en) Image processing equipment, imaging equipment, control methods for image processing equipment, programs and recording media
JP2017130106A (en) Data processing apparatus, imaging apparatus and data processing method
Kartalov et al. Fully automated exposure fusion algorithm for mobile platforms

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160128

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170320

R150 Certificate of patent or registration of utility model

Ref document number: 6123341

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150