JP2015046687A - Image processing apparatus, image processing method, program, and imaging apparatus - Google Patents

Image processing apparatus, image processing method, program, and imaging apparatus Download PDF

Info

Publication number
JP2015046687A
JP2015046687A JP2013175656A JP2013175656A JP2015046687A JP 2015046687 A JP2015046687 A JP 2015046687A JP 2013175656 A JP2013175656 A JP 2013175656A JP 2013175656 A JP2013175656 A JP 2013175656A JP 2015046687 A JP2015046687 A JP 2015046687A
Authority
JP
Japan
Prior art keywords
image
image data
subject
unit
reconstructed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013175656A
Other languages
Japanese (ja)
Other versions
JP6406804B2 (en
Inventor
俊宏 望月
Toshihiro Mochizuki
俊宏 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013175656A priority Critical patent/JP6406804B2/en
Publication of JP2015046687A publication Critical patent/JP2015046687A/en
Application granted granted Critical
Publication of JP6406804B2 publication Critical patent/JP6406804B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a method which, when a user desires to reproduce a wide-angle image focused on a subject selected after photographing, reduces an amount of data for reconstitution.SOLUTION: An image processing apparatus comprises: acquisition means for acquiring plural pieces of re-focusable image data of different field angles; generation means for generating, from each of the pieces of image data, a reconstituted image on a refocus plane based on subject information obtained from the plural pieces of image data; and synthesis means for synthesizing, for each refocus plane, the reconstituted image generated from the pieces of image data of different field angles.

Description

本発明は、撮像装置に関し、特にマイクロレンズアレイを用いて光の入射方向の情報を取得し、再構成画像を生成する手段を有する撮像装置に関する。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus having means for acquiring information on the incident direction of light using a microlens array and generating a reconstructed image.

近年、電子カメラ等の撮像装置において、光の強度分布のみならず光の入射方向の情報をも取得可能なライトフィールドカメラと呼ばれる撮像装置が提案されている。例えば、非特許文献1によれば、撮影レンズと撮像素子との間にマイクロレンズアレイ(以下、MLAと記す)を配置し、撮像素子の複数の画素に対してひとつのマイクロレンズ(以下、MLと記す)を対応させている。この構成により、MLを通過した光は複数の画素によって入射方向別に取得される。   2. Description of the Related Art In recent years, an imaging device called a light field camera that can acquire not only light intensity distribution but also information on the incident direction of light in an imaging device such as an electronic camera has been proposed. For example, according to Non-Patent Document 1, a microlens array (hereinafter referred to as MLA) is arranged between a photographing lens and an image sensor, and one microlens (hereinafter ML) is provided for a plurality of pixels of the image sensor. ). With this configuration, light that has passed through the ML is acquired by a plurality of pixels for each incident direction.

このように取得された画素信号(ライトフィールド)に対して、通常の撮影画像を生成することが可能である。また、「Light Field Photography」と呼ばれる手法を適用することで、任意の像面(リフォーカス面)に焦点を合わせた画像を撮影後に再構成することもできる。   A normal captured image can be generated for the pixel signal (light field) acquired in this way. In addition, by applying a method called “Light Field Photography”, an image focused on an arbitrary image plane (refocus plane) can be reconstructed after shooting.

Ren.Ng、他7名,「Light Field Photography with a Hand-Held Plenoptic Camera」,Stanford Tech Report CTSR 2005-02Ren.Ng and 7 others, “Light Field Photography with a Hand-Held Plenoptic Camera”, Stanford Tech Report CTSR 2005-02 Todor Georgiev,et al.,“Superresolution with Plenoptic 2.0 Camera",2009 Optical Society of AmericaTodor Georgiev, et al., “Superresolution with Plenoptic 2.0 Camera”, 2009 Optical Society of America

特開2011−199565号公報JP 2011-199565 A

非特許文献1に記載されているライトフィールドカメラの撮像画角の範囲は、撮影レンズの焦点距離、撮像素子のサイズなど、装置本体が備えるハードウェアの性能に依存している。また、特許文献1ではハードウェアの性能を越えるような広角画像を取得する場合に、撮像装置の撮影範囲を動かしながら連続撮影し、得られた複数の画像を合成する技術が提案されている。   The range of the angle of view of the light field camera described in Non-Patent Document 1 depends on the performance of hardware included in the apparatus main body, such as the focal length of the photographing lens and the size of the image sensor. Patent Document 1 proposes a technique for continuously shooting while moving a shooting range of an imaging device and synthesizing a plurality of obtained images when acquiring a wide-angle image that exceeds the performance of hardware.

しかしながら、特許文献1で提案された技術で撮影後に選択した被写体に焦点があった広角画像を表示したい場合は、ライトフィールドカメラで撮影した複数の撮像画像を全て保持するため、データ量が膨大となってしまう。そのため、本発明は、再構成のためのデータ量を軽減しながら、撮影後に選択した被写体に焦点があった広角画像の表示を可能とする画像処理装置の提供を目的とする。   However, when it is desired to display a wide-angle image in which the subject selected after shooting by the technique proposed in Patent Document 1 is focused, all of the plurality of captured images shot by the light field camera are held, and the amount of data is enormous. turn into. Therefore, an object of the present invention is to provide an image processing apparatus capable of displaying a wide-angle image focused on a subject selected after shooting while reducing the amount of data for reconstruction.

本発明によれば、画像処理装置は、リフォーカス可能な複数の異なる画角の画像データを取得する取得手段と、複数の画像データから得られる被写体情報に基づいた像面における再構成画像を、各画像データから生成する生成手段と、異なる画角の画像データから生成された再構成画像を、像面ごとに合成する合成手段とを備える。   According to the present invention, an image processing apparatus obtains reconstructed images on an image plane based on subject information obtained from a plurality of image data, an acquisition unit that acquires image data having a plurality of different angles of view that can be refocused, A generating unit configured to generate the image data; and a combining unit configured to combine the reconstructed image generated from the image data having different angles of view for each image plane.

本発明によれば、再構成のためのデータ量を軽減しながら、撮影後に選択した被写体に焦点があった広角画像を生成することが可能な画像処理装置を提供することができる。   According to the present invention, it is possible to provide an image processing apparatus capable of generating a wide-angle image focused on a subject selected after shooting while reducing the amount of data for reconstruction.

本発明の実施例に係る画像処理装置を適用した撮像装置のブロック図1 is a block diagram of an imaging apparatus to which an image processing apparatus according to an embodiment of the present invention is applied. 図1の撮像装置における撮像素子とMLAの対応関係を説明するための図The figure for demonstrating the correspondence of the image pick-up element and MLA in the imaging device of FIG. 図1の撮像装置における撮影レンズ、MLA、撮像素子の配置構成を説明するための図The figure for demonstrating the arrangement configuration of the imaging lens, MLA, and image sensor in the imaging device of FIG. 図1の撮像装置における撮影レンズの瞳領域と受光画素の対応関係を説明するための図The figure for demonstrating the correspondence of the pupil region of a taking lens and the light reception pixel in the imaging device of FIG. リフォーカス画像生成光線の通過領域を説明するための図The figure for demonstrating the passage area | region of the refocus image generation light ray 図1の撮像装置における画像合成記録動作のフローチャートを示す図The figure which shows the flowchart of the image composition recording operation | movement in the imaging device of FIG. 図6の画像合成記録動作で処理される撮像データとその撮影状況を説明するための図The figure for demonstrating the imaging data processed by the image composition recording operation | movement of FIG. 6, and its imaging | photography condition 図6の画像合成記録動作における距離リストの補正を説明するための図The figure for demonstrating correction | amendment of the distance list | wrist in the image composition recording operation | movement of FIG. 図6の画像合成記録動作における再構成画像の生成例を示す図The figure which shows the example of a production | generation of the reconstructed image in the image composition recording operation | movement of FIG. 図6の画像合成記録動作における広角画像の合成例を示す図The figure which shows the example of a synthesis | combination of the wide angle image in the image composition recording operation | movement of FIG. 図6の画像合成記録動作において記録するファイルの構成を示す図The figure which shows the structure of the file recorded in the image composition recording operation | movement of FIG. 図6の画像合成記録動作で記録されたファイルの再生動作のフローチャートを示す図The figure which shows the flowchart of the reproduction | regeneration operation | movement of the file recorded by the image composition recording operation | movement of FIG. 図1の撮像装置における撮影レンズ、MLA、撮像素子の他の構成例を示す図The figure which shows the other example of a structure of the imaging lens in the imaging device of FIG. 1, MLA, and an image pick-up element. 本発明の実施例に係る画像処理装置を適用可能な撮像装置の他の構成例を示すブロック図1 is a block diagram illustrating another configuration example of an imaging apparatus to which an image processing apparatus according to an embodiment of the present invention can be applied.

以下、本発明の実施の形態を、添付の図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

本実施例は、ライトフィールドデータを取得可能な撮像装置で得られた再構成可能な複数の画像データから複数の広角画像を合成することで、選択した被写体に焦点があった広角画像の表示を可能とする画像処理装置の実施例を示す。しかし、本実施例に係る画像処理動作は、撮像装置による連続撮影中に行われてもよいし、他の再生装置で画像データを再生する場合に行ってもよい。即ち、本発明に係る画像処理は、必ずしも例示したような撮像装置において実現する必要はなく、例示した撮像装置で取得される画像データを入力画像データとして取得して、本発明に係る画像処理動作を行うことが可能な装置で実現してもよい。   In this embodiment, by combining a plurality of wide-angle images from a plurality of reconfigurable image data obtained by an imaging device capable of acquiring light field data, a wide-angle image focused on a selected subject can be displayed. An embodiment of an image processing apparatus that can be made will be described. However, the image processing operation according to the present embodiment may be performed during continuous shooting by the imaging device, or may be performed when image data is played back by another playback device. That is, the image processing according to the present invention is not necessarily realized in the illustrated imaging apparatus, and the image processing operation according to the present invention is performed by acquiring the image data acquired by the illustrated imaging apparatus as input image data. You may implement | achieve with the apparatus which can perform.

図1は、本発明の実施例に係る画像処理装置を適用した、ライトフィールドデータを取得可能な撮像装置100のブロック図である。同図において、101は撮影レンズ、102はMLA、103は撮像素子である。撮影レンズ101を通過した光は撮影レンズ101の焦点位置の近傍に被写体像として結像する。MLA102は、複数のML1020から構成されており、撮影レンズ101の焦点位置近傍に配置されることで、撮影レンズ101の異なる瞳領域を通過した光を瞳領域ごとに分割して出射する瞳分割手段である。撮像素子103は、CMOSイメージセンサやCCDイメージセンサに代表される光電変換素子である。各ML1020は、複数の画素が対応するように配置されることで、撮像素子103はML1020により撮影レンズ101の瞳領域ごとに分割して出射された光を、分割情報を保ったまま受光し、データ処理可能な画像信号に変換する。撮像素子103により生成された画像信号は、A/D変換部104に出力される。A/D変換部104は、画像信号をデジタル化し、画像データとして画像処理部105へ出力する。   FIG. 1 is a block diagram of an imaging apparatus 100 that can acquire light field data to which an image processing apparatus according to an embodiment of the present invention is applied. In the figure, 101 is a taking lens, 102 is an MLA, and 103 is an image sensor. The light that has passed through the photographic lens 101 forms an object image in the vicinity of the focal position of the photographic lens 101. The MLA 102 includes a plurality of MLs 1020, and is arranged in the vicinity of the focal position of the photographic lens 101 so that light that has passed through different pupil regions of the photographic lens 101 is divided and emitted for each pupil region. It is. The image sensor 103 is a photoelectric conversion element represented by a CMOS image sensor or a CCD image sensor. Each ML 1020 is arranged so that a plurality of pixels correspond to each other, so that the image sensor 103 receives the light emitted by the ML 1020 divided for each pupil region of the photographing lens 101 while maintaining the division information. Convert to an image signal that can be processed. The image signal generated by the image sensor 103 is output to the A / D converter 104. The A / D converter 104 digitizes the image signal and outputs it to the image processor 105 as image data.

画像処理部105は、ホワイトバランス、色変換等の様々な画像形成処理や、形成後の画像を圧縮する圧縮処理、人物の顔が誰であるかを認識する画像認識処理を行う。本画像処理部105は、本実施例の特徴であるリフォーカス演算により再構成画像を生成する再構成処理と、再構成画像を合成して広角画像を生成する画像合成処理を行い、記録部115によって記録されるファイルを生成する。   The image processing unit 105 performs various image forming processing such as white balance and color conversion, compression processing for compressing the formed image, and image recognition processing for recognizing who the person's face is. The main image processing unit 105 performs a reconstruction process for generating a reconstructed image by a refocusing operation, which is a feature of the present embodiment, and an image composition process for generating a wide-angle image by synthesizing the reconstructed image. Generate a file recorded by.

画像処理部105により処理された画像データおよび生成された再構成画像は、バス112を介してメインメモリ114へ一時的に格納される。格納された画像データおよび再構成画像は、ファイルとして記録部115を介して外部の記録媒体(図示せず)に記録されるか、もしくは通信部116を介して、パーソナルコンピュータ等の外部装置(図示せず)に送信される。   The image data processed by the image processing unit 105 and the generated reconstructed image are temporarily stored in the main memory 114 via the bus 112. The stored image data and the reconstructed image are recorded as files on an external recording medium (not shown) via the recording unit 115 or via an external device such as a personal computer (see FIG. (Not shown).

スイッチ群117は、撮影モードの設定など、撮影に関わる様々な情報をCPU111へ出力する。またレリーズスイッチが出力する信号は、AEやAFの動作開始トリガや、撮影の開始トリガとなる。CPU111はこれらの開始トリガを受けて、撮像素子103、表示部106をはじめとする、撮影装置の各部の制御を行う。また、ROM113には、CPU111のためのプログラムやデータが格納され、CPU111がそのプログラムを実行することで、撮像装置の各部を制御して本実施例に係る画像処理動作(画像合成記録動作)を実現する。   The switch group 117 outputs various information related to shooting, such as setting of the shooting mode, to the CPU 111. A signal output from the release switch serves as an AE or AF operation start trigger or a shooting start trigger. In response to these start triggers, the CPU 111 controls each part of the imaging apparatus including the image sensor 103 and the display unit 106. The ROM 113 stores a program and data for the CPU 111, and the CPU 111 executes the program to control each unit of the image pickup apparatus and perform an image processing operation (image composition recording operation) according to the present embodiment. Realize.

表示部106は、撮影装置のユーザインターフェース画面を表示するか、電子ビューファインダとして使用するか、もしくは撮影後の広角画像を表示する。また表示部106はタッチパネルを有しており、タッチ操作の情報をCPU111へ出力する。   The display unit 106 displays a user interface screen of the photographing apparatus, uses it as an electronic viewfinder, or displays a wide-angle image after photographing. The display unit 106 includes a touch panel, and outputs touch operation information to the CPU 111.

上述のように、本実施例は、画像処理部105が本発明に係る画像処理装置の動作を行うことを特徴としている。即ち、画像処理部105は演算処理(再構成処理)を行うことにより、画像データ(撮影画像)から、任意の焦点位置(リフォーカス面)に設定した画像(再構成画像)を再構成して合成するよう構成される。この場合の演算処理は、「Light Field Photography」と呼ばれる手法を用いて行う。   As described above, this embodiment is characterized in that the image processing unit 105 operates the image processing apparatus according to the present invention. In other words, the image processing unit 105 reconstructs an image (reconstructed image) set at an arbitrary focal position (refocus plane) from image data (photographed image) by performing arithmetic processing (reconstruction processing). Configured to synthesize. The calculation process in this case is performed using a technique called “Light Field Photography”.

次に、本実施例に係る撮像装置における撮影レンズ101、MLA102および撮像素子103の構成について説明する。   Next, the configuration of the taking lens 101, the MLA 102, and the image sensor 103 in the image pickup apparatus according to the present embodiment will be described.

図2は、撮像素子103およびMLA102を図1の光軸Z方向から見た図である。MLAは、複数の単位画素201に対して1つのML1020が対応するように配置されている。1つのMLの後方にある複数の単位画素201をまとめて画素配列20と定義する。なお、本実施例では画素配列20は、単位画素201の5行5列の計25個を含むものとする。   FIG. 2 is a diagram of the image sensor 103 and the MLA 102 as viewed from the optical axis Z direction in FIG. The MLA is arranged so that one ML 1020 corresponds to a plurality of unit pixels 201. A plurality of unit pixels 201 behind one ML are collectively defined as a pixel array 20. In this embodiment, the pixel array 20 includes a total of 25 unit pixels 201 in 5 rows and 5 columns.

図3は、撮影レンズ101から出射された光が1つのML1020を通過して撮像素子103で受光される様子を光軸Zに対して垂直方向から見た図である。撮影レンズ101の各瞳領域a1〜a5から出射され、ML1020を通過した光は、後方の対応する単位画素p1〜p5にそれぞれ結像する。   FIG. 3 is a diagram in which the light emitted from the photographing lens 101 passes through one ML 1020 and is received by the image sensor 103 as viewed from the direction perpendicular to the optical axis Z. Light emitted from each of the pupil regions a1 to a5 of the photographic lens 101 and passed through the ML 1020 forms an image on the corresponding unit pixels p1 to p5 at the rear, respectively.

図4(a)は、撮影レンズ101の開口を光軸Z方向から見た図である。図4(b)は、1つのML1020とその後方に配置された画素配列20を光軸Z方向から見た図である。図4(a)に示すように、撮影レンズ101の瞳領域を1つのMLの後方にある画素と同数の領域に分割した場合、1つの画素には撮影レンズ101の1つの瞳分割領域から出射した光が結像されることになる。ただし、ここでは撮影レンズ101とML1020のFナンバーがほぼ一致しているものとする。   FIG. 4A is a view of the aperture of the taking lens 101 as seen from the optical axis Z direction. FIG. 4B is a diagram of one ML 1020 and the pixel array 20 disposed behind the ML 1020 as viewed from the optical axis Z direction. As shown in FIG. 4A, when the pupil region of the photographing lens 101 is divided into the same number of regions as the pixels behind one ML, one pixel is emitted from one pupil division region of the photographing lens 101. The formed light is imaged. However, here, it is assumed that the F-numbers of the photographing lens 101 and the ML 1020 substantially coincide.

図4(a)に示す撮影レンズ101の瞳分割領域a11〜a55と、図4(b)に示す画素p11〜p55との対応関係は光軸Z方向から見て点対称となる。したがって、撮影レンズ101の瞳分割領域a11から出射した光は、MLの後方にある画素配列20のうち、画素p11に結像する。これと同様に、瞳分割領域a11から出射し、別のML1020を通過する光も、そのMLの後方にある画素配列20の中の画素p11に結像する。   The correspondence between the pupil division areas a11 to a55 of the photographing lens 101 shown in FIG. 4A and the pixels p11 to p55 shown in FIG. 4B is point-symmetric when viewed from the optical axis Z direction. Therefore, the light emitted from the pupil division area a11 of the photographing lens 101 forms an image on the pixel p11 in the pixel array 20 behind the ML. Similarly, the light emitted from the pupil division area a11 and passing through another ML 1020 forms an image on the pixel p11 in the pixel array 20 behind the ML.

ここで、画面内の任意の被写体位置に対応した像面(リフォーカス面)を算出する方法について説明する。図4で説明したように、画素配列20の各画素は、撮影レンズ101に対して互いに異なる瞳領域を通過した光を受光している。これらの画素からの複数の画素信号を合成することで、水平方向に瞳分割された一対の信号を生成する。   Here, a method for calculating an image plane (refocus plane) corresponding to an arbitrary subject position in the screen will be described. As described with reference to FIG. 4, each pixel of the pixel array 20 receives light that has passed through different pupil regions with respect to the photographing lens 101. By combining a plurality of pixel signals from these pixels, a pair of signals divided into pupils in the horizontal direction is generated.

Figure 2015046687
式(1)は、ある画素配列20の各単位画素について、撮影レンズ101の射出瞳の左側領域(瞳領域a1〜a2)を通過した光を積分する式である。これを水平方向に並ぶ各画素配列20に適用し、これらの出力信号群で構成した被写体像をA像とする。
また、式(2)は、ある画素配列20の各画素について、撮影レンズ101の射出瞳の右側領域(瞳領域a4〜a5)を通過した光を積分する式である。これを水平方向に並ぶ各画素配列20に適用し、これらの出力信号群で構成した被写体像をB像とする。
Figure 2015046687
Expression (1) is an expression for integrating light that has passed through the left area (pupil areas a1 to a2) of the exit pupil of the photographing lens 101 for each unit pixel of a certain pixel array 20. This is applied to each pixel array 20 arranged in the horizontal direction, and a subject image constituted by these output signal groups is defined as an A image.
Expression (2) is an expression for integrating the light passing through the right area (pupil areas a4 to a5) of the exit pupil of the photographing lens 101 with respect to each pixel of a certain pixel array 20. This is applied to each pixel array 20 arranged in the horizontal direction, and a subject image constituted by these output signal groups is defined as a B image.

A像とB像に対して相関演算を施し、像のずれ量(瞳分割位相差)を検出する。さらに、像のずれ量に対して撮影レンズ101の焦点位置と光学系から決まる変換係数を乗じることで、画面内の任意の被写体位置に対応した焦点位置を算出することができる。   A correlation operation is performed on the A image and the B image, and an image shift amount (pupil division phase difference) is detected. Furthermore, the focal position corresponding to an arbitrary subject position in the screen can be calculated by multiplying the image shift amount by the focal position of the photographing lens 101 and a conversion coefficient determined by the optical system.

次に、撮影レンズ101、MLA102および撮像素子103の構成によって取得された画像データに対して、任意に設定した像面(リフォーカス面)での画像の再構成する処理について説明する。   Next, processing for reconstructing an image on an arbitrarily set image plane (refocus plane) with respect to image data acquired by the configurations of the photographing lens 101, the MLA 102, and the image sensor 103 will be described.

図5は、任意に設定したリフォーカス面上のある画素を通過する光が、撮影レンズのどの瞳分割領域から出射され、どのMLへ入射するかを光軸Zに対して垂直方向から見た図である。   FIG. 5 shows, from a direction perpendicular to the optical axis Z, from which pupil division region of the photographing lens light that passes through a pixel on an arbitrarily set refocus plane is emitted and which ML is incident. FIG.

図5において、撮影レンズの瞳分割領域の位置を座標(u,v)、リフォーカス面上の単位画素の位置を座標(x,y)、MLA上のMLの位置を座標(x’,y’)、撮影レンズからMLAまでの距離をF、撮影レンズからリフォーカス面までの距離をαFとする。ここで、αはリフォーカス面の位置を決定するためのリフォーカス係数であり、ユーザーが任意に設定できる。なお、図5ではu、x、x’の方向のみを示し、v、y、y’については省略してある。   In FIG. 5, the position of the pupil division area of the taking lens is coordinates (u, v), the position of the unit pixel on the refocus plane is coordinates (x, y), and the ML position on the MLA is coordinates (x ′, y). '), The distance from the taking lens to the MLA is F, and the distance from the taking lens to the refocus plane is αF. Here, α is a refocus coefficient for determining the position of the refocus plane and can be arbitrarily set by the user. In FIG. 5, only the directions of u, x, and x ′ are shown, and v, y, and y ′ are omitted.

図5に示すように、座標(u,v)と座標(x,y)を通過した光は、MLA上の座標(x’,y’)に到達する。この座標(x’,y’)は式(3)のように表すことができる。

Figure 2015046687
As shown in FIG. 5, the light passing through the coordinates (u, v) and the coordinates (x, y) reaches the coordinates (x ′, y ′) on the MLA. The coordinates (x ′, y ′) can be expressed as in Expression (3).
Figure 2015046687

そして、この光を受光する画素の出力をL(x’,y’,u,v)とすると、リフォーカス面上の座標(x,y)で得られる出力E(x,y)は、L(x’,y’,u,v)を撮影レンズの瞳領域に関して積分したものとなるため、式(4)のようになる。

Figure 2015046687
When the output of the pixel receiving this light is L (x ′, y ′, u, v), the output E (x, y) obtained with the coordinates (x, y) on the refocus plane is L Since (x ′, y ′, u, v) is integrated with respect to the pupil region of the photographing lens, Equation (4) is obtained.
Figure 2015046687

式(4)において、リフォーカス係数αはユーザーによって決定されるため、(x,y)、(u,v)を与えれば、式(3)から光の入射するMLの位置(x’,y’)がわかる。   In Expression (4), since the refocus coefficient α is determined by the user, if (x, y) and (u, v) are given, the ML position (x ′, y) where light enters from Expression (3) is given. ') I understand.

そして、そのMLに対応する画素配列20から(u,v)の位置に対応する画素がわかる。この画素の出力がL(x’,y’,u,v)となる。これをすべての瞳分割領域について行い、求めた画素出力を積分することでE(x,y)を算出できる。なお、(u,v)を撮影レンズの瞳分割領域の代表座標とすれば、式(4)の積分は、単純加算により計算することができる。   Then, the pixel corresponding to the position (u, v) is known from the pixel array 20 corresponding to the ML. The output of this pixel is L (x ', y', u, v). E (x, y) can be calculated by performing this operation for all pupil division regions and integrating the obtained pixel outputs. If (u, v) is the representative coordinates of the pupil division area of the taking lens, the integral of equation (4) can be calculated by simple addition.

次に、本実施例の特徴である画像処理部105における再構成処理と画像合成記録処理について、図6の画像合成記録動作のフローチャートを参照して説明する。   Next, reconstruction processing and image composition recording processing in the image processing unit 105, which are the features of this embodiment, will be described with reference to a flowchart of image composition recording operation in FIG.

同図において、ステップS601では、撮影順にメインメモリ114に保持されている各画像データを読み出す。ステップS602では、読み出した画像データをあらかじめ決められた距離情報取得エリア(以下、Dエリアとする)に分割する。ここで、Dエリアへの分割は、再構成時の合焦精度に反映されるため、最小の分解能である画素配列20ごとに分割することが望ましい。しかし、複数の画素配列20をまとめてひとつのDエリアを構成する等、画像処理部105の演算能力やフレームレート等の制限に応じて分割領域(Dエリア)のサイズを適宜決めてもよい。すなわち、フレームレートが高い、あるいは画像処理部105の演算能力が低いほど、Dエリアの数が少なくするようにしてもよい。   In the figure, in step S601, each image data held in the main memory 114 is read out in the photographing order. In step S602, the read image data is divided into predetermined distance information acquisition areas (hereinafter referred to as D areas). Here, since the division into the D area is reflected in the focusing accuracy at the time of reconstruction, it is desirable to divide each pixel array 20 having the minimum resolution. However, the size of the divided area (D area) may be appropriately determined in accordance with restrictions on the calculation capability of the image processing unit 105, the frame rate, and the like, such as forming a single D area by combining a plurality of pixel arrays 20. That is, the number of D areas may be reduced as the frame rate is higher or the calculation capability of the image processing unit 105 is lower.

ステップS603では、Dエリアに分割された画像データに対して前述した式(1)および式(2)を適用し、各Dエリアを代表する距離情報として被写体距離を算出する。ここでの距離取得は、複数の画素配列20をまとめてひとつのDエリアを構成した場合(例えば、5×5画素配列など)は、中心の画素配列20のみの結果を被写体距離としてもよいし、5×5の画素配列20の平均値を被写体距離としてもよい。また、このようにして得られたDエリアごとの被写体距離を距離情報マップとする。   In step S603, the above-described equations (1) and (2) are applied to the image data divided into the D areas, and the subject distance is calculated as the distance information representing each D area. In the distance acquisition here, when a plurality of pixel arrays 20 are combined to form one D area (for example, a 5 × 5 pixel array), the result of only the center pixel array 20 may be the subject distance. The average value of the 5 × 5 pixel array 20 may be used as the subject distance. Also, the subject distance for each D area obtained in this way is used as a distance information map.

ステップS604では、読み出した画像データから被写体を抽出し、距離情報マップの該当する被写体距離と対応つける距離リストを被写体情報として生成する。ここで、被写体の抽出方法はエッジ検出などの任意のアルゴリズムを使用する。また、生成した距離リストは画像データごとに更新する。   In step S604, a subject is extracted from the read image data, and a distance list associated with the corresponding subject distance in the distance information map is generated as subject information. Here, the subject extraction method uses an arbitrary algorithm such as edge detection. The generated distance list is updated for each image data.

ステップS605では、全画像データの読み出しが完了か否かを判定し、完了の場合はS606に進み、否の場合はS601に戻る。ステップS606では、画像データ間の整合をとるため、前述した距離リストで不足している被写体距離を追加することで距離リストを補正する。尚、本実施例における距離リストの補正例は後述する。   In step S605, it is determined whether reading of all the image data is completed. If completed, the process proceeds to S606, and if not, the process returns to S601. In step S606, in order to match the image data, the distance list is corrected by adding a subject distance that is insufficient in the above-described distance list. A correction example of the distance list in this embodiment will be described later.

ステップS607では、撮影順にメインメモリ114に保持されている画像データを読み出す。ステップS608では、読み出した画像データと距離リストを用いて前述した再構成処理を行い、被写体距離ごとに焦点があった再構成画像とパンフォーカスの再構成画像を生成する。このとき、これら再構成画像の生成にともない、メインメモリ114から読み出した画像データとそれから生成した再構成画像とを関連付けるリンク情報を生成する。本情報は、ステップS615での画像データの削除の際に参照される。ここで、パンフォーカスの再構成画像とは、距離情報マップのDエリアごとに焦点の合うよう再構成処理を行って生成した再構成画像のこととする。尚、本実施例における再構成処理の例は後述する。   In step S607, the image data held in the main memory 114 is read in the order of shooting. In step S608, the above-described reconstruction process is performed using the read image data and the distance list, and a reconstructed image focused on each subject distance and a pan-focus reconstructed image are generated. At this time, along with the generation of these reconstructed images, link information that associates the image data read from the main memory 114 with the reconstructed image generated therefrom is generated. This information is referred to when image data is deleted in step S615. Here, the pan-focus reconstructed image is a reconstructed image generated by performing reconstruction processing so that each D area of the distance information map is focused. An example of reconstruction processing in this embodiment will be described later.

ステップS609では、S608で生成した再構成画像と合成する広角画像をメインメモリ114に保持しているか否かを判定し、保持している場合はS612に進み、否の場合はS610に進む。ここで、広角画像とは、複数の再構成画像をつなぎ合わせ、通常の画角を超えた画像のこととする。   In step S609, it is determined whether the wide-angle image to be combined with the reconstructed image generated in S608 is held in the main memory 114. If held, the process proceeds to S612. If not, the process proceeds to S610. Here, the wide-angle image is an image that exceeds a normal angle of view by connecting a plurality of reconstructed images.

ステップS610では、S608で生成したパンフォーカスの再構成画像をパンフォーカスの広角画像の初期画像としてメインメモリ114に保持する。ステップS611では、S608で生成した被写体距離ごとに焦点があった再構成画像を、被写体距離ごとの広角画像の初期画像としてメインメモリ114に保持する。   In step S610, the pan-focus reconstructed image generated in step S608 is stored in the main memory 114 as an initial pan-focus wide-angle image. In step S611, the reconstructed image focused at each subject distance generated in step S608 is stored in the main memory 114 as an initial image of a wide-angle image for each subject distance.

ステップS612では、生成したパンフォーカスの再構成画像とパンフォーカスの広角画像を位置合わせした際の位置ずれから合成可能か否かを判定し、合成可能の場合はS613に進み、否の場合はS615に進む。ここで、パンフォーカスの広角画像とは、複数のパンフォーカスの再構成画像をつなぎ合わせ、通常の画角を超えた画角の画像のこととする。また、位置ずれの判定は、画像を任意のサイズの小ブロックに分割して、小ブロック毎に輝度のSAD(Sum of Absolute Difference)が最小となる対応点から、動きベクトルを算出する方法などによる周知の技術により行う。   In step S612, it is determined whether or not it is possible to combine the generated pan-focus reconstructed image and the pan-focus wide-angle image, and the process proceeds to step S613. Proceed to Here, the pan-focus wide-angle image is an image having an angle of view that exceeds a normal angle of view by connecting a plurality of pan-focus reconstructed images. In addition, the determination of positional deviation is based on a method of dividing a picture into small blocks of an arbitrary size and calculating a motion vector from corresponding points at which the luminance SAD (Sum of Absolute Difference) is minimized for each small block. This is performed by a well-known technique.

ステップS613では、S608で生成したパンフォーカスの再構成画像とメインメモリ114に保持されているパンフォーカスの広角画像の合成処理を行い、合成した画像によりパンフォーカスの広角画像を更新する。また、更新したパンフォーカスの広角画像は次のパンフォーカスの再構成画像との合成に備えて、メインメモリ114に保持しておく。   In step S613, the pan-focus reconstructed image generated in S608 and the pan-focus wide-angle image held in the main memory 114 are combined, and the pan-focus wide-angle image is updated with the combined image. The updated pan-focus wide-angle image is stored in the main memory 114 in preparation for synthesis with the next pan-focus reconstructed image.

ステップS614では、S608で生成した再構成画像とメインメモリ114に保持されている広角画像を被写体距離ごとに画像合成処理を行い、合成した画像は広角画像として被写体距離ごとに更新する。また、更新した広角画像は次の再構成画像との合成に備えて、メインメモリ114に保持しておく。尚、本実施例におけるこれらの画像合成処理の例は後述する。ステップS615では、上述したリンク情報に基づいて、S607で読み出した画像データをメインメモリ114から削除する。   In step S614, the reconstructed image generated in S608 and the wide-angle image held in the main memory 114 are subjected to image composition processing for each subject distance, and the synthesized image is updated as the wide-angle image for each subject distance. The updated wide-angle image is stored in the main memory 114 in preparation for the synthesis with the next reconstructed image. An example of these image composition processes in this embodiment will be described later. In step S615, the image data read in S607 is deleted from the main memory 114 based on the link information described above.

ステップS616では、全画像データ読み出し完了か否かを判定し、完了の場合はS617に進み、否の場合はS607に戻る。ステップS607からS616を繰り返すことで、被写体距離ごとに焦点が合った広角画像を生成することができる。   In step S616, it is determined whether or not all image data has been read. If complete, the process proceeds to S617. If not, the process returns to S607. By repeating steps S607 to S616, it is possible to generate a wide-angle image focused on each subject distance.

ステップS617では、被写体距離ごとに焦点が合った広角画像をデータ部に、各広角画像の先頭アドレスをヘッダ情報部に付加したファイルを記録して記録動作を終了する。尚、本実施例において記録したファイルの構成例は後述する。   In step S617, a wide-angle image focused for each subject distance is recorded in the data portion, and a file with the head address of each wide-angle image added to the header information portion is recorded, and the recording operation is terminated. A configuration example of the file recorded in this embodiment will be described later.

次に、本実施例の撮影状況と撮像データについて図7を参照して説明する。   Next, the imaging situation and imaging data of the present embodiment will be described with reference to FIG.

図7(a)は被写体B1、B2、B3を撮影位置S1、S2、S3の順に3回撮影した場合の撮影状況を模式的に示す図である。ここで、D1は、撮像装置100から被写体B1までの被写体距離である。また、D2は、撮像装置100から被写体B2までの被写体距離である。さらに、D3は、撮像装置100から被写体B3までの被写体距離である。図7(b)は、撮影位置S1で撮影した画像データL1の画角を示す。図7(c)は撮影位置S2で撮影した画像データL2の画角を示す。図7(d)は撮影位置S3で撮影した画像データL3の画角を示す。   FIG. 7A is a diagram schematically showing a shooting situation when the subjects B1, B2, and B3 are shot three times in the order of the shooting positions S1, S2, and S3. Here, D1 is a subject distance from the imaging apparatus 100 to the subject B1. D2 is a subject distance from the imaging apparatus 100 to the subject B2. Further, D3 is a subject distance from the imaging apparatus 100 to the subject B3. FIG. 7B shows the angle of view of the image data L1 photographed at the photographing position S1. FIG. 7C shows the angle of view of the image data L2 photographed at the photographing position S2. FIG. 7D shows the angle of view of the image data L3 photographed at the photographing position S3.

次に、ステップS606における距離リストの補正について、図8を参照して説明する。   Next, the correction of the distance list in step S606 will be described with reference to FIG.

図8(a)は、横軸を撮影位置L1〜L3、縦軸を被写体B1〜B3として検出した被写体と算出した被写体距離とを対応付ける補正前の距離リストを示す。補正前の距離リストは、画像データL3の被写体B3について被写体距離が不足している。図8(b)は、図8(a)と同様に被写体距離を表した補正後の距離リストを示す。本実施例では、例えば、不足している撮像データL3の被写体B3の被写体距離を、例えば撮像データL2の被写体B3の被写体距離で補正する。   FIG. 8A shows a pre-correction distance list that associates the detected subjects with the horizontal positions of the photographing positions L1 to L3 and the vertical axis of the subjects B1 to B3 with the calculated subject distance. In the distance list before correction, the subject distance is insufficient for the subject B3 of the image data L3. FIG. 8B shows a corrected distance list representing the subject distance as in FIG. In this embodiment, for example, the subject distance of the subject B3 in the imaging data L3 that is insufficient is corrected by the subject distance of the subject B3 in the imaging data L2, for example.

次に、ステップS608における再構成処理について、図9を参照して説明する。   Next, the reconstruction process in step S608 will be described with reference to FIG.

図9は、画像データL2について距離リストをもとに再構成処理を行って生成した被写体距離ごとに焦点が合った再構成画像を示す。ここで、図9(a)は再構成前の画像データL2を示す。図9(b)は被写体距離D1に焦点があった再構成画像R21を示す。また、図9(c)は被写体距離D2に焦点があった再構成画像R22を、図9(d)は被写体距離D3に焦点があった再構成画像R23を示す。図9(e)は、パンフォーカスの再構成画像R24を示す。   FIG. 9 shows a reconstructed image in which each object distance is generated by performing reconstruction processing on the image data L2 based on the distance list. Here, FIG. 9A shows the image data L2 before reconstruction. FIG. 9B shows a reconstructed image R21 that is focused on the subject distance D1. FIG. 9C shows a reconstructed image R22 focused on the subject distance D2, and FIG. 9D shows a reconstructed image R23 focused on the subject distance D3. FIG. 9E shows a pan-focus reconstructed image R24.

また、図9では図示しないが画像データL2およびL3についても同様に距離リストをもとに再構成処理を行い、被写体距離ごとに焦点が合った再構成画像を生成する。   Further, although not shown in FIG. 9, the image data L2 and L3 are similarly reconstructed based on the distance list to generate a reconstructed image focused on each subject distance.

次に、ステップS610、S611における画像合成処理について図10を参照して説明する。   Next, the image composition processing in steps S610 and S611 will be described with reference to FIG.

図10は、撮像データL1から生成した再構成画像と、画像データL2から生成した再構成画像を被写体距離ごとに合成して生成した広角画像を示す。図10(a)は、被写体距離D1に焦点があった再構成画像R11と被写体距離D1に焦点があった再構成画像R21を合成して生成した合成画像を示す。図10(b)は、被写体距離D2に焦点があった再構成画像R12と被写体距離D2に焦点があった再構成画像R22を合成して生成した合成画像を示す。図10(c)は、被写体距離D3に焦点があった再構成画像R13と被写体距離D3に焦点があった再構成画像R23を合成して生成した合成画像を示す。図10(d)は、パンフォーカスの再構成画像R14とパンフォーカスの再構成画像R24を合成して生成した合成画像を示す。   FIG. 10 shows a wide-angle image generated by combining the reconstructed image generated from the imaging data L1 and the reconstructed image generated from the image data L2 for each subject distance. FIG. 10A shows a composite image generated by combining the reconstructed image R11 focused on the subject distance D1 and the reconstructed image R21 focused on the subject distance D1. FIG. 10B shows a composite image generated by combining the reconstructed image R12 focused on the subject distance D2 and the reconstructed image R22 focused on the subject distance D2. FIG. 10C shows a composite image generated by combining the reconstructed image R13 focused on the subject distance D3 and the reconstructed image R23 focused on the subject distance D3. FIG. 10D shows a composite image generated by combining the pan-focus reconstructed image R14 and the pan-focus reconstructed image R24.

また、図10では、図示しないが画像データL3についても同様に生成した再構成画像と、画像データL1及びL2を合成して得られた、被写体距離ごとの広角画像を合成して広角画像を更新する。   In FIG. 10, although not shown, the reconstructed image generated in the same manner for the image data L3 and the wide-angle image obtained by combining the image data L1 and L2 are combined to update the wide-angle image. To do.

次に、ステップS613におけるファイル生成および記録について図11を参照して説明する。   Next, file generation and recording in step S613 will be described with reference to FIG.

図11は、被写体距離D1、被写体距離D2、および被写体距離D3それぞれに焦点があった広角画像と、パンフォーカス広角画像の4種類の広角画像を含むファイル1100の構成例を示す。ファイル1100は、ヘッダ情報部1101と、データ部1102で構成される。ヘッダ情報部1101には、データサイズや初期再生画像、作成時間等を書き込む。さらに、被写体距離D1、被写体距離D2、および被写体距離D3それぞれに焦点があった広角画像とパンフォーカス広角画像の4種類の広角画像のアドレス情報(先頭アドレス)1112乃至1115も書き込む。ここで、初期再生画像は、再生時のデフォルト画像としてパンフォーカスの広角画像の先頭アドレスとしても良いし、任意の被写体距離に焦点が合ったものにしても良く、特に限定しない。   FIG. 11 shows a configuration example of a file 1100 including four types of wide-angle images: a wide-angle image focused on each of the subject distance D1, the subject distance D2, and the subject distance D3, and a pan-focus wide-angle image. The file 1100 includes a header information part 1101 and a data part 1102. In the header information section 1101, the data size, initial reproduction image, creation time, and the like are written. Furthermore, address information (start addresses) 1112 to 1115 of four types of wide-angle images, that is, a wide-angle image focused on the subject distance D1, a subject distance D2, and a subject distance D3, and a pan-focus wide-angle image are also written. Here, the initial reproduction image may be a head address of a pan-focus wide-angle image as a default image at the time of reproduction, or may be an object focused on an arbitrary subject distance, and is not particularly limited.

データ部1102は、被写体距離D1、被写体距離D2、被写体距離D3それぞれに焦点があった広角画像とパンフォーカス広角画像の4種類の広角画像1121乃至1115を保持する。すなわち、ヘッダ情報部1101に書き込まれている各広角画像の先頭アドレス1112乃至1115から、任意の広角画像を取得することができる。   The data unit 1102 holds four types of wide-angle images 1121 to 1115, which are a wide-angle image and a pan-focus wide-angle image focused on the subject distance D1, the subject distance D2, and the subject distance D3. That is, an arbitrary wide-angle image can be acquired from the top addresses 1112 to 1115 of each wide-angle image written in the header information part 1101.

次に、ステップS613で記録したファイルの再生処理の動作について、図12の再生フローチャートを参照して説明する。   Next, the operation of reproducing the file recorded in step S613 will be described with reference to the reproduction flowchart of FIG.

図12において、ステップS1201では、メインメモリ114に保持されているファイルを読み出す。ステップS1202では、読み出したファイルから初期再生画像を参照して再生する広角画像を設定する。ステップS1203では、設定した広角画像を表示する。ステップS1204では、ユーザによりスイッチ群117や表示部106のタッチ操作などの入力があるか否かを判定し、否の場合S1204へ戻る。   In FIG. 12, in step S1201, a file held in the main memory 114 is read. In step S1202, a wide-angle image to be reproduced is set with reference to the initial reproduction image from the read file. In step S1203, the set wide-angle image is displayed. In step S1204, it is determined whether or not there is an input such as a touch operation on the switch group 117 or the display unit 106 by the user, and if not, the process returns to S1204.

ステップS1205では、画像内の領域を選択する入力があるか否かを判定する。ここで、画面内の領域を選択する入力は表示部106のタッチ操作情報などから判断する。また、画像内の領域を選択する入力があった場合はS1206に進む。さらに、画像内の領域を選択する入力がなかった場合は、その他処理を実行するため再生動作を終了する。   In step S1205, it is determined whether there is an input for selecting an area in the image. Here, an input for selecting an area in the screen is determined from touch operation information on the display unit 106 or the like. If there is an input for selecting an area in the image, the process proceeds to S1206. Further, when there is no input for selecting an area in the image, the reproduction operation is terminated to execute other processing.

ステップS1206では、再生するのに最適な広角画像を判断するため、読み出したファイルに保持されている広角画像の中から画像内の選択された領域のコントラストが最大になる広角画像を選択する。ステップS1207では、選択した広角画像の先頭アドレスを読み出したファイルの初期再生画像として設定し、S1203へ戻る。   In step S1206, in order to determine the optimum wide-angle image for reproduction, the wide-angle image that maximizes the contrast of the selected region in the image is selected from the wide-angle images held in the read file. In step S1207, the head address of the selected wide-angle image is set as the initial reproduction image of the read file, and the process returns to S1203.

以上の動作により、ユーザーの選択に応じて被写体ごとに焦点のあった広角画像を再生することができる。   With the above operation, a wide-angle image focused on each subject can be reproduced according to the user's selection.

上述した本発明によれば、再構成のためのデータ量を軽減しながら、撮影後に選択した被写体に焦点があった広角画像を生成することが可能な画像処理装置を提供することが可能となる。   According to the present invention described above, it is possible to provide an image processing apparatus capable of generating a wide-angle image focused on a subject selected after shooting while reducing the amount of data for reconstruction. .

ここで、上述した本実施例の画像処理装置が適用可能な他の撮像装置の構成例について説明する。   Here, a configuration example of another imaging apparatus to which the above-described image processing apparatus of the present embodiment can be applied will be described.

上述した実施例に係る画像処理装置は、リフォーカス可能なライトフィールドデータとして、図3に示した撮影レンズ101、MLA102、撮像素子103の構成にて取得されたデータを対象とした。しかし、図13に示す構成で取得したライトフィールドデータを用いてもよい。なお、図13において、図3と同様の構成部分は同じ符号を付して示す。   The image processing apparatus according to the above-described embodiment targets data acquired by the configuration of the photographing lens 101, the MLA 102, and the image sensor 103 illustrated in FIG. 3 as refocusable light field data. However, light field data acquired with the configuration shown in FIG. 13 may be used. In FIG. 13, the same components as those in FIG. 3 are denoted by the same reference numerals.

図13の詳細は非特許文献2に記載されているので、ここでは簡単に述べる。図3との違いは、図3の構成はカメラの撮影レンズ101はMLA102の平面に焦点が合うように調整されているが、図13ではMLA102の平面の手前の像面IP1に焦点が合うように調整されている。   The details of FIG. 13 are described in Non-Patent Document 2 and will be briefly described here. 3 is different from FIG. 3 in that the photographing lens 101 of the camera is adjusted so that the plane of the MLA 102 is in focus, but in FIG. 13, the image plane IP1 in front of the plane of the MLA 102 is focused. Has been adjusted.

また、本実施例では、リフォーカス可能なライトフィールドデータとして、図1に示す装置構成の撮像装置で取得したデータを対象としたが、代わりに図14に示す構成の撮像装置で取得したライトフィールドデータを用いてもよい。なお、同図においても、図1と同様の構成部分については同じ符号を付して示す。   In this embodiment, the light field data acquired by the imaging apparatus having the configuration shown in FIG. 14 is used as the refocusable light field data. Data may be used. In the figure, the same components as those in FIG. 1 are denoted by the same reference numerals.

図14の場合、光学系101a〜101cで屈折された光線は、それぞれに対応した撮像素子103a〜103cで受光される。撮像素子103a〜103cで取得された複数の画像は、被写体空間を異なる視点から観察した視差画像となっている。これらの複数の画像を合わせることで、被写体空間における光の2次元強度分布と角度情報、つまりライトフィールドを得ることができる。図14のような多眼構成のカメラにおいて複数の画像を合わせてライトフィールドを得る方法については特許文献1等に記載されているのでここでは割愛する。   In the case of FIG. 14, the light rays refracted by the optical systems 101a to 101c are received by the imaging elements 103a to 103c corresponding to the respective light beams. The plurality of images acquired by the image sensors 103a to 103c are parallax images obtained by observing the subject space from different viewpoints. By combining these plural images, it is possible to obtain a two-dimensional intensity distribution and angle information of light in the subject space, that is, a light field. A method for obtaining a light field by combining a plurality of images in a multi-lens configuration camera as shown in FIG. 14 is described in Patent Document 1 and the like, and is omitted here.

また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給することによっても達成される。すなわち、そのシステム或いは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても本件発明の目的が達成されることは言うまでもない。   The object of the present invention can also be achieved by supplying a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus. That is, it goes without saying that the object of the present invention can also be achieved when the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、プログラムコード自体及びそのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing the program code constitute the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。   As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

また、コンピュータが読み出したプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(基本システム或いはオペレーティングシステム)などが実際の処理の一部又は全部を行うことによっても前述した実施形態の機能が実現される。この場合も本件発明に含まれることは言うまでもない。   In addition, the functions of the above-described embodiment can also be realized when an OS (basic system or operating system) operating on the computer performs part or all of the actual processing based on the instruction of the program code read by the computer. Realized. Needless to say, this case is also included in the present invention.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づく処理も本件発明に含まれる。すなわち、機能拡張ボードや機能拡張ユニットに備わるCPU等がプログラムコードの指示に基づき実際の処理の一部又は全部を行って前述した実施形態の機能を実現する場合も本件発明に含まれることは言うまでもない。   Furthermore, after the program code read from the storage medium is written to the memory provided in the function expansion board inserted in the computer or the function expansion unit connected to the computer, the processing based on the instruction of the program code is also performed. Included in the invention. That is, it goes without saying that the present invention also includes the case where the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code to realize the functions of the above-described embodiment. Yes.

上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

以上、本発明の好ましい実施の形態を説明したが、本発明はこれらの実施形態に限定されるものではなく、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

Claims (17)

リフォーカス可能な複数の異なる画角の画像データを取得する取得手段と、
前記複数の画像データから得られる被写体情報に基づいた像面における再構成画像を、前記複数の画像データの各画像データから生成する生成手段と、
前記異なる画角の画像データから生成された再構成画像を、前記像面ごとに合成する合成手段と
を備えることを特徴とする画像処理装置。
Acquisition means for acquiring image data of a plurality of different angles of view that can be refocused;
Generating means for generating a reconstructed image on an image plane based on subject information obtained from the plurality of image data from each image data of the plurality of image data;
An image processing apparatus comprising: a combining unit configured to combine the reconstructed image generated from the image data having different angles of view for each image plane.
前記生成手段は、各画像データを複数の分割領域に分割し、各分割領域の画像データから被写体距離を算出するとともに、各画像データから被写体を検出し、前記検出した被写体と前記算出した被写体距離とを画像データごとに対応付ける前記被写体情報を生成する距離取得手段を有し、前記検出された被写体に対応付けられた被写体距離に基づいて前記像面を設定することを特徴とする請求項1に記載の画像処理装置。   The generating unit divides each image data into a plurality of divided areas, calculates a subject distance from the image data of each divided area, detects a subject from each image data, and detects the detected subject and the calculated subject distance. The image plane is set on the basis of a subject distance associated with the detected subject, and a distance acquisition unit that generates the subject information for each of the image data. The image processing apparatus described. 前記生成された被写体情報において、前記検出された被写体と対応付けされる被写体距離が不足している画像データがある場合は、前記距離取得手段は、他の画像データにおいて対応付けられた被写体距離を用いて補正し、前記生成手段は、前記補正された被写体情報に基づいて設定した像面における再構成画像を生成することを特徴とする請求項2に記載の画像処理装置。   When there is image data in which the subject distance associated with the detected subject is insufficient in the generated subject information, the distance acquisition unit calculates the subject distance associated with the other image data. The image processing apparatus according to claim 2, wherein the generation unit generates a reconstructed image on an image plane set based on the corrected subject information. 前記生成手段は、前記被写体情報に基づいた像面における再構成画像を生成したときは、前記生成された再構成画像と生成に用いた画像データとを関連付けるリンク情報を生成し、前記合成手段は、各画像データについて再構成画像を合成した後に、前記リンク情報に従って画像データを削除することを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。   When generating the reconstructed image on the image plane based on the subject information, the generating means generates link information that associates the generated reconstructed image with the image data used for generation, and the combining means The image processing apparatus according to claim 1, wherein after the reconstructed image is synthesized for each image data, the image data is deleted according to the link information. 前記像面ごとに合成された再構成画像を記憶するデータ部と、前記データ部に記憶された前記合成された再構成画像のアドレス情報を記憶する情報部とを有するファイルを生成するファイル生成手段を備えることを特徴とする請求項1乃至4のいずれか一項に記載の画像処理装置。   File generating means for generating a file having a data part for storing a reconstructed image synthesized for each image plane and an information part for storing address information of the synthesized reconstructed image stored in the data part The image processing apparatus according to claim 1, further comprising: 記録媒体から再生された前記ファイルを取得し、前記取得したファイルのデータ部に記憶されている前記像面ごとに合成された再構成画像のいずれかを前記ファイルの初期再生画像として設定する再生処理手段を備えることを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。   Reproduction processing for acquiring the file reproduced from a recording medium and setting one of the reconstructed images synthesized for each image plane stored in the data portion of the acquired file as an initial reproduction image of the file The image processing apparatus according to claim 1, further comprising a unit. 撮影レンズで結像された被写体像を撮像して再構成可能な画像データを生成する撮像手段と、
前記撮像手段により異なる画角で前記被写体像を撮像して生成された画像データを取得して処理する請求項1乃至7のいずれか一項に記載の画像処理装置と、
前記像面ごとに合成された再構成画像を記録媒体に記録する記録手段と、
前記記録媒体に記録された前記像面ごとに合成された再構成画像を再生する再生手段と
を備えることを特徴とする撮像装置。
Imaging means for imaging a subject image formed by a photographic lens and generating reconfigurable image data;
The image processing apparatus according to any one of claims 1 to 7, which acquires and processes image data generated by imaging the subject image at different angles of view by the imaging unit;
Recording means for recording a reconstructed image synthesized for each image plane on a recording medium;
Reproducing means for reproducing a reconstructed image synthesized for each image plane recorded on the recording medium.
前記記録手段は、前記ファイル生成手段で生成された前記ファイルを前記記録媒体に記録し、前記再生手段は、前記ファイルを前記記録媒体から再生することを特徴とする請求項7に記載の撮像装置。   8. The imaging apparatus according to claim 7, wherein the recording unit records the file generated by the file generation unit on the recording medium, and the reproduction unit reproduces the file from the recording medium. . 前記再生処理手段が設定する前記初期再生画像を、前記再生されたファイルのデータ部に記憶されている合成された再構成画像から選択する選択手段を備えることを特徴とする請求項8に記載の撮像装置。   9. The selection unit according to claim 8, further comprising a selection unit that selects the initial reproduction image set by the reproduction processing unit from a synthesized reconstructed image stored in a data portion of the reproduced file. Imaging device. 前記撮像手段は、前記撮影レンズの瞳分割手段を有し、前記撮像手段は、前記瞳分割手段が前記撮影レンズの焦点位置の近傍に位置するように配置されていることを特徴とする請求項7乃至9のいずれか一項に記載の撮像装置。   The imaging unit includes a pupil dividing unit of the photographing lens, and the imaging unit is arranged so that the pupil dividing unit is positioned in the vicinity of a focal position of the photographing lens. The imaging device according to any one of 7 to 9. 前記撮像手段は、前記撮影レンズの瞳分割手段を有し、前記撮像手段は、前記瞳分割手段が前記撮影レンズの焦点位置より後方に位置するように配置されていることを特徴とする請求項7乃至9のいずれか一項に記載の撮像装置。   The imaging unit includes a pupil dividing unit of the photographing lens, and the imaging unit is arranged so that the pupil dividing unit is located behind a focal position of the photographing lens. The imaging device according to any one of 7 to 9. 前記撮像手段は、対応する撮影レンズで結像された被写体像を撮像して前記画像データを生成する複数の撮像素子を備え、異なる画角の画像データを生成することを特徴とする請求項7乃至9のいずれか一項に記載の撮像装置。   8. The image pickup means includes a plurality of image pickup elements that pick up a subject image formed by a corresponding photographing lens and generate the image data, and generate image data having different angles of view. The imaging device according to any one of Items 1 to 9. リフォーカス可能な複数の異なる画角の画像データを取得する取得ステップと、
前記複数の画像データから得られる被写体情報に基づいた像面における再構成画像を、各画像データから生成する生成ステップと、
前記異なる画角の画像データから生成された再構成画像を、前記像面ごとに合成する合成ステップと
を備えることを特徴とする画像処理方法。
An acquisition step of acquiring image data of a plurality of different angles of view that can be refocused;
Generating a reconstructed image on an image plane based on subject information obtained from the plurality of image data from each image data;
An image processing method comprising: a combining step of combining the reconstructed image generated from the image data having the different angles of view for each image plane.
コンピュータに、請求項13に記載された画像処理方法を実行させるためのプログラム。   A program for causing a computer to execute the image processing method according to claim 13. コンピュータに、請求項13に記載された画像処理方法を実行させるためのプログラムを記憶した記憶媒体。   A storage medium storing a program for causing a computer to execute the image processing method according to claim 13. コンピュータを、請求項1乃至6のいずれか一項に記載された画像処理装置の各手段として機能させるプログラム。   A program that causes a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 6. コンピュータを、請求項1乃至6のいずれか一項に記載された画像処理装置の各手段として機能させるプログラムを記憶した記憶媒体。   A storage medium storing a program that causes a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 6.
JP2013175656A 2013-08-27 2013-08-27 Image processing apparatus, image processing method and program, and imaging apparatus Active JP6406804B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013175656A JP6406804B2 (en) 2013-08-27 2013-08-27 Image processing apparatus, image processing method and program, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013175656A JP6406804B2 (en) 2013-08-27 2013-08-27 Image processing apparatus, image processing method and program, and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2015046687A true JP2015046687A (en) 2015-03-12
JP6406804B2 JP6406804B2 (en) 2018-10-17

Family

ID=52671896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013175656A Active JP6406804B2 (en) 2013-08-27 2013-08-27 Image processing apparatus, image processing method and program, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP6406804B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019097169A (en) * 2017-11-24 2019-06-20 三星電子株式会社Samsung Electronics Co.,Ltd. Image restoration apparatus and method
CN113295059A (en) * 2021-04-13 2021-08-24 长沙理工大学 Multi-lens imaging method for detecting multi-cartridge fireworks and crackers

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004228711A (en) * 2003-01-20 2004-08-12 Sony Corp Supervisory apparatus and method, program, and supervisory system
JP2005277813A (en) * 2004-03-25 2005-10-06 Canon Inc Electronic imaging apparatus
JP2011022796A (en) * 2009-07-15 2011-02-03 Canon Inc Image processing method and image processor
JP2011223089A (en) * 2010-04-05 2011-11-04 Casio Comput Co Ltd Video file generating device, video file generation method, and video file generation program
JP2011239195A (en) * 2010-05-11 2011-11-24 Sanyo Electric Co Ltd Electronic apparatus
JP2011237713A (en) * 2010-05-13 2011-11-24 Canon Inc Imaging device and imaging method
US20120249550A1 (en) * 2009-04-18 2012-10-04 Lytro, Inc. Selective Transmission of Image Data Based on Device Attributes
JP2012524467A (en) * 2009-04-18 2012-10-11 リフォーカス イマジング,インコーポレイテッド Light field camera images, files and configuration data, and methods for using, storing and communicating them
JP2012253444A (en) * 2011-05-31 2012-12-20 Canon Inc Imaging apparatus, image processing system, and method thereof
JP2013065280A (en) * 2011-09-01 2013-04-11 Canon Inc Image processing method, image processing system and program
JP2013128217A (en) * 2011-12-19 2013-06-27 Canon Inc Imaging apparatus
JP2013145980A (en) * 2012-01-13 2013-07-25 Canon Inc Imaging device, control method thereof, image processing apparatus, image generation method, program

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004228711A (en) * 2003-01-20 2004-08-12 Sony Corp Supervisory apparatus and method, program, and supervisory system
JP2005277813A (en) * 2004-03-25 2005-10-06 Canon Inc Electronic imaging apparatus
US20120249550A1 (en) * 2009-04-18 2012-10-04 Lytro, Inc. Selective Transmission of Image Data Based on Device Attributes
JP2012524467A (en) * 2009-04-18 2012-10-11 リフォーカス イマジング,インコーポレイテッド Light field camera images, files and configuration data, and methods for using, storing and communicating them
JP2011022796A (en) * 2009-07-15 2011-02-03 Canon Inc Image processing method and image processor
JP2011223089A (en) * 2010-04-05 2011-11-04 Casio Comput Co Ltd Video file generating device, video file generation method, and video file generation program
JP2011239195A (en) * 2010-05-11 2011-11-24 Sanyo Electric Co Ltd Electronic apparatus
JP2011237713A (en) * 2010-05-13 2011-11-24 Canon Inc Imaging device and imaging method
JP2012253444A (en) * 2011-05-31 2012-12-20 Canon Inc Imaging apparatus, image processing system, and method thereof
JP2013065280A (en) * 2011-09-01 2013-04-11 Canon Inc Image processing method, image processing system and program
JP2013128217A (en) * 2011-12-19 2013-06-27 Canon Inc Imaging apparatus
JP2013145980A (en) * 2012-01-13 2013-07-25 Canon Inc Imaging device, control method thereof, image processing apparatus, image generation method, program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019097169A (en) * 2017-11-24 2019-06-20 三星電子株式会社Samsung Electronics Co.,Ltd. Image restoration apparatus and method
JP7264624B2 (en) 2017-11-24 2023-04-25 三星電子株式会社 Video restoration device and method
CN113295059A (en) * 2021-04-13 2021-08-24 长沙理工大学 Multi-lens imaging method for detecting multi-cartridge fireworks and crackers

Also Published As

Publication number Publication date
JP6406804B2 (en) 2018-10-17

Similar Documents

Publication Publication Date Title
JP6055332B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP5725953B2 (en) Imaging apparatus, control method therefor, and information processing apparatus
JP5947548B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, IMAGE PROCESSING DEVICE, IMAGE GENERATION METHOD, PROGRAM
JP2013201752A5 (en)
JP6159097B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP5377768B2 (en) Image processing method and apparatus
US20140226039A1 (en) Image capturing apparatus and control method thereof
JP6095266B2 (en) Image processing apparatus and control method thereof
JP2018174502A (en) Imaging apparatus, image processing apparatus, control method of imaging apparatus, and program
JP6211137B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP2017005689A (en) Image processing system and image processing method
JPWO2010035752A1 (en) Image generation apparatus, imaging apparatus, image reproduction apparatus, and image reproduction program
JP6406804B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
JP6053276B2 (en) Imaging apparatus, control method therefor, and image processing apparatus
US10681260B2 (en) Focus detection device and focus detection method
JP6210836B2 (en) IMAGING DEVICE, IMAGING CONTROL DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP5895587B2 (en) Image recording apparatus, image recording method, image reproducing apparatus, and image reproducing method
JP6491442B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP6757245B2 (en) Video playback device, imaging device, video playback method and program
JP2014220598A (en) Image processing device and image processing method
JP2015084517A (en) Image processing apparatus, image processing method, program and recording medium
JP6291605B2 (en) Image processing apparatus and control method thereof
JP2019208214A (en) Image processing apparatus, image processing method, program, and imaging apparatus
JP2014110442A (en) Imaging apparatus
JP2018050147A (en) Imaging apparatus, imaging method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170825

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20171214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180126

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180601

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180918

R151 Written notification of patent or utility model registration

Ref document number: 6406804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151