JP2019208214A - Image processing apparatus, image processing method, program, and imaging apparatus - Google Patents

Image processing apparatus, image processing method, program, and imaging apparatus Download PDF

Info

Publication number
JP2019208214A
JP2019208214A JP2019113888A JP2019113888A JP2019208214A JP 2019208214 A JP2019208214 A JP 2019208214A JP 2019113888 A JP2019113888 A JP 2019113888A JP 2019113888 A JP2019113888 A JP 2019113888A JP 2019208214 A JP2019208214 A JP 2019208214A
Authority
JP
Japan
Prior art keywords
image
image processing
divided
pixel
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019113888A
Other languages
Japanese (ja)
Other versions
JP6752942B2 (en
Inventor
智史 生田
Satoshi Ikuta
智史 生田
洋平 堀川
Yohei Horikawa
洋平 堀川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019113888A priority Critical patent/JP6752942B2/en
Publication of JP2019208214A publication Critical patent/JP2019208214A/en
Application granted granted Critical
Publication of JP6752942B2 publication Critical patent/JP6752942B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

To provide an image processing apparatus capable of preventing miscorrection of an image caused by blur in image processing of a refocused image.SOLUTION: The image processing apparatus (an imaging apparatus 100) includes: data acquisition means for acquiring light field data generated by imaging means having a pupil dividing function of an exit pupil of an imaging optical system forming an optical image of an object; image processing means for performing predetermined image processing of image data; image generation means for generating the image data subjected to the predetermined image processing by using the light field data; and control means for performing the predetermined image processing on the generated image data by controlling the image processing means to generate light field data corrected in accordance with the predetermined image processing.SELECTED DRAWING: Figure 1

Description

本発明は画像処理装置に関し、特にリフォーカス可能なライトフィールドデータに基づく画像を処理する画像処理装置および当該画像処理装置を適用した撮像装置に関する。   The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that processes an image based on refocusable light field data and an imaging apparatus to which the image processing apparatus is applied.

近年、撮影した被写体画像の特定の領域に対して画像処理を行う機能を有するデジタルカメラ等の撮像装置が知られている。例えば、特許文献1では、ユーザーが指定した色情報を有する領域に対して同様にユーザーが指定した色に変換する色変換処理を行うことが可能な技術が開示されている。   2. Description of the Related Art In recent years, imaging devices such as digital cameras having a function of performing image processing on a specific area of a photographed subject image are known. For example, Patent Document 1 discloses a technique capable of performing a color conversion process in which an area having color information specified by a user is similarly converted to a color specified by the user.

ところで、1回の撮影で被写界の異なる距離にピントの合った画像を得ることのできる技術が知られている。特許文献2では結像光学系の射出瞳の異なる領域を通過した光束を撮像素子によって撮像して得られる撮像信号(ライトフィールドデータ)を合成して任意の焦点面において取得可能な画像データ(リフォーカス画像)を1回の撮影で生成する技術が開示されている。   By the way, there is known a technique capable of obtaining images in focus at different distances in the field of field by one shooting. In Patent Literature 2, image data (re-field data) that can be acquired at an arbitrary focal plane by synthesizing an imaging signal (light field data) obtained by imaging a light beam that has passed through different areas of the exit pupil of the imaging optical system with an imaging device. A technique for generating a (focus image) by one shooting is disclosed.

特開2006−186594号公報JP 2006-186594 A 特開2007−4471号公報JP 2007-4471 A

特許文献1に記載の撮像装置において、変換対象の色を有する被写体領域にボケが発生している場合、ボケ領域で発生する混色に起因して意図する色変換処理結果を得られない場合がある。このような問題は前述の色変換処理に限らず、被写体固有の情報を用いる画像処理や被写体領域毎に異なる画像処理を適用するような場面においても同様の問題が発生する。   In the imaging apparatus described in Patent Literature 1, when blur occurs in a subject area having a color to be converted, an intended color conversion processing result may not be obtained due to color mixing that occurs in the blur area. . Such a problem is not limited to the above-described color conversion process, and the same problem occurs in a scene where image processing using information unique to a subject or different image processing is applied to each subject region.

一方、特許文献2に記載の撮像装置において、同一のシーンからピント位置を変えた複数のリフォーカス画像を生成し、それらに一律に同様の画像処理を行う場合は、合成の度に画像処理を実施することになり、処理が煩雑になってしまう。   On the other hand, in the imaging apparatus described in Patent Document 2, when generating a plurality of refocused images in which the focus position is changed from the same scene and performing the same image processing on them uniformly, the image processing is performed every time the image is combined. It will be carried out, and the processing becomes complicated.

そこで、本発明の目的は、例えばリフォーカス画像などの画像に画像処理を行う場合において、ボケに起因する画像処理による画像の誤補正を回避し、かつ効率よく画像処理を行うことを可能にする画像処理装置を提供することである。   Accordingly, an object of the present invention is to avoid erroneous correction of an image due to image processing caused by blur and to perform image processing efficiently when image processing is performed on an image such as a refocus image. An image processing apparatus is provided.

上記課題を解決する為に本発明によれば、画像処理装置は、被写体の光学像を形成する撮像光学系の射出瞳の瞳分割機能を有する撮像手段で生成されたライトフィールドデータを取得する取得手段と、所定の画像処理を画像データに行う画像処理手段と、所定の画像処理が行われる画像データを、ライトフィールドデータを用いて生成する画像生成手段と、画像処理手段を制御して、生成された画像データに所定の画像処理を行うことで、所定の画像処理に従って補正されたライトフィールドデータを生成する制御手段を備える。   In order to solve the above problems, according to the present invention, an image processing apparatus acquires light field data generated by an imaging unit having a pupil division function of an exit pupil of an imaging optical system that forms an optical image of a subject. Means, image processing means for performing predetermined image processing on image data, image generation means for generating image data to be subjected to predetermined image processing using light field data, and controlling the image processing means to generate Control means for generating light field data corrected according to the predetermined image processing by performing predetermined image processing on the processed image data.

本発明によれば、リフォーカス画像の画像処理において、当該画像処理に対応してライトフィールドデータの補正を行うことが可能となり、ボケに起因した各種画像処理による画像の誤補正を防ぐことを可能とする画像処理装置を提供できる。   According to the present invention, in the image processing of the refocus image, it is possible to correct the light field data corresponding to the image processing, and it is possible to prevent erroneous correction of the image due to various image processing caused by blurring. An image processing apparatus can be provided.

本発明の第1の実施例に係わる画像処理装置を適用した撮像装置の構成を示すブロック図1 is a block diagram illustrating a configuration of an imaging apparatus to which an image processing apparatus according to a first embodiment of the present invention is applied. 撮像素子のカラーフィルターを有する画素の配列構成の例を模式的に示す図The figure which shows the example of the arrangement structure of the pixel which has a color filter of an image pick-up element typically 分割画素を有する画素の構成例を示す図The figure which shows the structural example of the pixel which has a division | segmentation pixel. 分割画素と撮像光学系の射出瞳領域との関係を概念的に示す図The figure which shows notionally the relationship between a division | segmentation pixel and the exit pupil area | region of an imaging optical system ライトフィ−ルドデータによる画像合成を説明するための図The figure for demonstrating the image composition by write field data 本発明の第1の実施例に係わる画像処理装置を適用した撮像装置の撮影動作のフローチャートを示す図The figure which shows the flowchart of imaging | photography operation | movement of the imaging device to which the image processing apparatus concerning 1st Example of this invention is applied. 本発明の第2の実施例に係わる画像処理装置を適用した撮像装置の構成を示すブロック図FIG. 3 is a block diagram showing a configuration of an image pickup apparatus to which an image processing apparatus according to a second embodiment of the present invention is applied. 視差マップを説明するための図A diagram for explaining a parallax map 視差マップに従って生成される合成画像を説明するための図The figure for demonstrating the synthesized image produced | generated according to a parallax map 本発明の第2の実施例に係わる画像処理装置を適用した撮像装置の撮影動作のフローチャートを示す図The figure which shows the flowchart of imaging | photography operation | movement of the imaging device to which the image processing apparatus concerning the 2nd Example of this invention is applied. 撮像素子とシェーディング形状の関係を説明するための図The figure for demonstrating the relationship between an image sensor and shading shape

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1から図6を参照して、本発明の第1の実施例を説明する。   A first embodiment of the present invention will be described with reference to FIGS.

図1は本発明の第1の実施例に係わる画像処理装置を適用した撮像装置100の構成を示すブロック図である。同図において、101は撮像光学系であり、入射する被写体からの光を不図示の複数のレンズ群および絞りを介して撮像素子102に導く。撮像光学系101を通過した光束は撮像素子102上に結像して光学像を形成する。撮像素子102はR(赤)G(緑)B(青)のカラーフィルターを備える画素がベイヤー配列に従って配置された画素配列を有し、一つの画素には少なくとも一対の光電変換部が構成されている。撮像素子102および画素の詳細については後述する。   FIG. 1 is a block diagram showing a configuration of an image pickup apparatus 100 to which an image processing apparatus according to the first embodiment of the present invention is applied. In FIG. 1, reference numeral 101 denotes an image pickup optical system that guides light from an incident subject to the image pickup element 102 through a plurality of lens groups and a diaphragm (not shown). The light beam that has passed through the imaging optical system 101 forms an optical image on the image sensor 102. The image sensor 102 has a pixel array in which pixels having R (red), G (green), and B (blue) color filters are arranged according to a Bayer array, and each pixel includes at least a pair of photoelectric conversion units. Yes. Details of the image sensor 102 and the pixels will be described later.

A/D変換部103は、撮像素子102から出力されたアナログ画像信号をデジタル信号に変換する。瞳分割画像生成部104は、A/D変換部103から出力される信号から一対の瞳分割画像データを生成する。瞳分割画像生成部104の詳細な動作についても後述する。システム制御部105は、撮影や記録などの動作などにおいて撮像装置内部の状態に従って撮像装置全体の制御を行う。D/A変換部106は、デジタル画像信号をアナログ信号に変換し、表示部107に出力する。   The A / D conversion unit 103 converts the analog image signal output from the image sensor 102 into a digital signal. The pupil division image generation unit 104 generates a pair of pupil division image data from the signal output from the A / D conversion unit 103. The detailed operation of the pupil division image generation unit 104 will also be described later. The system control unit 105 controls the entire imaging apparatus according to the state inside the imaging apparatus in operations such as shooting and recording. The D / A conversion unit 106 converts the digital image signal into an analog signal and outputs the analog signal to the display unit 107.

表示部107はLCD等の液晶ディスプレイであり、EVFや記録媒体111に記憶された画像データおよび各種設定画面などを表示する。画像合成部108は、複数の画像から合成画像を生成する。画像合成部108の詳細な動作については後述する。色変換部109は、画像中の所定の色を他の所定の色に変換する色変換処理を行う。色変換部109の詳細については後述する。   The display unit 107 is a liquid crystal display such as an LCD, and displays image data stored in the EVF or the recording medium 111, various setting screens, and the like. The image composition unit 108 generates a composite image from a plurality of images. Detailed operation of the image composition unit 108 will be described later. The color conversion unit 109 performs color conversion processing for converting a predetermined color in the image into another predetermined color. Details of the color conversion unit 109 will be described later.

メモリ110はカメラ内部の動作制御プログラム、画像、および演算データや各種パラメータを記憶するメモリであり、各種画像処理に用いるパラメータやルックアップテーブルの情報、およびシェーディング特性等の情報を予め記憶している。記録媒体111はSDカードやCompactFlashなどの記録媒体であり、撮影画像データを記録する。   The memory 110 is a memory for storing an operation control program inside the camera, images, calculation data, and various parameters, and stores in advance information such as parameters used for various image processing, lookup table information, and shading characteristics. . The recording medium 111 is a recording medium such as an SD card or CompactFlash, and records captured image data.

次に、図2〜図4を用いて本実施例における撮像素子102の構成を説明する。図2は撮像素子102の受光領域の一部を拡大した図である。撮像素子102の受光領域には、図2に示すようにRGBのいずれかのカラーフィルター200を有する画素がベイヤー配列に従って配置されている。   Next, the configuration of the image sensor 102 in this embodiment will be described with reference to FIGS. FIG. 2 is an enlarged view of a part of the light receiving region of the image sensor 102. As shown in FIG. 2, pixels having any of RGB color filters 200 are arranged in the light receiving region of the image sensor 102 according to a Bayer array.

次に図3を用いて撮像素子102の画素の構成について説明する。   Next, the pixel configuration of the image sensor 102 will be described with reference to FIG.

図3(a)は、撮像素子102の画素の一つを上面から観察した図である。図3(b)は、図3(a)に示す線分P−P´における画素の断面図である。なお図中において同様の部分には同一の符号を付して示す。   FIG. 3A is a view of one of the pixels of the image sensor 102 observed from above. FIG. 3B is a cross-sectional view of the pixel along the line segment P-P ′ shown in FIG. In the figure, similar parts are denoted by the same reference numerals.

図3において、301は瞳分割機能を有するマイクロレンズであり、撮像光学系から出力された光束を集光する。カラーフィルター200は、マイクロレンズ301を通過した光束のうち、特定の波長の光のみを透過する。302、303、304、305は光電変換部であり、それぞれ同じマイクロレンズを介して受光した光束を光電変換し、個別に光電変換信号を出力する(瞳分割)ことが可能である。なお、本実施例において単に画素と記載した場合は、撮像素子102の一つのマイクロレンズ下に構成される、上述の要素301〜305および200の集合単位である単位画素を意味するものとする。また、画素における光電変換部302の位置に対応する光電変換部を分割画素A、303の位置に対応する光電変換部を分割画素B、304の位置に対応する光電変換部を分割画素C、305の位置に対応する光電変換部を分割画素Dとそれぞれ記す。   In FIG. 3, reference numeral 301 denotes a microlens having a pupil division function, which condenses the light beam output from the imaging optical system. The color filter 200 transmits only light of a specific wavelength out of the light flux that has passed through the microlens 301. Reference numerals 302, 303, 304, and 305 denote photoelectric conversion units that can photoelectrically convert light beams received through the same microlens and individually output photoelectric conversion signals (pupil division). Note that when simply described as a pixel in this embodiment, it means a unit pixel that is a set unit of the above-described elements 301 to 305 and 200 that is configured under one microlens of the image sensor 102. Further, the photoelectric conversion unit corresponding to the position of the photoelectric conversion unit 302 in the pixel is divided into pixels A and 303, the photoelectric conversion unit corresponding to the position of 303 is divided into pixels B, and the photoelectric conversion unit corresponding to the position of 304 is divided into pixels C and 305. The photoelectric conversion units corresponding to the positions are denoted as divided pixels D, respectively.

また、本実施例では一つの画素に対して4つの光電変換部を構成する例について説明を行うが、一つの画素に構成される光電変換部の数はこれに限定されない。一つの画素に構成される光電変換部が撮像光学系の射出瞳のそれぞれ異なる領域を通過した光束を独立して受光可能な構成であればよい。   In this embodiment, an example in which four photoelectric conversion units are configured for one pixel will be described. However, the number of photoelectric conversion units configured in one pixel is not limited thereto. The photoelectric conversion unit configured in one pixel may be configured to be able to independently receive light beams that have passed through different regions of the exit pupil of the imaging optical system.

また、本実施例では撮像素子102の画素配列としてRGBのベイヤー配列による構成について説明をしたが、カラーフィルターの分光感度特性はこれに限定されるものではない。また、本実施例では一つのマイクロレンズに対して一つのカラーフィルターを構成する例を示したが、マイクロレンズ下の各分割画素にそれぞれ異なる分光感度特性を有するカラーフィルターを構成しても良い。   In this embodiment, the configuration using the RGB Bayer array as the pixel array of the image sensor 102 has been described. However, the spectral sensitivity characteristic of the color filter is not limited to this. Further, in this embodiment, an example in which one color filter is configured for one microlens is shown, but a color filter having different spectral sensitivity characteristics may be configured for each divided pixel under the microlens.

次に瞳分割画像生成部104による画像生成の詳細な動作について説明する。
瞳分割像生成部104は分割画素A、分割画素B、分割画素C、分割画素Dで得られる信号(ライトフィールドデータと称す)をそれぞれ取得し、分割画素A群によって得られる信号から第1の像信号(瞳分割画像データ)を、分割画素B群によって得られる信号から第2の像信号を生成する。また、分割画素C群によって得られる信号から第3の像信号を、分割画素D群によって得られる信号から第4の像信号をそれぞれ生成する。
Next, a detailed operation of image generation by the pupil division image generation unit 104 will be described.
The pupil divided image generation unit 104 acquires signals (referred to as light field data) obtained from the divided pixel A, divided pixel B, divided pixel C, and divided pixel D, respectively, and first signals are obtained from the signals obtained by the divided pixel A group. A second image signal is generated from an image signal (pupil divided image data) from a signal obtained by the divided pixel B group. In addition, a third image signal is generated from a signal obtained from the divided pixel group C, and a fourth image signal is generated from a signal obtained from the divided pixel group D.

図4は撮像光学系101の射出瞳と分割画素の関係を説明するための図である。なお、同図において、図3と同様の部分は同じ符号を付して示す。また、説明を簡便にするために分割画素Aおよび分割画素Bに着目して説明を行うものとする。従って、後述の説明は分割画素Aおよび分割画素Bに示す位置関係と同じ関係性である分割画素の組み合わせにも適用可能である。   FIG. 4 is a diagram for explaining the relationship between the exit pupil of the imaging optical system 101 and the divided pixels. In the figure, the same parts as those in FIG. 3 are denoted by the same reference numerals. In addition, in order to simplify the description, the description will be given focusing on the divided pixel A and the divided pixel B. Therefore, the following description can also be applied to combinations of divided pixels having the same relationship as the positional relationship shown for divided pixels A and B.

本実施例においては、撮像光学系の射出瞳401から出力された光はマイクロレンズ301により瞳分割され、分割画素A群302は領域402を、分割画素B群303は領域403を通過した光束をそれぞれ受光するように設計されている。したがって、第1の像信号および第2の像信号は瞳分割像方向に視差を有する一対の瞳分割画像データとなる。一対の瞳分割画像は、それぞれ撮像光学系101のF値に対して2段分深い被写界深度を有する。   In this embodiment, the light output from the exit pupil 401 of the imaging optical system is pupil-divided by the microlens 301, the divided pixel A group 302 is a region 402, and the divided pixel B group 303 is a light beam that has passed through the region 403. Each is designed to receive light. Therefore, the first image signal and the second image signal become a pair of pupil division image data having parallax in the pupil division image direction. Each of the pair of pupil divided images has a depth of field that is two steps deeper than the F value of the imaging optical system 101.

次に色変換部109の詳細な動作について説明する。
色変換部109は入力画像に対し、画素位置毎に足りない色情報を周囲の画素から補間し、各画素位置に対応する色情報Pix(R、G、B)を生成する。色変換部109はルックアップテーブルを用いて各画素位置に対応する色情報Pix(R、G、B)を、撮像装置100の撮影モードに従って予め決定される所定の変換目標色Pix(R’、G’、B’)へと変換する。ルックアップテーブルを用いた色変換処理は、ここでは詳細な説明は割愛するが、例えば特許文献1に開示されている技術を用いることで実現可能である。
Next, a detailed operation of the color conversion unit 109 will be described.
The color conversion unit 109 interpolates missing color information for each pixel position from the surrounding pixels in the input image, and generates color information Pix (R, G, B) corresponding to each pixel position. The color conversion unit 109 uses a lookup table to convert color information Pix (R, G, B) corresponding to each pixel position into a predetermined conversion target color Pix (R ′, G ′, B ′). The color conversion processing using the look-up table can be realized by using the technique disclosed in Patent Document 1, for example, although detailed description is omitted here.

なお、特許文献1に開示されている技術はYUV空間での色変換処理であるが、色変換後のYUV空間における画素値に対して行列演算による逆変換処理を行うことでRGB空間へと戻すことは容易である。色変換部109は前記ルックアップテーブルを用いた色変換処理を画像全体に対して実施し、画像中の変換対象の色を変換目標の色へと補正する。なお、本実施例では撮影モードに応じて変換対象の色および変換目標の色を決定する場合について説明したが、ユーザーが直接変換対象の色および変換目標の色を図示しない操作部により指定できるようにしてもよい。   The technique disclosed in Patent Document 1 is color conversion processing in the YUV space, but the pixel value in the YUV space after color conversion is returned to the RGB space by performing inverse conversion processing by matrix operation. It is easy. The color conversion unit 109 performs color conversion processing using the lookup table on the entire image, and corrects the color to be converted in the image to the conversion target color. In this embodiment, the case where the conversion target color and the conversion target color are determined according to the shooting mode has been described. However, the user can directly specify the conversion target color and the conversion target color using an operation unit (not shown). It may be.

また、本実施例では画像全体に対して画像処理を行う例について説明したが、本発明はこれに限定されるものではない。例えば、特定の被写体を対象として画像処理を行うような撮影モードが設定されている場合には、画像解析等により画像中の特定の被写体の存在する領域を推定し、画像処理対象領域を限定してもよい。   In the present embodiment, an example in which image processing is performed on the entire image has been described, but the present invention is not limited to this. For example, when a shooting mode that performs image processing on a specific subject is set, the region where the specific subject exists in the image is estimated by image analysis or the like, and the image processing target region is limited. May be.

次に図5を用いて画像合成部108の詳細な動作について説明する。画像合成部108は瞳分割画像を合成し、任意の焦点面(仮想撮像面)において取得可能な画像データ(リフォーカス画像)を生成する。図5は画像合成処理の動作を説明するための図である。なお、ここでは説明を簡便にするために分割画素Aおよび分割画素Bに着目して説明を行うものとする。以降の説明は、分割画素Aおよび分割画素Bに示す位置関係と同一の関係性を有する分割画素の組み合わせにも適用可能である。   Next, the detailed operation of the image composition unit 108 will be described with reference to FIG. The image synthesis unit 108 synthesizes the pupil-divided images and generates image data (refocus image) that can be acquired on an arbitrary focal plane (virtual imaging plane). FIG. 5 is a diagram for explaining the operation of the image composition processing. Here, for the sake of simplicity of explanation, the description will be made with attention paid to the divided pixel A and the divided pixel B. The following description can also be applied to combinations of divided pixels having the same relationship as the positional relationship shown for divided pixel A and divided pixel B.

図5(a)は、撮像素子102のある領域における入射光と焦点面の関係を示している。図4で説明した射出瞳領域402および403を通過した光束はマイクロレンズにより瞳分割され、分割画素502、504、506、508、510では射出瞳領域403を通過した光束を受光する。また、分割画素501、503、505,507、509では射出瞳領域402を通過した光束をそれぞれ受光する。   FIG. 5A shows the relationship between the incident light and the focal plane in a certain area of the image sensor 102. The light beam that has passed through the exit pupil regions 402 and 403 described with reference to FIG. Further, the divided pixels 501, 503, 505, 507, and 509 receive light beams that have passed through the exit pupil region 402, respectively.

図5(b)は、図5(a)においてそれぞれの分割画素が受光する光束を模式的に示した図である。同一のマイクロレンズ下の分割画素501および502、503および504、505および506、507および508、509および510をそれぞれ加算することによって同一のタイプの線分で示される結像画像の画素信号を得ることが出来る。   FIG. 5B is a diagram schematically showing the light flux received by each of the divided pixels in FIG. By adding the divided pixels 501 and 502, 503 and 504, 505 and 506, 507 and 508, 509 and 510, respectively, under the same microlens, pixel signals of the imaged image indicated by the same type of line segment are obtained. I can do it.

図5(d)は射出瞳領域403を通過した光束により得られた信号群を1画素分シフトして加算する例を示している。それぞれの分割画素は図5(a)で示した光線情報を有しているため、シフト加算によって得られる信号は、異なるタイプの線分で示される結像画像の画素信号が得られる。これは図5(c)に示すように仮想撮像面1で取得できる信号と等価であるものとして扱うことが出来る。   FIG. 5D shows an example in which the signal group obtained by the light flux that has passed through the exit pupil region 403 is shifted by one pixel and added. Since each of the divided pixels has the light ray information shown in FIG. 5A, the signal obtained by the shift addition is a pixel signal of an imaged image indicated by different types of line segments. This can be treated as equivalent to a signal that can be acquired on the virtual imaging surface 1 as shown in FIG.

図5(f)は射出瞳領域403を通過した光束により得られた画素信号群を−1画素分シフトして加算する例であり、仮想撮像面2で取得できる信号と等価であるものとして扱うことが出来る。   FIG. 5F is an example in which the pixel signal group obtained by the light beam that has passed through the exit pupil region 403 is shifted by −1 pixel and added, and is treated as equivalent to a signal that can be acquired on the virtual imaging plane 2. I can do it.

本実施例では、画像合成処理部108はシフト量0での加算、即ち同一マイクロレンズ下に存在する一対の分割画素の画素値を加算することにより従来の撮像装置による撮影データと等価な合成画像を生成する。以下に本実施例における合成画像ImgABを生成する式を示す。下記の式1においてImgAおよびImgBは入力される一対の画像を、xおよびyは水平方向および垂直方向の座標を示している。
ImgAB(x,y) =ImgA(x,y) +ImgB(x,y)・・・式1
なお、ここで示した式は一例にすぎず、構成される分割画素の個数や特性に応じて適宜式を変形させても良い。
In the present embodiment, the image composition processing unit 108 performs addition with a shift amount of 0, that is, adds the pixel values of a pair of divided pixels existing under the same microlens, thereby synthesizing a composite image equivalent to data captured by a conventional imaging device Is generated. An expression for generating the composite image ImgAB in the present embodiment is shown below. In Equation 1 below, ImgA and ImgB represent a pair of input images, and x and y represent horizontal and vertical coordinates.
ImgAB (x, y) = ImgA (x, y) + ImgB (x, y) Equation 1
The formula shown here is only an example, and the formula may be modified as appropriate according to the number and characteristics of the divided pixels to be configured.

次に、図6を参照して、本実施例に係わる画像処理装置を適用した撮像装置100の撮影動作を説明する。図6は、本実施例に係わる画像処理装置を適用した撮像装置100の撮影動作のフローチャートを示す図である。本動作は、システム制御部105がメモリ110に格納されている動作制御プログラムをロードして実行することで撮像装置100の各部を制御して実現される。   Next, with reference to FIG. 6, the photographing operation of the image pickup apparatus 100 to which the image processing apparatus according to this embodiment is applied will be described. FIG. 6 is a diagram illustrating a flowchart of the shooting operation of the imaging apparatus 100 to which the image processing apparatus according to the present embodiment is applied. This operation is realized by controlling each part of the imaging apparatus 100 by the system control unit 105 loading and executing an operation control program stored in the memory 110.

撮像装置100は不図示の電源スイッチがONの間(ステップS600での「Y」)、色変換撮影処理を繰り返す。色変換撮影が開始されると(ステップS600での「Y」)、まずステップS601で撮像素子102およびA/D変換部103により生成された被写体の像信号を取得する。次に、ステップS602では、瞳分割画像生成部104が、分割画素A群および分割画素B群それぞれの像信号から一対の瞳分割画像データを生成する。ステップS602で生成された瞳分割画像データは順次色変換処理部109へと入力される。   The imaging apparatus 100 repeats the color conversion photographing process while a power switch (not shown) is ON (“Y” in step S600). When color conversion photographing is started (“Y” in step S600), first, an image signal of a subject generated by the image sensor 102 and the A / D conversion unit 103 is acquired in step S601. Next, in step S602, the pupil divided image generation unit 104 generates a pair of pupil divided image data from the image signals of the divided pixel A group and the divided pixel B group. The pupil division image data generated in step S602 is sequentially input to the color conversion processing unit 109.

次に、ステップS603において、ステップS602で出力される第1の瞳分割画像データに対して、色変換処理部109により撮影モードに応じて決定される変換対象の色と変換目標の色に基づいた色変換処理が行われる。次に、ステップS604において、ステップS602で出力される第2の瞳分割画像データに対して、色変換処理部109により撮影モードに応じて決定される変換対象の色と変換目標の色に基づいた色変換処理が行われる。   Next, in step S603, the first pupil division image data output in step S602 is based on the conversion target color and the conversion target color determined by the color conversion processing unit 109 according to the shooting mode. Color conversion processing is performed. Next, in step S604, the second pupil divided image data output in step S602 is based on the conversion target color and the conversion target color determined by the color conversion processing unit 109 according to the shooting mode. Color conversion processing is performed.

次に、ステップS605において、ステップS602で出力される第3の瞳分割画像データに対して、色変換処理部109により撮影モードに応じて決定される変換対象の色と変換目標の色に基づいた色変換処理が行われる。ステップS606においては、ステップS602で出力される第4の瞳分割画像データに対して、色変換処理部109により撮影モードに応じて決定される変換対象の色と変換目標の色に基づいた色変換処理が行われる。   Next, in step S605, the third pupil divided image data output in step S602 is based on the conversion target color and the conversion target color determined by the color conversion processing unit 109 according to the shooting mode. Color conversion processing is performed. In step S606, the fourth pupil divided image data output in step S602 is subjected to color conversion based on the conversion target color and the conversion target color determined by the color conversion processing unit 109 according to the shooting mode. Processing is performed.

次に、ステップS607では不図示のシャッターボタンが押下されているかどうかを判定し、シャッターボタンが押されている場合はステップS608へと進み、撮影画像の記録処理を行う。シャッターボタンが押されていない場合は、ステップS609の表示処理へと進む。   Next, in step S607, it is determined whether or not a shutter button (not shown) has been pressed. If the shutter button has been pressed, the process proceeds to step S608 to record a captured image. If the shutter button has not been pressed, the process proceeds to the display process in step S609.

ステップS608では、色変換処理が行われた第1の瞳分割画像データ及び第2の瞳分割画像データに含まれる分割画素単位のデータ(ライトフィールドデータ)を記録媒体111に保存し、ステップS609の表示処理へと進む。ステップS609で画像合成処理部108による画像合成処理が行われ、出力された合成画像を表示部107に表示する。ステップS609の表示処理が終るとステップS600に戻り、電源スイッチがONであればステップS601で次フレームの像信号取得を行い、前述した一連の動作を繰り返し実行する。   In step S608, the divided pixel unit data (light field data) included in the first pupil divided image data and the second pupil divided image data on which the color conversion processing has been performed is stored in the recording medium 111, and in step S609. Proceed to display processing. In step S609, image composition processing is performed by the image composition processing unit 108, and the output composite image is displayed on the display unit 107. When the display process in step S609 ends, the process returns to step S600. If the power switch is turned on, an image signal of the next frame is acquired in step S601, and the above-described series of operations is repeatedly executed.

なお、本実施例では変換対象の色を変換目標の色に変換する色変換処理を画像処理の例として用いたが、本発明の範囲はこれに限定されるものではなく、被写体固有の情報を用いて画像処理を行う画像処理であれば適用可能である。   In this embodiment, the color conversion processing for converting the color to be converted into the conversion target color is used as an example of the image processing. However, the scope of the present invention is not limited to this, and information specific to the subject is used. Any image processing can be applied as long as it uses the image processing.

また、本実施例では分割画素単位の補正データをそのまま記録媒体に記録する例について説明したが、色変換後の瞳分割画像を画像合成部108で合成し、合成画像を記録するようにしても良い。   In this embodiment, the correction data for each divided pixel is recorded on the recording medium as it is. However, the pupil divided image after color conversion is synthesized by the image synthesis unit 108 and the synthesized image is recorded. good.

また、本実施例では一対の瞳分割画像に対して一つの色変換手段を用いて順次処理する例について説明したが、撮像装置100に対して第2の色変換手段を構成し、色変換処理を並列に進めるようにすれば色変換にかかる処理時間短縮が可能となる。また、瞳分割画像の数に応じて更に多数の色変換手段を構成しても良い。   In this embodiment, an example in which a pair of pupil-divided images is sequentially processed using a single color conversion unit has been described. However, a second color conversion unit is configured for the imaging apparatus 100 to perform color conversion processing. By proceeding in parallel, the processing time for color conversion can be shortened. Further, a larger number of color conversion means may be configured according to the number of pupil divided images.

以上説明したように、射出瞳上の異なる領域を通過した光束群を受光して生成される瞳分割画像データに対してそれぞれ画像処理を行うようにすれば、ぼけに起因した画像処理の課題を解決することが可能となる。   As described above, if image processing is performed on each of the pupil-divided image data generated by receiving light flux groups that have passed through different regions on the exit pupil, the problem of image processing due to blurring will be caused. It can be solved.

次に図7〜図10を参照して本発明の第2の実施例を説明する。   Next, a second embodiment of the present invention will be described with reference to FIGS.

図7は、本発発明の第2の実施例に係わる画像処理装置を適用した撮像装置700の構成を示すブロック図である。なお、同図において、図1と同様の部分は同じ符号を付して示す。   FIG. 7 is a block diagram showing a configuration of an imaging apparatus 700 to which the image processing apparatus according to the second embodiment of the present invention is applied. In the figure, the same parts as those in FIG. 1 are denoted by the same reference numerals.

図1において撮像装置700は、逆変換部701、視差検出部702、および合成パラメータ決定部703が追加された点を除けば、図1に示す実施例の撮像装置100と同様である。本実施例では、追加された逆変換部701、視差検出部702および合成パラメータ決定部703と、本実施例の撮像装置において色変換部109による色変換処理を介してどのように補正されたライトフィールドデータが得られるかについての説明のみを行う。   In FIG. 1, the imaging apparatus 700 is the same as the imaging apparatus 100 of the embodiment shown in FIG. 1 except that an inverse conversion unit 701, a parallax detection unit 702, and a synthesis parameter determination unit 703 are added. In the present embodiment, the light that has been corrected through the color conversion processing by the color conversion section 109 in the imaging apparatus of the present embodiment, and the added inverse conversion section 701, parallax detection section 702, and synthesis parameter determination section 703. Only the description of whether field data can be obtained will be given.

まず、視差検出部702について説明する。視差検出部702は入力された一対の瞳分割画像データ(像信号)から、視差量を検出する。視差検出部702に入力された一対の瞳分割画像の一方を基準画像、他方を参照画像として参照画像をシフトしながら設定された検出領域の相関を求める。相関を求める方法の詳細な説明は行わないが、例えばパターンマッチング(テンプレートマッチング)の技術であるSADやSSD等の公知の技術を用いればよい。   First, the parallax detection unit 702 will be described. The parallax detection unit 702 detects the amount of parallax from the pair of input pupil divided image data (image signals). Correlation between detection areas set while shifting the reference image using one of the pair of pupil-divided images input to the parallax detection unit 702 as a standard image and the other as a reference image is obtained. Although a detailed description of the method for obtaining the correlation will not be given, for example, a known technique such as SAD or SSD which is a pattern matching (template matching) technique may be used.

相関を求める演算を視差方向に画素単位でシフトしながら演算を繰り返すことで画素毎に最も相関の高くなる位置までのシフト量を求めることができる。最も相関の高くなる位置までのシフト量を用いて、同一の被写体に対する視差量を画素値に換算した視差マップを生成する。   By repeating the calculation while shifting the calculation for obtaining the correlation in units of pixels in the parallax direction, it is possible to obtain the shift amount up to the position with the highest correlation for each pixel. A parallax map in which the parallax amount for the same subject is converted into a pixel value is generated using the shift amount up to the position with the highest correlation.

図8は視差マップを説明する図である。なお、ここでは説明を簡便にするために分割画素Aおよび分割画素Bに着目して説明を行うものとする。以降の説明は分割画素Aおよび分割画素Bに示す位置関係と同一の関係性のある分割画素の組み合わせにも適用可能である。   FIG. 8 is a diagram illustrating a parallax map. Here, for the sake of simplicity of explanation, the description will be made with attention paid to the divided pixel A and the divided pixel B. The following description can also be applied to combinations of divided pixels having the same relationship as the positional relationship shown in divided pixel A and divided pixel B.

図8(a)は分割画素A群により取得される瞳分割画像であり、視差検出部702において基準画像として扱われる画像である。図8(b)は分割画素B群により取得される瞳分割画像であり、視差検出部702において参照画像として扱われる画像である。801および802は被写体であり、被写体801は被写体802よりも撮像装置に近い位置に存在する。図8(c)は、基準画像および参照画像から生成された視差マップであり、視差を画素値としてマッピングしている。被写体801の視差量は0であり、被写体802の視差量が100であることを示している。   FIG. 8A is a pupil divided image acquired by the divided pixel A group, and is an image handled as a reference image in the parallax detection unit 702. FIG. 8B is a pupil divided image acquired by the divided pixel group B, and is an image handled as a reference image in the parallax detection unit 702. Reference numerals 801 and 802 denote subjects, and the subject 801 exists closer to the imaging device than the subject 802. FIG. 8C is a parallax map generated from the standard image and the reference image, and the parallax is mapped as a pixel value. The parallax amount of the subject 801 is 0, and the parallax amount of the subject 802 is 100.

次に合成パラメータ決定部703の動作について説明する。
視差量の取り得る値のそれぞれに対して後述の画像合成処理を行うことで所定の被写体にピントの合う画像を得ることができる。しかしながら、取り得る全ての視差量に対する画像合成処理を行うためには処理時間がかかり、現実的ではない。そこで合成パラメータ決定部703は、効率的に合成画像を生成するためのパラメータを視差マップ中の視差量の分布に基づいて決定する。
Next, the operation of the synthesis parameter determination unit 703 will be described.
An image that is in focus on a predetermined subject can be obtained by performing image synthesis processing described later on each of the possible values of the parallax amount. However, it takes time to perform image composition processing for all possible amounts of parallax, which is not practical. Therefore, the synthesis parameter determination unit 703 determines parameters for efficiently generating a composite image based on the distribution of the amount of parallax in the parallax map.

最初に、合成パラメータ決定部703は、視差マップ(ParallaxMap)中の画素値の統計をとり視差量の分布を求める。そして、分布中に出現する視差量(画素値)を判定する。例えば、視差マップのある領域の画素値が下記のParallaxMapようになっている場合、分布中に出現する視差量(Param1)は50,10,20,100となる。
ParallaxMap = {50,50,50,10,10,50,50,20,20,20,100}
Param1 = {50,10,20,100}
First, the synthesis parameter determination unit 703 obtains the distribution of the parallax amount by taking statistics of the pixel values in the parallax map (ParallaxMap). Then, the amount of parallax (pixel value) appearing in the distribution is determined. For example, when the pixel value of an area with a parallax map is as shown in the following ParallaxMap, the parallax amount (Param1) that appears in the distribution is 50, 10, 20, 100.
ParallaxMap = {50,50,50,10,10,50,50,20,20,20,100}
Param1 = {50,10,20,100}

次に、合成パラメータ決定部703は、分布中に出現する視差量(Param1)に所定の条件に従って並び替えを行い、優先度を決定する。
例えば、視差量の絶対値が小さい順に並び替えを行い、優先度を決定する。
Param2 = {10,20,50,100}
Next, the synthesis parameter determination unit 703 rearranges the parallax amount (Param1) appearing in the distribution according to a predetermined condition, and determines the priority.
For example, rearrangement is performed in ascending order of the absolute value of the parallax amount to determine the priority.
Param2 = {10,20,50,100}

次に、予め決められた合成処理回数分だけ優先度順にパラメータを抽出する。ここで1フレームあたり3回の色変換処理が可能であるとすると優先度と処理時間を考慮したパラメータParam3は以下のようになる。
Param3 = {10,20,50}
Next, parameters are extracted in order of priority for the number of times of predetermined synthesis processing. Here, assuming that color conversion processing can be performed three times per frame, the parameter Param3 in consideration of the priority and the processing time is as follows.
Param3 = {10,20,50}

このようにして決定された合成パラメータ(Param3)は、撮影時の焦点面に近い被写体を優先的に処理することが可能な合成パラメータとなる。Param3は、例えば撮影時にピントを合わせた被写体に対する画像処理を行う際に、被写体領域に微小な視差が発生しているような場合において有効である。   The synthesis parameter (Param3) determined in this way is a synthesis parameter capable of preferentially processing a subject close to the focal plane at the time of shooting. Param3 is effective, for example, when a minute parallax is generated in the subject area when image processing is performed on the subject that is in focus at the time of shooting.

また、他の優先度決定の条件として、分布中に出現する頻度が高い順に並べ替えて優先度を決定しても良い。
Param4 = {50,20,10,100}
Further, as another priority determination condition, the priorities may be determined by rearranging in descending order of frequency of appearance in the distribution.
Param4 = {50,20,10,100}

Param4に対し予め決められた合成処理回数分だけ優先度順にパラメータを抽出すると以下のようになる。
Param5 = {50,20,10}
When parameters are extracted in order of priority by the number of times of synthesis processing determined in advance for Param4, the result is as follows.
Param5 = {50,20,10}

このようにして決定された合成パラメータ(Param5)は、撮影時の構図中で最も大きな領域を占める被写体に対して優先度を上げた合成パラメータとなる。Param5は、例えば被写界に距離の異なる複数の被写体が存在する場合において、撮影画像中に占める割合が高いものから優先的に処理するため、画面全体に画像処理を行うような場合において有効である。   The synthesis parameter (Param5) determined in this way is a synthesis parameter with a higher priority for the subject occupying the largest area in the composition at the time of shooting. Param5 is effective when image processing is performed on the entire screen because, for example, when there are a plurality of subjects with different distances in the object field, processing is performed preferentially from the highest proportion in the captured image. is there.

また、視差量の分布以外のシフト量の決定方法としては、撮影パラメータであるレンズ情報(F値、焦点距離)に応じて被写界深度を求め、被写界深度に基づいてシフト量を決定しても良い。   Further, as a method for determining the shift amount other than the distribution of the parallax amount, the depth of field is obtained according to the lens information (F value, focal length) that is the shooting parameter, and the shift amount is determined based on the depth of field. You may do it.

なお、離散的なシフト量を予め決めておく場合において、離散的に決めた視差間の視差量を有する画素が存在する場合は、後述の画像処理により得られる結果を線形補間処理しても良い。   In the case where a discrete shift amount is determined in advance, if there is a pixel having a disparity amount between discretely determined parallaxes, a result obtained by image processing described later may be subjected to linear interpolation processing. .

また、視差量の分布以外のシフト量の決定方法としては、撮影モードに応じて画像解析や人物検出等の被写体を認識する技術を併用し、任意のシフト量を決定するようにしても良い。例えば、人物を対象とする補正を行う撮影モードであるとき、画像解析によって基準画像中から人物領域を抽出し、前記人物領域に対応する視差量を合成用シフト量として用いればよい。また、シフト量や優先度は、不図示の操作部によってユーザーが任意に指定できるようにしても良い。   As a method for determining the shift amount other than the distribution of the parallax amount, an arbitrary shift amount may be determined using a technique for recognizing the subject such as image analysis or person detection according to the shooting mode. For example, in the shooting mode in which correction is performed for a person, a person area may be extracted from a reference image by image analysis, and the amount of parallax corresponding to the person area may be used as a composition shift amount. Also, the shift amount and priority may be arbitrarily designated by the user through an operation unit (not shown).

以上合成パラメータの決定方法を説明したが、いずれにおいても後述の合成画像生成において、色変換処理対象となる被写体にピントの合うような合成パラメータを決定できれば良い。   The method for determining the synthesis parameter has been described above. In any case, it is only necessary to determine a synthesis parameter that is in focus on the subject to be subjected to color conversion processing in the later-described synthesis image generation.

次に本実施例における画像合成部108の動作について説明する。
本実施例において画像合成部108は一対の瞳分割画像および合成パラメータ決定部703によって決定されるシフト量(仮想撮像面)に基づいて合成画像を生成する。なお、ここでは説明を簡便にするために分割画素Aおよび分割画素Bに着目して説明を行うものとする。以降の説明は分割画素Aおよび分割画素Bに示す位置関係と同一の関係性を有する分割画素の組み合わせにも適用可能である。
Next, the operation of the image composition unit 108 in this embodiment will be described.
In the present embodiment, the image composition unit 108 generates a composite image based on the pair of pupil divided images and the shift amount (virtual imaging plane) determined by the composite parameter determination unit 703. Here, for the sake of simplicity of explanation, the description will be made with attention paid to the divided pixel A and the divided pixel B. The following description can also be applied to combinations of divided pixels having the same relationship as the positional relationship shown for divided pixel A and divided pixel B.

以下に合成画像ImgABの各座標の画素値を合成する為の式を示す。
ImgAB(x,y) =ImgA(x,y) +ImgB(x+shift,y)・・・式2
An expression for synthesizing pixel values of each coordinate of the composite image ImgAB is shown below.
ImgAB (x, y) = ImgA (x, y) + ImgB (x + shift, y) Equation 2

ImgAおよびImgBはそれぞれ色変換前の基準画像および色変換前の参照用画像を、x,yはそれぞれ水平方向、垂直方向の画素座標とし、合成パラメータ決定部703によって決定されるシフト量をShiftとしている。即ち合成画像は一対の瞳分割画像を視差方向にShift画素分だけずらして加算合成した画像となる。   ImgA and ImgB are the base image before color conversion and the reference image before color conversion, x and y are pixel coordinates in the horizontal and vertical directions, respectively, and the shift amount determined by the synthesis parameter determination unit 703 is Shift Yes. That is, the composite image is an image obtained by adding and synthesizing a pair of pupil-divided images by shifting the shift pixels in the parallax direction.

図9は、視差マップの説明に用いた図8に示す一対の瞳分割画像に対してシフト量0で合成された合成画像とシフト量100で合成された合成画像をそれぞれ示す。シフト量0で合成された合成画像としては被写体901にピントの合った画像が、シフト量100で合成された画像としては被写体902にピントのあった画像がそれぞれ取得できる。即ち、視差マップ上の任意の領域にピントの合わせた画像を合成するためには視差マップ上の任意の領域の画素値分だけシフトして(組み合わせて)加算すればよい。なお、ここで示した式2は一例にすぎず、構成される分割画素の個数や特性に応じて適宜式を変形させてもよい。   FIG. 9 shows a composite image synthesized with a shift amount 0 and a composite image synthesized with a shift amount 100 with respect to the pair of pupil-divided images shown in FIG. As a synthesized image synthesized with the shift amount 0, an image focused on the subject 901 can be obtained, and as an image synthesized with the shift amount 100, an image focused on the subject 902 can be obtained. That is, in order to synthesize an image focused on an arbitrary area on the parallax map, it is only necessary to shift (combine) and add by the pixel value of the arbitrary area on the parallax map. Note that Expression 2 shown here is merely an example, and the expression may be modified as appropriate according to the number of divided pixels and characteristics.

次に、逆変換部701の動作について説明する。なお、ここでは説明を簡便にするために分割画素Aおよび分割画素Bに着目して説明を行うものとする。以降の説明は分割画素Aおよび分割画素Bに示す位置関係と同一の関係性の分割画素の組み合わせにも適用可能である。   Next, the operation of the inverse transform unit 701 will be described. Here, for the sake of simplicity of explanation, the description will be made with attention paid to the divided pixel A and the divided pixel B. The following description can also be applied to combinations of divided pixels having the same relationship as the positional relationship shown in divided pixel A and divided pixel B.

逆変換部701は、色変換処理部によって色変換処理が行われた合成画像に基づいて分割画素の画素値(ライトフィールドデータ)を補正する。相関が高い領域、即ちピントの合っている領域においては以下の式3が成り立つ。
ImgA(x,y)≒ ImgB(x+shift,y) ・・・式3
The inverse conversion unit 701 corrects the pixel values (light field data) of the divided pixels based on the composite image that has been subjected to the color conversion processing by the color conversion processing unit. In an area where the correlation is high, that is, an in-focus area, the following Expression 3 is established.
ImgA (x, y) ≒ ImgB (x + shift, y) ・ ・ ・ Equation 3

式2および式3より、以下の式4および式5が成り立つ
ImgAB(x,y) ≒ImgA(x,y) + ImgA(x,y) ・・・式4
ImgAB(x,y) ≒ImgB(x+shift,y) + ImgB(x+shift,y) ・・・式5
From Equation 2 and Equation 3, the following Equation 4 and Equation 5 hold.
ImgAB (x, y) ≒ ImgA (x, y) + ImgA (x, y) Equation 4
ImgAB (x, y) ≒ ImgB (x + shift, y) + ImgB (x + shift, y)

式4および式5を変形し、分割画素値ImgB(x+shift,y)および分割画素ImgA(x,y)の画素値を導くことが出来る。
ImgB(x+shift,y) ≒ImgAB(x,y)/2 ・・・式6
ImgA(x,y) ≒ImgAB(x,y)/2 ・・・式7
Equations 4 and 5 can be modified to derive pixel values of the divided pixel value ImgB (x + shift, y) and the divided pixel ImgA (x, y).
ImgB (x + shift, y) ≒ ImgAB (x, y) / 2 Equation 6
ImgA (x, y) ≒ ImgAB (x, y) / 2 Equation 7

このようにして求められた各分割画素の画素値は、ImgA(x,y)、ImgB(x+shift,y)に上書きされる。   The pixel values of the respective divided pixels thus obtained are overwritten on ImgA (x, y) and ImgB (x + shift, y).

なお、ここでは説明の為に簡易な式を用いて逆変換処理を行う例を示したが、瞳分割画像は図11に示すように撮像素子の位置によって異なる形状のシェーディングが発生する。   Here, for the sake of explanation, an example in which the inverse transformation process is performed using a simple expression is shown, but the pupil-divided image has different shapes of shading depending on the position of the image sensor as shown in FIG.

従って、撮像素子102に構成される各分割画素のシェーディング特性を予めメモリ110に保持するようにし、式6及び式7で算出するそれぞれの分割画素の座標に応じてシェーディング特性に応じた比率でゲインを掛けるようにする。そうすればImgA(x,y)、ImgB(x+shift,y)はより自然な補正結果となる。   Therefore, the shading characteristic of each divided pixel configured in the image sensor 102 is held in the memory 110 in advance, and gain is obtained at a ratio according to the shading characteristic according to the coordinates of each divided pixel calculated by Expression 6 and Expression 7. To hang. Then, ImgA (x, y) and ImgB (x + shift, y) are more natural correction results.

また、上記は色変換を施した合成画像を逆変換することで各分割画素の値を求める例を示したが、各画素間の視差が既に判明していることから別の方法を用いても実現することが出来る。例えば、基準画像に対してのみ色変換を行い、色変換後の基準画像の画素値を、参照画像の視差量に対応する画素に上書きしても良い。   In addition, the above shows an example in which the value of each divided pixel is obtained by inversely transforming the composite image that has undergone color conversion. However, since the parallax between the pixels has already been determined, another method may be used. Can be realized. For example, color conversion may be performed only on the base image, and the pixel value of the base image after color conversion may be overwritten on the pixel corresponding to the parallax amount of the reference image.

また、基準画像の座標と対応する視差量分だけシフトした参照画像の座標とでそれぞれ同一の色変換テーブルを呼び出すように関連付けて処理してもよい。   Alternatively, the same color conversion table may be called up in association with the coordinates of the reference image and the coordinates of the reference image shifted by the corresponding amount of parallax.

また、画素単位で構成される分割画素の個数やその他の特性に応じて適宜式を変形させても良い。   Further, the equation may be modified as appropriate according to the number of divided pixels configured in pixel units and other characteristics.

次に図10を参照し、撮像装置700の撮影動作について説明する。図10は、本実施例に係わる画像処理装置を適用した撮像装置の撮影動作のフローチャートを示す図である。本動作は、システム制御部105がメモリ110に格納されているプログラムをロードして実行することで撮像装置100の各部を制御して実現される。なお、図10において、本発明の第1の実施例と同様の動作を行う部分には同じ符号を付して示す。   Next, with reference to FIG. 10, the shooting operation of the imaging apparatus 700 will be described. FIG. 10 is a flowchart illustrating the photographing operation of the imaging apparatus to which the image processing apparatus according to the present embodiment is applied. This operation is realized by the system control unit 105 controlling each unit of the imaging apparatus 100 by loading and executing a program stored in the memory 110. In FIG. 10, parts that perform the same operations as those in the first embodiment of the present invention are denoted by the same reference numerals.

撮像装置700は不図示の電源スイッチがONの間(ステップS600で「Y」)、色変換撮影処理を繰り返す。ステップS600〜ステップS602は第1の実施例と同様の処理であるためここでの説明を割愛する。   The imaging apparatus 700 repeats the color conversion imaging process while a power switch (not shown) is ON (“Y” in step S600). Steps S600 to S602 are the same processes as those in the first embodiment, and thus description thereof is omitted here.

ステップS1003で、視差検出部702によって入力された1対の瞳分割画像の視差量を検出し、視差マップを生成する。次にステップS1004において、合成パラメータ決定部703にステップS1003において取得された視差マップが入力され、上述したように視差マップに基づいて画像合成用のパラメータが決定される。次いで、ステップS1005において画像合成用のパラメータと、一対の瞳分割画像に基づいて画像合成部108による画像の合成処理が行われる。   In step S1003, the parallax amount of the pair of pupil divided images input by the parallax detection unit 702 is detected, and a parallax map is generated. In step S1004, the parallax map acquired in step S1003 is input to the synthesis parameter determination unit 703, and parameters for image synthesis are determined based on the parallax map as described above. In step S1005, the image composition unit 108 performs image composition processing based on the image composition parameters and the pair of pupil-divided images.

次に、ステップS1006において、ステップS1005で生成された合成画像に対して撮影モードに応じた色変換処理を色変換部109に行わせ、色変換処理された合成画像データは逆変換部701へと出力される。   Next, in step S1006, the color conversion process according to the shooting mode is performed on the composite image generated in step S1005 by the color conversion unit 109, and the composite image data subjected to the color conversion process is sent to the inverse conversion unit 701. Is output.

次に、ステップS1007で、逆変換部701は色変換後の合成画像と視差マップに基づいた逆変換処理を実施し、合成画像中のピントの合っている領域の分割画素データ(ライトフィールドデータ)の画素値を補正する。   In step S1007, the inverse conversion unit 701 performs an inverse conversion process based on the color-converted composite image and the parallax map, and the divided pixel data (light field data) of the in-focus area in the composite image. The pixel value of is corrected.

次にステップS1008で、ステップS1004によって決定された合成画像パラメータによって決定されるシフト量のそれぞれについて処理が終了したかどうかを判定する。未処理の合成パラメータ(シフト量)が残っている場合はステップS1005に戻り、未処理の合成パラメータに準じて画像合成処理を行う。一方全ての合成パラメータ(シフト量)に対する処理が完了している場合はステップS607へと進む。
ステップS607以降の処理は第1の実施例と同様であるためここでの説明を割愛する。
Next, in step S1008, it is determined whether or not the processing has been completed for each of the shift amounts determined by the composite image parameter determined in step S1004. If an unprocessed synthesis parameter (shift amount) remains, the process returns to step S1005 to perform image synthesis processing according to the unprocessed synthesis parameter. On the other hand, if the processing for all the synthesis parameters (shift amounts) has been completed, the process proceeds to step S607.
Since the processing after step S607 is the same as that of the first embodiment, description thereof is omitted here.

以上説明したように、合成画像に対して色変換処理を行い、前記合成画像のピントの合っている位置に対して色変換後の画素値を分割画素単位の画素値に変換するような逆変換処理を行い、対応する分割画素位置に書き戻す。これによって、色変換処理結果を分割画素に反映することが可能となる。即ち、ピントが合っている被写体に対する画像処理結果を、適切に元の分割画素位置に戻すようにすれば被写体毎のライトフィールドデータの補正処理を実現できる。   As described above, inverse conversion is performed such that color conversion processing is performed on the composite image, and pixel values after color conversion are converted into pixel values in divided pixel units at the in-focus position of the composite image. Processing is performed, and writing is performed back to the corresponding divided pixel position. As a result, the color conversion processing result can be reflected on the divided pixels. That is, if the image processing result for the subject in focus is appropriately returned to the original divided pixel position, the light field data correction processing for each subject can be realized.

上述した本発明によれば、リフォーカス画像の画像処理において、当該画像処理に対応してライトフィールドデータの補正を行うことが可能となり、ボケに起因した各種画像処理の誤補正を防ぐことを可能とする画像処理装置を提供できる。なお、上記実施例は、撮像装置に本発明を適用した例であるが、本発明はこれに限るものではなく、複数の撮像素子で互いに視差のある被写体像を撮像する多眼カメラやPCなどの情報処理装置にも適用可能であることは言うまでもない。   According to the present invention described above, in the image processing of the refocus image, it is possible to correct the light field data corresponding to the image processing, and it is possible to prevent erroneous correction of various image processing due to blurring. An image processing apparatus can be provided. The above embodiment is an example in which the present invention is applied to an imaging apparatus. However, the present invention is not limited to this, and a multi-lens camera, a PC, or the like that captures subject images having parallax with a plurality of imaging elements. It goes without saying that the present invention can also be applied to other information processing apparatuses.

また、上述した実施の形態の処理は、各機能を具現化したソフトウェアのプログラムコードを記録した記憶媒体をシステム或いは装置に提供してもよい。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによって、前述した実施形態の機能を実現することができる。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フロッピィ(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスクなどを用いることができる。或いは、CD−ROM、CD−R、磁気テープ、不揮発性のメモリーカード、ROMなどを用いることもできる。   Moreover, the processing of the above-described embodiment may provide a system or apparatus with a storage medium that records a program code of software that embodies each function. The functions of the above-described embodiments can be realized by the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying such a program code, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, or the like can be used. Alternatively, a CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, or the like can be used.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施の形態の機能が実現されるだけではない。そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した各実施例の機能が実現される場合も含まれている。   The functions of the above-described embodiments are not only realized by executing the program code read by the computer. Including the case where the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. It is.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリーに書きこまれてもよい。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した各実施の形態の機能が実現される場合も含むものである。   Furthermore, the program code read from the storage medium may be written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Is also included.

Claims (1)

画像処理装置において、
被写体の光学像を形成する撮像光学系の射出瞳の瞳分割機能を有する撮像手段で生成されたライトフィールドデータを取得する取得手段と、
所定の画像処理を画像データに行う画像処理手段と、
前記所定の画像処理が行われる画像データを、前記ライトフィールドデータを用いて生成する画像生成手段と、
前記画像処理手段を制御して、前記生成された画像データに前記所定の画像処理を行うことで、前記所定の画像処理に従って補正された前記ライトフィールドデータを生成する制御手段と、
を備えることを特徴とする画像処理装置。
In the image processing apparatus,
An acquisition unit that acquires light field data generated by an imaging unit having a pupil division function of an exit pupil of an imaging optical system that forms an optical image of a subject;
Image processing means for performing predetermined image processing on image data;
Image generation means for generating image data to be subjected to the predetermined image processing using the light field data;
Control means for generating the light field data corrected according to the predetermined image processing by controlling the image processing means and performing the predetermined image processing on the generated image data;
An image processing apparatus comprising:
JP2019113888A 2019-06-19 2019-06-19 Image processing equipment, image processing methods and programs, and imaging equipment Active JP6752942B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019113888A JP6752942B2 (en) 2019-06-19 2019-06-19 Image processing equipment, image processing methods and programs, and imaging equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019113888A JP6752942B2 (en) 2019-06-19 2019-06-19 Image processing equipment, image processing methods and programs, and imaging equipment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014202274A Division JP6585890B2 (en) 2014-09-30 2014-09-30 Image processing apparatus, image processing method and program, and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2019208214A true JP2019208214A (en) 2019-12-05
JP6752942B2 JP6752942B2 (en) 2020-09-09

Family

ID=68767861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019113888A Active JP6752942B2 (en) 2019-06-19 2019-06-19 Image processing equipment, image processing methods and programs, and imaging equipment

Country Status (1)

Country Link
JP (1) JP6752942B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022108321A1 (en) * 2020-11-18 2022-05-27 삼성전자주식회사 Display device and control method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022108321A1 (en) * 2020-11-18 2022-05-27 삼성전자주식회사 Display device and control method thereof
US11917124B2 (en) 2020-11-18 2024-02-27 Samsung Electronics Co., Ltd. Display apparatus and the control method thereof

Also Published As

Publication number Publication date
JP6752942B2 (en) 2020-09-09

Similar Documents

Publication Publication Date Title
JP6055332B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP4524717B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US9451160B2 (en) Imaging apparatus and method for controlling the imaging apparatus
JP6838994B2 (en) Imaging device, control method and program of imaging device
JP6555863B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US9961272B2 (en) Image capturing apparatus and method of controlling the same
JP2010226694A (en) Image processor and method of image processing
JP2012049773A (en) Imaging apparatus and method, and program
JP6095266B2 (en) Image processing apparatus and control method thereof
JP2013145980A (en) Imaging device, control method thereof, image processing apparatus, image generation method, program
JP6360338B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
JP2016001853A (en) Image processing system, imaging device, control method, and program
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
JP2016144042A (en) Image processing apparatus, image processing method, and program
JP2016184956A (en) Image processing apparatus and image processing method
JP6802848B2 (en) Image processing equipment, imaging system, image processing method and image processing program
JP6752942B2 (en) Image processing equipment, image processing methods and programs, and imaging equipment
JP2009047734A (en) Imaging apparatus and image processing program
JP2014155071A (en) Image processing system, imaging apparatus, control method, and program
JP6585890B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
JP2016100868A (en) Image processing apparatus, image processing method, and program, and imaging apparatus
JP2017184007A (en) Image processing apparatus, imaging apparatus, control method, and program
JP7134601B2 (en) Image processing device, image processing method, imaging device, and imaging device control method
JP6566800B2 (en) Imaging apparatus and imaging method
JP2009047735A (en) Imaging apparatus and image processing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190719

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200312

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200819

R151 Written notification of patent or utility model registration

Ref document number: 6752942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151