JP2014155071A - Image processing system, imaging apparatus, control method, and program - Google Patents

Image processing system, imaging apparatus, control method, and program Download PDF

Info

Publication number
JP2014155071A
JP2014155071A JP2013023823A JP2013023823A JP2014155071A JP 2014155071 A JP2014155071 A JP 2014155071A JP 2013023823 A JP2013023823 A JP 2013023823A JP 2013023823 A JP2013023823 A JP 2013023823A JP 2014155071 A JP2014155071 A JP 2014155071A
Authority
JP
Japan
Prior art keywords
image
pixel
pixels
imaging
signal intensity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013023823A
Other languages
Japanese (ja)
Other versions
JP2014155071A5 (en
JP6190119B2 (en
Inventor
Masashi Kimura
正史 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013023823A priority Critical patent/JP6190119B2/en
Publication of JP2014155071A publication Critical patent/JP2014155071A/en
Publication of JP2014155071A5 publication Critical patent/JP2014155071A5/ja
Application granted granted Critical
Publication of JP6190119B2 publication Critical patent/JP6190119B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To generate LF data that are able to reconfigure a suitably reproduced image.SOLUTION: An image processing system acquires a plurality of image signals obtained by imaging the same subject at the same time at different positions, and acquires an image signal indicating the signal intensity of one of predetermined color components whose pixels have been predetermined. Among the acquired image signals, a pixel corresponding to the same subject image present at the same focal point is specified. For each of the corresponding pixels, the signal intensity of a color component that is not present in the pixel is generated using the signal intensity of the color component of other pixel among the corresponding pixels.

Description

本発明は、画像処理装置、撮像装置、制御方法、及びプログラムに関し、特に撮影後に出力データから任意の焦点距離に合焦した画像を生成する技術に関する。   The present invention relates to an image processing apparatus, an imaging apparatus, a control method, and a program, and more particularly to a technique for generating an image focused on an arbitrary focal length from output data after shooting.

近年、デジタルカメラ等の撮像装置において、撮影時に光場の情報、即ち光の強度分布と進行方向とを出力データとして記録することで、記録後に該出力データから任意の焦点距離に合焦した画像を生成する技術が提案されている。このような撮像装置では、マイクロレンズアレイを介して撮像素子の各画素(光電変換素子)に撮像レンズの異なる瞳領域を通過した光束を結像させることにより、様々な方向から入射した光を分離して記録する方法等が用いられている(特許文献1、2)。   In recent years, in an imaging apparatus such as a digital camera, information on a light field, that is, an intensity distribution of light and a traveling direction are recorded as output data at the time of photographing, and an image focused on an arbitrary focal length from the output data after recording. Techniques for generating are proposed. In such an imaging device, light incident from various directions is separated by forming light beams that have passed through different pupil regions of the imaging lens on each pixel (photoelectric conversion element) of the imaging device via a microlens array. The method of recording is used (Patent Documents 1 and 2).

一方、撮像素子に1つの画素についてフルカラーの画像信号を取得するためには、例えばRGBの各色のフィルタが適用された光電変換素子が1画素内に設けられる必要がある。しかしながら、1画素内に光電変換素子を複数設ける場合、使用される光電変換素子の数が増大してしまう。このため、光電変換素子の数の低減を目的として、一般的には所謂ベイヤ配列のような、撮像素子の隣り合う画素に異なる色のフィルタが使用される。そして、1つの画素について取得されなかった色成分については、周辺の画素の出力信号から補間することで生成し、全画素についてフルカラーの画像信号を生成する方法(デモザイキング)が用いられている。   On the other hand, in order to acquire a full-color image signal for one pixel in the image sensor, for example, a photoelectric conversion element to which filters of each color of RGB are applied needs to be provided in one pixel. However, when a plurality of photoelectric conversion elements are provided in one pixel, the number of photoelectric conversion elements used increases. For this reason, in order to reduce the number of photoelectric conversion elements, filters of different colors are generally used for adjacent pixels of the imaging element, such as a so-called Bayer array. A color component that has not been acquired for one pixel is generated by interpolation from the output signals of surrounding pixels, and a method of generating full-color image signals for all pixels (demosaicing) is used.

特開2007−004471号公報JP 2007-004471 A 特開2009−124213号公報JP 2009-124213 A

上述した特許文献1及び2においても、最終的な出力画像のためにデモザイキング処理が行われている。具体的には特許文献1では、1つのマイクロレンズに割り当てられた画素群内で隣り合う画素に異なる色のフィルタが適用され、該画素群内でデモザイキング処理が行われる。また特許文献2では、1つのマイクロレンズに割り当てられた画素群には同一色のフィルタが適用され、マイクロレンズアレイにおいて隣り合うマイクロレンズについて、割り当てられた画素群に異なる色のフィルタが適用されている。そして特許文献2では、各マイクロレンズに割り当てられた画素群から同一画素位置の画素の信号を位置関係に合わせて結合した際に生成されるベイヤ配列の画像についてデモザイキング処理が行われる。   Also in Patent Documents 1 and 2 described above, a demosaicing process is performed for a final output image. Specifically, in Patent Document 1, filters of different colors are applied to adjacent pixels in a pixel group assigned to one microlens, and demosaicing processing is performed in the pixel group. In Patent Document 2, filters of the same color are applied to pixel groups assigned to one microlens, and filters of different colors are applied to assigned pixel groups of adjacent microlenses in the microlens array. Yes. And in patent document 2, a demosaicing process is performed about the image of a Bayer arrangement | sequence produced | generated when the signal of the pixel of the same pixel position is combined according to a positional relationship from the pixel group allocated to each micro lens.

しかしながら、特許文献1及び2においてデモザイキング処理により得られる画像は、その補間方法に起因して、好適な画質とならないことがあった。   However, the images obtained by the demosaicing process in Patent Documents 1 and 2 may not have a suitable image quality due to the interpolation method.

特許文献1において適用されるデモザイキング処理では、1つのマイクロレンズに割り当てられた画素群の画素について、周辺画素の信号から補間により不足している色成分の信号が生成される。しかし、上述したように1つのマイクロレンズを介して割り当てられた画素群に結像される光束は、それぞれ異なる瞳領域を通過した光束である。つまり、1つのマイクロレンズに割り当てられた画素群の各々が出力する画像信号は、光線方向が異なるため厳密に対応しておらず、補間を行う画素とは異なる被写体に対応する隣接画素の信号を用いて補間が行われる可能性があった。   In the demosaicing process applied in Patent Document 1, for the pixels in the pixel group assigned to one microlens, a signal of a color component that is insufficient by interpolation is generated from the signals of the peripheral pixels. However, as described above, the light beams formed on the pixel groups assigned through one microlens are light beams that have passed through different pupil regions. That is, the image signal output from each of the pixel groups assigned to one microlens does not correspond strictly because the light ray direction is different, and the signal of the adjacent pixel corresponding to the subject different from the pixel to be interpolated is obtained. There was a possibility that interpolation would be performed.

また特許文献2において適用されるデモザイキング処理では、各マイクロレンズに割り当てられた画素群から、マイクロレンズとの相対的な位置関係が同一の画素の信号を結合して生成された画像において、周辺画素の信号から不足している色成分の信号を補間する。この場合、特許文献1とは異なり、生成される画像の画素は全て同一の瞳領域を通過した光束で生成される。しかし、生成された画像において、1つの画素に存在しない色成分の信号を生成するために周辺画素の信号を使用する場合、特にエッジや固定パターンが存在する領域で異なる被写体に対応する信号が参照され、偽色やモアレが発生する可能性があった。   In the demosaicing process applied in Patent Document 2, in an image generated by combining signals of pixels having the same relative positional relationship with a microlens from a group of pixels assigned to each microlens, The missing color component signal is interpolated from the pixel signal. In this case, unlike Patent Document 1, all the pixels of the generated image are generated by a light beam that has passed through the same pupil region. However, in the generated image, when using peripheral pixel signals to generate color component signals that do not exist in one pixel, reference is made to signals corresponding to different subjects, particularly in regions where edges and fixed patterns exist. And false colors and moire could occur.

本発明は、上述の問題点に鑑みてなされたものであり、好適に色再現した画像を再構成可能なLFデータを生成する画像処理装置、撮像装置、制御方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and provides an image processing apparatus, an imaging apparatus, a control method, and a program that generate LF data that can reconstruct an image that has been favorably color-reproduced. Objective.

前述の目的を達成するために、本発明の画像処理装置は、以下の構成を備えることを特徴とする。具体的には画像処理装置は、同一時間に同一被写体を異なる位置で撮像して得られた複数の画像信号であって、各画素が予め定められた複数の色成分のうちのいずれか1つの色成分の信号強度を示す画像信号を取得する取得手段と、取得手段により取得された複数の画像信号のうち、同一焦点距離に存在する同一の被写体像に対応する画素を特定する特定手段と、特定手段により特定された対応する画素の各々について、画素に存在しない色成分の信号強度を対応する画素のうちの他の画素の該色成分の信号強度を用いて生成する生成手段と、を有することを特徴とする。   In order to achieve the above object, an image processing apparatus of the present invention is characterized by having the following configuration. Specifically, the image processing apparatus is a plurality of image signals obtained by imaging the same subject at different positions at the same time, and each pixel is any one of a plurality of predetermined color components. An acquisition means for acquiring an image signal indicating the signal intensity of the color component; and a specifying means for specifying pixels corresponding to the same subject image existing at the same focal length among the plurality of image signals acquired by the acquisition means; Generating means for generating, for each of the corresponding pixels specified by the specifying means, the signal intensity of the color component that does not exist in the pixel by using the signal intensity of the color component of the other pixels among the corresponding pixels; It is characterized by that.

このような構成により本発明によれば、好適に色再現した画像を再構成可能なLFデータを生成することが可能となる。   With such a configuration, according to the present invention, it is possible to generate LF data that can reconstruct an image that has been favorably color-reproduced.

本発明の実施形態に係るカメラシステムに含まれるデジタルカメラ100及びレンズ200の機能構成を示したブロック図1 is a block diagram showing functional configurations of a digital camera 100 and a lens 200 included in a camera system according to an embodiment of the present invention. 本発明の実施形態に係る撮像部102の詳細構成を説明するための図The figure for demonstrating the detailed structure of the imaging part 102 which concerns on embodiment of this invention. 本発明の実施形態に係るデジタルカメラ100において実行されるLFデータ生成処理を例示したフローチャートThe flowchart which illustrated LF data generation processing performed in digital camera 100 concerning an embodiment of the present invention. 本発明の実施形態に係る輝度画像間の位相差検出を実現するハードウェア構成を示した図The figure which showed the hardware constitutions which implement | achieve the phase difference detection between the luminance images which concern on embodiment of this invention 再構成画像の生成原理を説明するための図A diagram for explaining the principle of generating a reconstructed image 本発明の実施形態に係る撮像素子109において適用される色フィルタの分布を例示した図The figure which illustrated distribution of the color filter applied in image sensor 109 concerning an embodiment of the present invention 本発明の実施形態に係るデモザイキング処理の原理を説明するための図The figure for demonstrating the principle of the demosaicing process which concerns on embodiment of this invention 本発明を適用可能な他の光学系を説明するための図The figure for demonstrating the other optical system which can apply this invention

[実施形態]
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下に説明する一実施形態は、画像処理装置の一例としての、同一時間に同一被写体を異なる位置で撮像して得られた複数の画像信号を取得可能な撮像装置を有するカメラシステムに、本発明を適用した例を説明する。しかし、本発明は、同一時間に同一被写体を異なる位置で撮像して得られた複数の画像信号を取得可能な任意の機器に適用可能である。
[Embodiment]
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. Note that an embodiment described below is an example of an image processing apparatus that includes a camera system having an imaging device that can acquire a plurality of image signals obtained by imaging the same subject at different positions at the same time. An example to which the present invention is applied will be described. However, the present invention can be applied to any device capable of acquiring a plurality of image signals obtained by imaging the same subject at different positions at the same time.

また、本明細書において、以下の用語を定義して説明する。   In this specification, the following terms are defined and described.

・「RAW−LFデータ」
本実施形態のデジタルカメラ100が有する撮像部102から出力される原画像信号。画像信号の画素の各々は、通過した撮像光学系202の瞳領域及び入射方向の組み合わせが異なる光束に対応した信号強度を示す。また画像信号の各画素は、後述するように予め定められた複数の色成分のうちのいずれか1つの色成分についての信号強度を示す。RAW−LFデータは、光線空間情報とも呼ばれる。
・ "RAW-LF data"
An original image signal output from the imaging unit 102 included in the digital camera 100 of the present embodiment. Each pixel of the image signal indicates a signal intensity corresponding to a light beam having a different combination of the pupil region and the incident direction of the imaging optical system 202 that has passed. Each pixel of the image signal indicates the signal intensity for any one of a plurality of predetermined color components as will be described later. The RAW-LF data is also called ray space information.

・「LFデータ」
RAW−LFデータに対してデモザイキング処理を適用することにより得られる画像信号。LFデータの各画素は、予め定められた複数の色成分の全てについての信号強度の情報を有する。LFデータの各画素は、RAW−LFデータの対応画素と瞳領域及び入射方向の組み合わせが同一の光束に対応しており、LFデータを光線空間情報と呼んでもよい。
・ "LF data"
An image signal obtained by applying demosaicing processing to RAW-LF data. Each pixel of the LF data has signal intensity information for all of a plurality of predetermined color components. Each pixel of the LF data corresponds to a light beam having the same combination of the corresponding pixel of the RAW-LF data, the pupil region, and the incident direction, and the LF data may be referred to as ray space information.

・「再構成画像」
LFデータから生成される、任意の焦点面の位置に合焦した画像。具体的にはLFデータから同一の瞳領域を通過した画素で生成される複数(瞳分割数)の画像について、生成する焦点距離に存在する被写体の像が一致するように位置合わせを行い、対応する画素の画素値を合算(重ね合わせ)することで得られる画像。
・ "Reconstructed image"
An image generated from LF data and focused on an arbitrary focal plane position. Specifically, for multiple images (number of pupil divisions) generated from pixels that passed through the same pupil region from LF data, alignment is performed so that the images of the subject existing at the generated focal length match. An image obtained by adding (superimposing) pixel values of pixels to be processed.

《カメラシステムの構成》
図1は、本発明の実施形態に係るカメラシステムに含まれる、デジタルカメラ100及びレンズ200の機能構成を示すブロック図である。
《Camera system configuration》
FIG. 1 is a block diagram showing functional configurations of a digital camera 100 and a lens 200 included in a camera system according to an embodiment of the present invention.

〈デジタルカメラ100の構成〉
カメラ制御部101は、例えばCPUであり、不図示のROM及びRAMを内蔵する。カメラ制御部101は、デジタルカメラ100が有する各ブロックの動作プログラムをROMから読み出し、RAMに展開して実行することにより、デジタルカメラ100が有する各ブロックの動作制御を行う。またカメラ制御部101は、撮像部102から出力される画像信号の解析により決定した焦点位置の情報や、決定した露出設定に対応する絞り値等の情報を、電気接点107を介してレンズ200に送信する。
<Configuration of digital camera 100>
The camera control unit 101 is a CPU, for example, and includes a ROM and a RAM (not shown). The camera control unit 101 reads out an operation program for each block of the digital camera 100 from the ROM, develops the program in the RAM, and executes the program, thereby controlling the operation of each block of the digital camera 100. In addition, the camera control unit 101 sends information on the focal position determined by analysis of the image signal output from the imaging unit 102 and information on the aperture value corresponding to the determined exposure setting to the lens 200 via the electrical contact 107. Send.

撮像部102は、例えばCCDやCMOSセンサ等の撮像素子である。撮像部102は、設定された露出設定に基づいて、カメラ制御部101により生成されたタイミング信号に基づいて撮像素子が有する各光電変換素子(画素)の露光及び読み出しを行う。そして撮像部102は、得られたRAW−LFデータのアナログ画像信号を画像処理部103に出力する。具体的には撮像部102は、レンズ200の撮像光学系202により撮像素子の受光面に結像された光学像を光電変換し、アナログ画像信号を出力する。   The imaging unit 102 is an imaging element such as a CCD or a CMOS sensor. The imaging unit 102 performs exposure and readout of each photoelectric conversion element (pixel) included in the imaging device based on the timing signal generated by the camera control unit 101 based on the set exposure setting. Then, the imaging unit 102 outputs an analog image signal of the obtained RAW-LF data to the image processing unit 103. Specifically, the imaging unit 102 photoelectrically converts an optical image formed on the light receiving surface of the imaging element by the imaging optical system 202 of the lens 200, and outputs an analog image signal.

また本実施形態のデジタルカメラ100では、撮像素子109の表面には、図2(a)に示されるようにマイクロレンズ20が格子状に配列されたマイクロレンズアレイ108が配設される。マイクロレンズアレイ108の1つのマイクロレンズ20は、図2(b)に示されるように撮像素子109の複数の光電変換素子(画素)に対応付けられる。レンズ200の撮像光学系202を介して入射した光束は、各マイクロレンズ20により、対応付けられた撮像素子109の画素に結像されることで瞳分割される。即ち、対応付けられた撮像素子109の各画素には、対応付けられた画素位置に対応する撮像光学系202の瞳領域を通過した光束が結像される。図2(b)の例では、1つのマイクロレンズ20には5×5=25個の画素が対応付けられており、撮像光学系202の瞳分割数は25となる。   Further, in the digital camera 100 of the present embodiment, a microlens array 108 in which microlenses 20 are arranged in a lattice pattern as shown in FIG. One microlens 20 of the microlens array 108 is associated with a plurality of photoelectric conversion elements (pixels) of the image sensor 109 as shown in FIG. The light beam that has entered through the imaging optical system 202 of the lens 200 is divided into pupils by being imaged by the microlenses 20 on the pixels of the associated image sensor 109. That is, the light flux that has passed through the pupil region of the imaging optical system 202 corresponding to the associated pixel position is imaged on each pixel of the associated image sensor 109. In the example of FIG. 2B, 5 × 5 = 25 pixels are associated with one microlens 20, and the number of pupil divisions of the imaging optical system 202 is 25.

図2(c)は、1つのマイクロレンズに対応付けられた画素と、各画素に結像される光束が通過する撮像光学系202の射出瞳の瞳領域の対応関係を示した図である。なお、図2(c)の例では簡単のため、1つのマイクロレンズ20に対して水平方向5つの画素21乃至25がマイクロレンズ20の中心を通る水平線上に並んで配置されているものとする。このとき、マイクロレンズ20により各画素は、射出瞳面上における瞳領域31乃至35と共役関係になるように設計される。図2(c)の例では、画素21は瞳領域31、画素22は瞳領域32、画素23は瞳領域33、画素24は瞳領域34、そして画素25は瞳領域35と共役関係にある。   FIG. 2C is a diagram illustrating a correspondence relationship between a pixel associated with one microlens and a pupil region of an exit pupil of the imaging optical system 202 through which a light beam formed on each pixel passes. For the sake of simplicity in the example of FIG. 2C, it is assumed that five pixels 21 to 25 in the horizontal direction with respect to one microlens 20 are arranged side by side on a horizontal line passing through the center of the microlens 20. . At this time, each pixel is designed by the microlens 20 so as to be conjugate with the pupil regions 31 to 35 on the exit pupil plane. In the example of FIG. 2C, the pixel 21 has a pupil region 31, the pixel 22 has a pupil region 32, the pixel 23 has a pupil region 33, the pixel 24 has a pupil region 34, and the pixel 25 has a conjugate relationship with the pupil region 35.

また、本実施形態の撮像素子109では、撮像素子の各光電変換素子には予め定められた複数の色成分のフィルタのうち、いずれか1つの色成分のフィルタが適用されているものとする。例えば所謂ベイヤ配列に用いられるR、G、Bのフィルタが適用される場合、撮像素子全体においてR成分とB成分のフィルタは同数の画素に適用され、G成分のフィルタはそれらの2倍の数の画素に適用される。なお、各色成分のフィルタの配置については後述のデモザイキング処理の説明において詳述する。   Further, in the image sensor 109 of the present embodiment, it is assumed that any one of a plurality of predetermined color component filters is applied to each photoelectric conversion element of the image sensor. For example, when R, G, and B filters used in a so-called Bayer array are applied, the R component and B component filters are applied to the same number of pixels in the entire image sensor, and the G component filters are twice as many as those. Applied to the other pixels. The arrangement of the filters for the respective color components will be described in detail in the description of the demosaicing process described later.

画像処理部103は、撮像部102から出力されたRAW−LFデータのアナログ画像信号に対して、所定の画像処理を実行する。具体的には画像処理部103は、入力されたアナログ画像信号に対するA/D変換処理、ホワイトバランス調整処理、ガンマ補正処理、デモザイキング処理等を行う。なお、本実施形態では画像処理部103は、得られたLFデータから再構成画像を生成する処理も行う。また画像処理部103は、上述した各工程で生成されるRAW−LFデータ、LFデータ、再構成画像や音声等のデータなどに、予め定められた符号化方式に応じて圧縮処理を実行する。また画像処理部103は、上述した各工程で生成されるRAW−LFデータ、LFデータ、再構成画像や音声等のデータをモードやユーザ指示に応じてメモリや記録媒体に記録するか、あるいは所定の形式に変換して外部に出力する。各種画像処理は、専用回路等により実現されてよい。   The image processing unit 103 performs predetermined image processing on the analog image signal of the RAW-LF data output from the imaging unit 102. Specifically, the image processing unit 103 performs A / D conversion processing, white balance adjustment processing, gamma correction processing, demosaicing processing, and the like on the input analog image signal. In the present embodiment, the image processing unit 103 also performs processing for generating a reconstructed image from the obtained LF data. In addition, the image processing unit 103 performs compression processing on RAW-LF data, LF data, reconstructed image data, audio data, and the like generated in each process described above according to a predetermined encoding method. The image processing unit 103 records RAW-LF data, LF data, reconstructed image data, audio data, and the like generated in each step described above in a memory or a recording medium according to a mode or a user instruction, or a predetermined number. Convert to the format and output to the outside. Various image processes may be realized by a dedicated circuit or the like.

メモリ104は、記憶素子及び該記憶素子への読み書きを行う処理回路を有する。メモリ104は、記憶素子への出力を行うとともに、表示部105に出力する画像を保存する。またメモリ104は、符号化された画像、動画、音声データ等を保存する。   The memory 104 includes a memory element and a processing circuit that reads from and writes to the memory element. The memory 104 outputs to the storage element and stores an image to be output to the display unit 105. The memory 104 stores encoded images, moving images, audio data, and the like.

表示部105は、例えばLCD等のデジタルカメラ100が備える表示装置である。表示部105には、撮像により得られたLFデータから生成された再構成画像等が表示される。   The display unit 105 is a display device provided in the digital camera 100 such as an LCD. The display unit 105 displays a reconstructed image or the like generated from LF data obtained by imaging.

操作検出部106は、デジタルカメラ100が有するレリーズボタン等のユーザインタフェースになされた操作を検出する。具体的には操作検出部106は、ユーザにより例えばレリーズボタンが操作されたことを検出すると、該操作に対応する制御信号をカメラ制御部101に出力する。   The operation detection unit 106 detects an operation performed on a user interface such as a release button of the digital camera 100. Specifically, when the operation detection unit 106 detects that the user has operated, for example, a release button, the operation detection unit 106 outputs a control signal corresponding to the operation to the camera control unit 101.

〈レンズ200の構成〉
レンズ制御部201は、例えばCPUであり、不図示のROM及びRAMを内蔵する。レンズ制御部201は、ROMに格納されているレンズ200が有する各ブロックの動作プログラムを読み出し、RAMに展開して実行することにより、各ブロックの動作を制御する。レンズ制御部201は、電気接点107を介してカメラ制御部101より焦点位置や絞り値の情報を受信すると、該情報をレンズ駆動部203に伝送し、撮像光学系202の対応する光学部材を駆動させる。
<Configuration of lens 200>
The lens control unit 201 is a CPU, for example, and incorporates a ROM and a RAM (not shown). The lens control unit 201 controls the operation of each block by reading the operation program of each block included in the lens 200 stored in the ROM, developing the program in the RAM, and executing the program. When the lens control unit 201 receives information on the focal position and the aperture value from the camera control unit 101 via the electrical contact 107, the lens control unit 201 transmits the information to the lens driving unit 203 and drives the corresponding optical member of the imaging optical system 202. Let

撮像光学系202は、レンズ200が有するレンズ群や絞り等で構成される。本実施形態では撮像光学系202は、少なくともフォーカスレンズ、シフトレンズ、及び絞りを含む。レンズ駆動部203は、レンズ制御部201から入力された情報に従い、撮像光学系202のフォーカスレンズ、シフトレンズ、及び絞りの駆動制御を行う。なお、本実施形態のレンズ制御部201には不図示の手振れ検出センサが接続されており、レンズ駆動部203はレンズ制御部201より入力された該センサの出力に応じてシフトレンズを駆動する。   The imaging optical system 202 includes a lens group, a diaphragm, and the like that the lens 200 has. In the present embodiment, the imaging optical system 202 includes at least a focus lens, a shift lens, and a diaphragm. The lens driving unit 203 performs drive control of the focus lens, the shift lens, and the diaphragm of the imaging optical system 202 according to the information input from the lens control unit 201. Note that a camera shake detection sensor (not shown) is connected to the lens control unit 201 of this embodiment, and the lens driving unit 203 drives the shift lens according to the output of the sensor input from the lens control unit 201.

《LFデータ生成処理》
このような構成をもつ本実施形態のデジタルカメラ100で行われるLFデータ生成処理について、図3のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、カメラ制御部101が、例えばROMに記憶されている対応する処理プログラムを読み出し、RAMに展開して実行することにより実現することができる。なお、本LFデータ生成処理は、例えばデジタルカメラ100を用いて撮影が行われた際に開始されるものとして説明する。
<< LF data generation processing >>
A specific process of the LF data generation process performed by the digital camera 100 of the present embodiment having such a configuration will be described with reference to the flowchart of FIG. The process corresponding to the flowchart can be realized by the camera control unit 101 reading, for example, a corresponding processing program stored in the ROM, developing it in the RAM, and executing it. The LF data generation process will be described as being started when shooting is performed using the digital camera 100, for example.

S301で、画像処理部103はカメラ制御部101の制御の下、撮影により撮像部102から出力されたRAW−LFデータのアナログ画像信号に対して、A/D変換処理を適用し、RAW−LFデータのデジタル画像信号を生成する。   In step S <b> 301, the image processing unit 103 applies an A / D conversion process to the analog image signal of the RAW-LF data output from the imaging unit 102 by shooting under the control of the camera control unit 101, and RAW-LF. A digital image signal of data is generated.

S302で、画像処理部103はカメラ制御部101の制御の下、RAW−LFデータを同一の瞳領域を通過した画素を位置関係に応じて結合し、瞳分割数のRAW画像を生成する。即ち、本実施形態において画像処理部103は、マイクロレンズアレイ108の各マイクロレンズに対応付けられた撮像素子の画素から、マイクロレンズとの相対的な位置関係が同一の画素が出力した画像信号を各々結合することで瞳分割数のRAW画像を生成する。具体的には図2(b)の例では、各マイクロレンズ20a、b、c、dに対応付けられた5×5の画素を、(1,1)、(1,2)、・・・、(5,5)の座標ごとに分類し、RAW−LFデータから同一の座標に分類された画素のみを用いて各画像を生成する。つまり、図2(b)の例では、25種類の画像が生成される。このようにして生成された画像は、それぞれ異なる瞳領域を通過した画像に対応しているため、同一時間に同一被写体をそれぞれ異なる位置で撮影して得られたRAW画像となっている。   In step S <b> 302, under the control of the camera control unit 101, the image processing unit 103 combines the RAW-LF data with pixels that have passed through the same pupil region according to the positional relationship, and generates a RAW image having the number of pupil divisions. That is, in the present embodiment, the image processing unit 103 outputs an image signal output from a pixel of an image sensor associated with each microlens of the microlens array 108 from a pixel having the same relative positional relationship with the microlens. By combining them, a raw image having the number of pupil divisions is generated. Specifically, in the example of FIG. 2B, 5 × 5 pixels associated with the microlenses 20a, b, c, and d are represented by (1, 1), (1, 2),. , (5, 5), and each image is generated using only the pixels classified into the same coordinates from the RAW-LF data. That is, in the example of FIG. 2B, 25 types of images are generated. Since the images generated in this manner correspond to images that have passed through different pupil regions, they are RAW images obtained by photographing the same subject at different positions at the same time.

S303で、画像処理部103はカメラ制御部101の制御の下、生成した瞳分割数のRAW画像の各々に対応する輝度画像を生成する。輝度画像は、例えば各画素について近傍のR、G、及びB成分の画素の画素値を重み付け加算することにより生成されてもよいし、G成分の画素のみが代表値として使用されて生成されてもよい。   In step S <b> 303, the image processing unit 103 generates a luminance image corresponding to each of the generated RAW images for the number of pupil divisions under the control of the camera control unit 101. For example, the luminance image may be generated by weighting and adding pixel values of neighboring R, G, and B component pixels for each pixel, or only the G component pixel is used as a representative value. Also good.

なお、各画素に適用されるフィルタの分布によっては、輝度画像を生成不可能な色成分の組み合わせとなる場合がある。この場合、本ステップで生成される輝度画像の数は瞳分割数より少なくてもよい。   Depending on the distribution of the filters applied to each pixel, there may be a combination of color components that cannot generate a luminance image. In this case, the number of luminance images generated in this step may be smaller than the number of pupil divisions.

S304で、カメラ制御部101は、S302において生成された瞳分割数の輝度画像から輝度画像(注目輝度画像)を選択し、該画像を分割した各領域について他の輝度画像との画像信号間の位相差を検出する。即ち、本ステップにおいてカメラ制御部101は、注目輝度画像を分割した各領域に存在する被写体像について、注目輝度画像と他の輝度画像とのデフォーカス量を位相差検出方式で取得する。被写体が強い鏡面反射成分を有さないランバート面とみなせる場合、輝度画像において該被写体に対応する像は、光束が通過する分割瞳領域に依らず、即ち光束の入射方向に依らず同じ輝度値を示す。このためカメラ制御部101は、同一の焦点距離に存在する被写体が各RAW画像においてどの位置に存在するかを把握することができる。   In S304, the camera control unit 101 selects a luminance image (attention luminance image) from the luminance image of the number of pupil divisions generated in S302, and for each region obtained by dividing the image between image signals with other luminance images. Detect phase difference. That is, in this step, the camera control unit 101 acquires the defocus amount between the target luminance image and the other luminance image for the subject image existing in each region obtained by dividing the target luminance image by the phase difference detection method. When the subject can be regarded as a Lambertian surface that does not have a strong specular reflection component, the image corresponding to the subject in the luminance image does not depend on the divided pupil region through which the luminous flux passes, that is, the same luminance value regardless of the incident direction of the luminous flux. Show. For this reason, the camera control unit 101 can grasp the position where the subject existing at the same focal length exists in each RAW image.

図4は、本ステップの処理をハードウェアとして実現する場合の例を示している。図4(a)に示されるように、比較対象となる注目輝度画像401と他の輝度画像402とが、位相差を検出する比較器403に入力される。そして比較器403は、注目輝度画像401を分割した各領域が他の輝度画像402においていずれの位置に存在するかを、位相を変更しながら、即ち比較対象とする領域を移動させながら探索する。図4(b)、(c)、及び(d)はそれぞれ位相を変更しながら探索を行っている際の、探索方向のラインにおける注目輝度画像401と他の輝度画像402との信号レベル分布のずれを示している。ここで、図4(c)は探索対象の領域について、ノイズの影響により多少のばらつきは生じるが、注目輝度画像401と他の輝度画像402の位相が一致したと判断する場合の例を示している。   FIG. 4 shows an example in which the processing of this step is realized as hardware. As shown in FIG. 4A, a target luminance image 401 to be compared and another luminance image 402 are input to a comparator 403 that detects a phase difference. Then, the comparator 403 searches for the position where each region obtained by dividing the target luminance image 401 exists in the other luminance image 402 while changing the phase, that is, while moving the region to be compared. FIGS. 4B, 4C, and 4D show the signal level distributions of the target luminance image 401 and the other luminance image 402 in the line in the search direction when searching while changing the phase. It shows a gap. Here, FIG. 4C shows an example of a case where it is determined that the phase of the target luminance image 401 and the other luminance image 402 are matched, although some variation occurs due to the influence of noise in the search target region. Yes.

なお、瞳分割数の輝度画像の中から位相差検出を行う画像の組み合わせは、光束が通過した瞳領域が同一の水平座標あるいは垂直座標を有する画像に限定してもよい。即ち、図2(b)の分類における座標(1,1)と(1,5)に分類された画像、あるいは座標(1,1)と(5,1)に分類された画像を比較対象としてもよい。これらの画像はそれぞれ水平視差と垂直視差を有する関係にある画像である。   It should be noted that the combination of images for detecting the phase difference from the luminance image of the number of pupil divisions may be limited to images in which the pupil region through which the light beam has passed has the same horizontal coordinate or vertical coordinate. That is, the images classified into the coordinates (1, 1) and (1, 5) or the images classified into the coordinates (1, 1) and (5, 1) in the classification of FIG. Also good. These images are images having a horizontal parallax and a vertical parallax, respectively.

またこのように選択された視差を有する関係にある画像間ではエピポーラ拘束が生じるため、探索方向を限定することができる。即ち、水平視差を有する関係にある画像間では、注目輝度画像401の探索対象の領域411と同一の垂直座標を有する他の輝度画像402内の領域412について位相差検出を行えばよい。また垂直視差を有する関係にある画像間では、注目輝度画像401の探索対象の領域411と同一の水平座標を有する他の輝度画像402内の領域412について位相差検出を行えばよい。   In addition, since the epipolar constraint occurs between the images having the selected parallax, the search direction can be limited. That is, between images having a horizontal parallax relationship, phase difference detection may be performed on a region 412 in another luminance image 402 having the same vertical coordinates as the region 411 to be searched for the target luminance image 401. In addition, between images having a vertical parallax relationship, phase difference detection may be performed on a region 412 in another luminance image 402 having the same horizontal coordinates as the region 411 to be searched for the target luminance image 401.

比較器403は、例えば図4(a)に示されるように、注目輝度画像401の領域411について、他の輝度画像402の同一位置からx方向に領域412を移動させながら位相差が最も小さくなる位置を探索する。位相差が最も小さくなる位置の探索は、例えば差分絶対値の積分値SAD(Sum of Absolute Difference)が最小となる箇所を探索することにより行われてよい。SADは、注目輝度画像401の領域411内の画素をA(i,j)、他の輝度画像402において領域411の座標からx方向にΔxだけ移動した位置に設定される探索対象の領域412内の画素をB(i+Δx,j)とすると、
で算出することができる。このとき、SADが最小となるΔxが、最小となる位相差に相当する。なお、探索は画素単位で行われる必要はない。
For example, as illustrated in FIG. 4A, the comparator 403 has the smallest phase difference in the region 411 of the target luminance image 401 while moving the region 412 from the same position of the other luminance image 402 in the x direction. Search for a location. The search for the position where the phase difference becomes the smallest may be performed, for example, by searching for a position where the integral value SAD (Sum of Absolute Difference) of the difference absolute value is minimum. In the SAD, the pixel in the area 411 of the target luminance image 401 is A (i, j), and the other luminance image 402 is set in a position to be moved by Δx in the x direction from the coordinates of the area 411. Let B (i + Δx, j) be the pixel of
Can be calculated. At this time, Δx at which SAD is minimized corresponds to a phase difference at which SAD is minimized. The search need not be performed in units of pixels.

また本実施形態では、各マイクロレンズ20に割り当てられた画素群から1つずつ画素を抽出して輝度画像を生成している。このようにして生成された輝度画像は、撮像光学系202をマイクロレンズ20に割り当てられた画素の数に分割した限定的な瞳領域を通過する、所謂絞り状態で得られた光束に対応している。即ち、被写界深度が深いため、様々な焦点距離に存在する被写体像について位相差が検出できる。しかしながら、本発明の実施において各被写体の位相差検出のために生成される輝度画像はこれに限られず、少なくとも2種類の瞳領域に対応する輝度画像が位相差検出のために用いられればよい。   In the present embodiment, a luminance image is generated by extracting pixels one by one from the pixel group assigned to each microlens 20. The luminance image generated in this way corresponds to the light flux obtained in a so-called stop state that passes through a limited pupil region obtained by dividing the imaging optical system 202 into the number of pixels assigned to the microlens 20. Yes. That is, since the depth of field is deep, the phase difference can be detected for subject images existing at various focal lengths. However, the luminance image generated for detecting the phase difference of each subject in the implementation of the present invention is not limited to this, and luminance images corresponding to at least two types of pupil regions may be used for phase difference detection.

S305で、カメラ制御部101は、S304において検出した位相差を考慮して画像処理部103にデモザイキング処理を行わせる。   In step S305, the camera control unit 101 causes the image processing unit 103 to perform demosaicing processing in consideration of the phase difference detected in step S304.

(再構成画像の生成原理)
ここで、まず本実施形態のデモザイキング処理の説明を行う前に、デモザイキング処理後に得られるLFデータから再構成画像を生成する際の概要について、図5を参照して説明する。図5は、マイクロレンズアレイ108において水平方向に並んだマイクロレンズ20について、図2(b)に示した画素21乃至25の各々に対応する画素を連結させてLFデータから生成された画像の画素列(水平1ライン×5種類)を示している。
(Reconstructed image generation principle)
Here, before explaining the demosaicing process of the present embodiment, an outline of generating a reconstructed image from LF data obtained after the demosaicing process will be described with reference to FIG. FIG. 5 shows an image pixel generated from LF data by connecting pixels corresponding to each of the pixels 21 to 25 shown in FIG. 2B for the microlenses 20 arranged in the horizontal direction in the microlens array 108. A row (horizontal 1 line × 5 types) is shown.

図において横軸はマイクロレンズアレイ108におけるマイクロレンズ20の水平座標に対応しており、分割瞳領域に対応する画像における水平方向に並ぶ画素を座標順に示している。即ち、図示されるライン501は、1つの瞳領域を通過した光束で形成される画像の水平1ラインを示している。また図において縦軸は1つのマイクロレンズ20に対応する画素群における水平方向の画素位置、即ち瞳領域の空間座標に対応している。なお、本例示では再構成画像の水平1ラインの生成について説明するが、他の水平ラインや垂直方向についても同様に処理すればよいことは容易に理解されよう。   In the figure, the horizontal axis corresponds to the horizontal coordinate of the microlens 20 in the microlens array 108, and the pixels arranged in the horizontal direction in the image corresponding to the divided pupil region are shown in the coordinate order. That is, the illustrated line 501 represents one horizontal line of an image formed by a light beam that has passed through one pupil region. In the figure, the vertical axis corresponds to the horizontal pixel position in the pixel group corresponding to one microlens 20, that is, the spatial coordinates of the pupil region. In this example, generation of one horizontal line of the reconstructed image will be described, but it will be easily understood that other horizontal lines and the vertical direction may be processed in the same manner.

再構成画像の水平1ラインの各画素は、このような5種類の水平ラインから適切な画素の画素値を積算することで生成される。積算に用いられる画素は、生成する再構成画像が対応する焦点距離(再構成画像において合焦する被写体に対応する焦点距離)に応じて異なる。   Each pixel in one horizontal line of the reconstructed image is generated by integrating pixel values of appropriate pixels from these five types of horizontal lines. The pixels used for integration differ according to the focal length corresponding to the generated reconstructed image (focal length corresponding to the subject in focus in the reconstructed image).

例えば、LFデータの撮影時に合焦していた焦点距離に存在する被写体については、光束が通過する撮像光学系202の瞳領域によらず、各マイクロレンズ20に対応する画素群において同一の座標に結像される。即ち、該被写体については合焦しているため、瞳領域ごとに画像を生成したとしても該被写体の像に位相差は生じない。このため、撮影時に設定されていた焦点距離に合焦した再構成画像を生成する場合、各画素はマイクロレンズ20に対応する画素群のうちの同一位置関係にある画素を足し合わせる、即ち図5において縦方向に並んだ画素群502が1画素の生成のために積算される。つまり、画素群502は、撮像時の焦点距離において合焦している被写体像の同一部分に対応する光束が通過する画素群である。図では画素群502についてのみ枠を用いて示したが、撮影時に設定された焦点距離に合焦した再構成画像の水平1ラインを生成するためには、横軸に並んだ他の画素についても同様に縦方向に並んだ画素群を積算すればよい。   For example, with respect to a subject existing at the focal length that was in focus at the time of shooting LF data, the same coordinates are used in the pixel group corresponding to each microlens 20 regardless of the pupil region of the imaging optical system 202 through which the light beam passes. Imaged. In other words, since the subject is in focus, even if an image is generated for each pupil region, there is no phase difference in the subject image. For this reason, when a reconstructed image focused on the focal length set at the time of shooting is generated, each pixel adds up pixels in the same positional relationship in the pixel group corresponding to the microlens 20, that is, FIG. The pixel groups 502 arranged in the vertical direction are integrated for generating one pixel. That is, the pixel group 502 is a pixel group through which a light beam corresponding to the same portion of the subject image focused at the focal length at the time of imaging passes. In the figure, only the pixel group 502 is shown using a frame. However, in order to generate one horizontal line of a reconstructed image focused on the focal length set at the time of shooting, other pixels arranged on the horizontal axis are also used. Similarly, pixel groups arranged in the vertical direction may be integrated.

一方、図2(b)の画素21に対応して生成された水平ラインと画素25に対応して生成された水平ラインとにおいて、2画素分の位相差が生じている被写体に合焦した再構成画像を生成する場合、図5に示した画素群503が1画素の生成のために積算される。即ち、該被写体について合焦する焦点距離においては位相差がなくなるため、図示されたように画素群503の画素504と画素505は、該焦点距離に合焦した再構成画像において合焦する同一の被写体像についての光束に対応している。図では画素群503についてのみ枠を用いて示したが、撮影時に設定された焦点距離に合焦した再構成画像の水平1ラインを生成するためには、各画素について設定された同様の傾き(画像の位相差によって決まる)を有する枠に含まれる画素群を積算すればよい。   On the other hand, in the horizontal line generated corresponding to the pixel 21 and the horizontal line generated corresponding to the pixel 25 in FIG. When generating a configuration image, the pixel group 503 shown in FIG. 5 is integrated to generate one pixel. That is, since there is no phase difference at the focal length at which the subject is in focus, the pixel 504 and the pixel 505 in the pixel group 503 are identical in focus in the reconstructed image focused on the focal length as illustrated. It corresponds to the luminous flux of the subject image. In the figure, only the pixel group 503 is shown by using a frame. However, in order to generate one horizontal line of a reconstructed image focused on the focal length set at the time of shooting, a similar inclination ( The pixel groups included in the frame having (determined by the phase difference of the image) may be integrated.

なお、再構成画像の生成において積算される画素群を示す枠の傾きは、生成する再構成画像に対応する焦点面の位置が、LFデータの撮影時に設定されていた焦点距離から遠いか小さいかによって正負が異なる。   It should be noted that the inclination of the frame indicating the pixel group accumulated in the generation of the reconstructed image is whether the position of the focal plane corresponding to the generated reconstructed image is far or small from the focal length set at the time of shooting the LF data. The sign varies depending on.

(デモザイキング処理の原理)
次に、本実施形態のデジタルカメラ100の画像処理部103で行われるデモザイキング処理について図を参照して説明する。
(Principle of demosaicing process)
Next, a demosaicing process performed by the image processing unit 103 of the digital camera 100 according to the present embodiment will be described with reference to the drawings.

本実施形態の撮像部102において撮像素子109の各画素に適用される色フィルタの分布は、例えば図6のようにされる。図6の(a)及び(b)は各々、図2(b)と同様に各マイクロレンズ20に対して5×5の画素が割り当てられているものとする。   For example, the distribution of the color filter applied to each pixel of the image sensor 109 in the imaging unit 102 of the present embodiment is as shown in FIG. 6 (a) and 6 (b), it is assumed that 5 × 5 pixels are assigned to each microlens 20 as in FIG. 2 (b).

図6(a)の例では、撮像素子109の各画素には隣接する画素と異なる色フィルタが、所謂ベイヤ配列に従って適用されている。即ち、図示されるように撮像素子109において、行方向にG成分のフィルタとR成分のフィルタとが繰り返し適用される行と、行方向にB成分のフィルタとG成分のフィルタとが繰り返し適用される行とが、列方向に繰り返し設けられている。適用する色フィルタの配置をこのようにすることで、各分割瞳領域についてのRAW画像において、ベイヤ配列が形成される。即ち、図6(a)に示されるように、図2(b)における画素21に対応する位置に分類された画素を各マイクロレンズ20から抽出して生成されたRAW画像において2×2の画素群に注目すると、画素群601のようにベイヤ配列となる。また同様に、図2(b)における画素25に対応する位置に分類された画素を各マイクロレンズ20から抽出して生成されたRAW画像において2×2の画素群に注目すると、画素群602のようにベイヤ配列となる。   In the example of FIG. 6A, a color filter different from the adjacent pixel is applied to each pixel of the image sensor 109 in accordance with a so-called Bayer array. That is, as shown in the figure, in the image sensor 109, a row in which the G component filter and the R component filter are repeatedly applied in the row direction, and a B component filter and a G component filter are repeatedly applied in the row direction. Are repeatedly provided in the column direction. By arranging the color filters to be applied in this way, a Bayer array is formed in the RAW image for each divided pupil region. That is, as shown in FIG. 6A, 2 × 2 pixels in the RAW image generated by extracting the pixels classified into the positions corresponding to the pixels 21 in FIG. When attention is paid to the group, a Bayer array is formed as in the pixel group 601. Similarly, when attention is paid to the 2 × 2 pixel group in the RAW image generated by extracting the pixels classified in the position corresponding to the pixel 25 in FIG. Thus, a Bayer array is obtained.

なお、図6(a)の例については、マイクロレンズ20について割り当てられる撮像素子109の画素が、奇数行×奇数列となっていることが必要である。即ち、瞳領域が奇数行×奇数列の領域に分割される場合にのみ、各分割瞳領域についてのRAW画像をベイヤ配列とすることができる。   Note that in the example of FIG. 6A, the pixels of the image sensor 109 assigned to the microlens 20 need to be odd rows × odd columns. That is, only when the pupil area is divided into an odd row × odd column area, the RAW image for each divided pupil area can be a Bayer array.

一方、図6(b)の例では、レンズ200について割り当てられる撮像素子109の画素についての条件はない。図6(b)の例では、隣接するマイクロレンズ20について異なる色フィルタが、あるいは隣接するマイクロレンズ20に割り当てられた画素について異なる色フィルタが適用されている例を示している。図示されるように、マイクロレンズ20に対応する画素群ごとに適用される色フィルタをベイヤ配列に従って規定することで、各分割瞳領域についてのRAW画像において注目した2×2の画素群は、画素群611及び612のようにベイヤ配列となる。   On the other hand, in the example of FIG. 6B, there is no condition for the pixels of the image sensor 109 assigned to the lens 200. In the example of FIG. 6B, an example is shown in which different color filters are applied to adjacent microlenses 20 or different color filters are applied to pixels assigned to adjacent microlenses 20. As shown in the figure, by defining the color filter applied to each pixel group corresponding to the microlens 20 according to the Bayer array, the 2 × 2 pixel group noted in the RAW image for each divided pupil region is the pixel A Bayer array is formed as in the groups 611 and 612.

なお、以下の説明において撮像素子109の各画素に適用される色フィルタは、図6(a)や図6(b)のように設定されるものとして説明するが、本発明の実施はこれに限られるものではない。即ち、撮像素子109における各色成分のフィルタの分布は、同一の瞳領域に対応するRAW画像を生成した際に異なる色成分の信号強度を示す画素が隣接していればよい。   In the following description, the color filter applied to each pixel of the image sensor 109 is described as being set as shown in FIGS. 6A and 6B, but the present invention is not limited to this. It is not limited. In other words, the distribution of the filters of the respective color components in the image sensor 109 may be such that pixels indicating signal intensities of different color components are adjacent when RAW images corresponding to the same pupil region are generated.

このような各分割瞳領域についてのベイヤ配列を有するRAW画像を用いて、画像処理部103は各画素について不足する色成分の信号強度を取得する。   Using such a RAW image having a Bayer array for each divided pupil region, the image processing unit 103 acquires the signal strength of the insufficient color component for each pixel.

例えば図7(a)及び(b)に示されるように、撮影時にデジタルカメラ100からの距離が異なる被写体701及び702が画角に含まれる場合について考える。また、該状況についてのRAW−LFデータが、被写体701と被写体702の中間にある任意の距離703の被写体に合焦する設定で取得されたとする。このとき、RAW−LFデータから生成した各分割瞳領域についてのRAW画像は、再構成画像を生成する際と同様に、特定の焦点距離で位相差がなくなる被写体に注目することで、各画素に不足している色成分の信号強度を補間することができる。   For example, as shown in FIGS. 7A and 7B, a case where subjects 701 and 702 having different distances from the digital camera 100 during shooting are included in the angle of view will be considered. Further, it is assumed that RAW-LF data regarding the situation is acquired with a setting for focusing on a subject at an arbitrary distance 703 that is between the subject 701 and the subject 702. At this time, as in the case of generating the reconstructed image, the RAW image for each divided pupil region generated from the RAW-LF data is applied to each pixel by paying attention to the subject having no phase difference at a specific focal length. The signal strength of the missing color component can be interpolated.

図7(c)及び(d)は、図5と同様に、図2(b)の画素21乃至25に対応する分割瞳領域についてのRAW画像の水平1ラインを、G成分に注目して示している。   FIGS. 7C and 7D show the horizontal line of the RAW image for the divided pupil region corresponding to the pixels 21 to 25 in FIG. 2B, paying attention to the G component, as in FIG. ing.

例えば被写体701について、画素21に対応して生成された水平ラインと画素25に対応して生成された水平ラインにおいて4画素分の位相差が検出されたとする。このとき図7(c)に示されるような画素群710が、被写体701の像の同一部分に対応している場合、画素群710に含まれる画素711乃至715は、原理的に同一のG成分を有することになる。即ち、例えばG成分の信号強度を示さない画素712及び714のそれぞれについて、画素711と713、画素713と715のG成分の信号から補間してG成分の信号を生成することで、不自然な色補間の発生を回避することができる。つまり、少なくとも被写体701については、該被写体に焦点があった再構成画像を生成した場合に、再構成画像において該被写体の像の偽色やモアレの発生を低減することができる。このとき、補間に用いられる画素は視点位置が近い、即ち光束が通過した瞳領域が近い画素を用いることで、遮蔽等の影響を受けない、より自然な色補間とすることができる。   For example, for the subject 701, a phase difference of four pixels is detected in the horizontal line generated corresponding to the pixel 21 and the horizontal line generated corresponding to the pixel 25. At this time, when the pixel group 710 as shown in FIG. 7C corresponds to the same part of the image of the subject 701, the pixels 711 to 715 included in the pixel group 710 are in principle the same G component. Will have. That is, for example, by interpolating the G component signals of the pixels 711 and 713 and the pixels 713 and 715 for each of the pixels 712 and 714 that do not show the G component signal intensity, an unnatural signal is generated. Occurrence of color interpolation can be avoided. That is, for at least the subject 701, when a reconstructed image focused on the subject is generated, it is possible to reduce the occurrence of false color and moire in the image of the subject in the reconstructed image. At this time, the pixels used for interpolation are pixels that are close to the viewpoint position, that is, pixels that are close to the pupil region through which the light beam has passed, so that more natural color interpolation that is not affected by shielding or the like can be achieved.

また例えば被写体702について、画素21に対応して生成された水平ラインと画素25に対応して生成された水平ラインにおいて被写体701とは逆方向に4画素分の位相差が検出されたとする。このとき図7(d)に示されるような画素群720が、被写体702の像の同一部分に対応している場合、画素群720に含まれる画素721乃至725は、原理的に同一のG成分を有することになる。即ち、例えばG成分の信号強度を示さない画素722及び724のそれぞれについて、画素721と723、画素723と725のG成分の信号から補間してG成分の信号を生成することで、不自然な色補間の発生を回避することができる。つまり、少なくとも被写体702については、該被写体に焦点があった再構成画像を生成した場合に、再構成画像において該被写体の像の偽色やモアレの発生を低減することができる。   Further, for example, for the subject 702, it is assumed that a phase difference of four pixels is detected in the opposite direction to the subject 701 in the horizontal line generated corresponding to the pixel 21 and the horizontal line generated corresponding to the pixel 25. At this time, when the pixel group 720 as shown in FIG. 7D corresponds to the same part of the image of the subject 702, the pixels 721 to 725 included in the pixel group 720 have the same G component in principle. Will have. That is, for example, by interpolating the G component signals of the pixels 721 and 723 and the pixels 723 and 725 for each of the pixels 722 and 724 that do not show the G component signal intensity, an unnatural signal is generated. Occurrence of color interpolation can be avoided. That is, for at least the subject 702, when a reconstructed image focused on the subject is generated, the generation of false colors and moire in the image of the subject in the reconstructed image can be reduced.

このように、本実施形態の画像処理部103では、位相差が検出できた被写体については、該被写体像に対応する画素において不足している色成分の信号強度を、同一の像についての光束が結像された、他の画素の信号を利用して補間することができる。   As described above, in the image processing unit 103 according to the present embodiment, for a subject for which the phase difference has been detected, the signal intensity of the color component that is insufficient in the pixel corresponding to the subject image is obtained, and the light flux for the same image is obtained. Interpolation can be performed by using the imaged signals of other pixels.

なお、本実施形態では特定の画素について不足している色成分の信号強度を、同一の像についての光束が結像された複数の画素の信号から生成するものとして説明した。しかしながら、原理的にはこれらの画素は同一の信号強度を示すはずであるので、不足している色成分の信号強度については、同一の像に対応するいずれかの画素の該色成分の信号強度を代入してもよい。   In the present embodiment, the signal intensity of a color component that is insufficient for a specific pixel has been described as being generated from signals of a plurality of pixels on which light fluxes for the same image are formed. However, in principle, these pixels should exhibit the same signal strength, so the signal strength of the color component of any pixel corresponding to the same image is the signal strength of the missing color component. May be substituted.

また位相差が検出できなかった被写体については従来の手法と同様に、分割瞳領域の各々についてのRAW画像内で、該被写体に対応する画素の周囲の画素を用いて不足している色成分の信号強度を補間すればよい。この際、位相差が検出できた被写体についての色成分を先行して補間しておくことで、偽色やモアレの発生をある程度低減することが可能である。   For a subject whose phase difference could not be detected, in the RAW image for each of the divided pupil regions, the missing color component using the pixels around the pixel corresponding to the subject, as in the conventional method. What is necessary is just to interpolate a signal strength. At this time, it is possible to reduce the occurrence of false colors and moire to some extent by interpolating in advance the color components of the subject whose phase difference has been detected.

S305におけるデモザイキング処理が完了した後、カメラ制御部101は出力されたLFデータを不図示の記録媒体に記録し、本LFデータ生成処理を完了する。   After the demosaicing process in S305 is completed, the camera control unit 101 records the output LF data on a recording medium (not shown) and completes the LF data generation process.

なお、本実施形態ではデモザイキング処理において、被写体の位相差が検出可能か否かに応じて不足している色成分の補間を同一の分割瞳領域についてのRAW画像内で行うか否かを分けるものとして説明した。しかしながら、他の分割瞳領域についてのRAW画像の画素を用いて補間を行う場合は上述したように、少なくとも位相差の検出対象とする2つの輝度画像において検出対象の被写体がランバート面であることが条件となる。このため、位相差検出を行う際にSADの極小値が予め定められた値よりも大きく、ランバート面とみなすことができない類似度である場合は、該被写体については同一の分割瞳領域についてのRAW画像内の周辺画素を用いて補間を行うようにしてもよい。   In the present embodiment, in the demosaicing process, whether or not the interpolation of the missing color component is performed in the RAW image for the same divided pupil region depending on whether or not the phase difference of the subject can be detected is divided. Explained as a thing. However, when interpolation is performed using pixels of the RAW image for other divided pupil regions, the subject to be detected may be a Lambertian plane in at least two luminance images to be detected for phase difference as described above. It becomes a condition. For this reason, when the minimum value of SAD is larger than a predetermined value when phase difference detection is performed and the degree of similarity cannot be regarded as a Lambertian plane, the RAW for the same divided pupil region is obtained for the subject. Interpolation may be performed using peripheral pixels in the image.

また、本発明は図8に示すような他の光学系についても適用可能である。図8は物体(被写体)からの光束が撮像素子109上に結像する状態を模式的に示した図である。図8(a)は図2で説明した光学系と対応しており、撮像光学系202の結像面近傍にマイクロレンズアレイ108を配置した例である。図8(b)は撮像光学系202の結像面よりも物体寄りにマイクロレンズアレイ108を配置した例である。図8(c)は撮像光学系202の結像面よりも物体から遠い側にマイクロレンズアレイ108を配置した例である。   The present invention can also be applied to other optical systems as shown in FIG. FIG. 8 is a diagram schematically showing a state in which a light beam from an object (subject) forms an image on the image sensor 109. FIG. 8A corresponds to the optical system described in FIG. 2, and is an example in which the microlens array 108 is disposed in the vicinity of the imaging surface of the imaging optical system 202. FIG. 8B shows an example in which the microlens array 108 is arranged closer to the object than the imaging plane of the imaging optical system 202. FIG. 8C shows an example in which the microlens array 108 is arranged on the side farther from the object than the imaging plane of the imaging optical system 202.

図8において、図2と共通する構成については同じ参照数字を付し、重複する説明を省略する。51は物体平面であり、51a、51bは物体平面上の任意の点である。52は撮像光学系202の瞳平面を、61、62、71、72、73、81、82、83、84はマイクロレンズアレイ108上の特定のマイクロレンズをそれぞれ示している。   In FIG. 8, the same reference numerals are assigned to configurations common to those in FIG. 2, and duplicate descriptions are omitted. Reference numeral 51 denotes an object plane, and 51a and 51b are arbitrary points on the object plane. Reference numeral 52 denotes a pupil plane of the imaging optical system 202, and 61, 62, 71, 72, 73, 81, 82, 83, and 84 denote specific microlenses on the microlens array 108, respectively.

また、図8(b)および(c)においては、図8(a)との対応関係を明確にするために、仮想的な撮像素子109a及び仮想的なマイクロレンズアレイ108aを示した。また、物体平面上の点51aから瞳平面52の瞳領域31および33を通過する光束を実線で、物体平面上の点51bから瞳平面52の瞳領域31および33を通過する光束を破線で図示した。   In FIGS. 8B and 8C, a virtual image sensor 109a and a virtual microlens array 108a are shown in order to clarify the correspondence with FIG. 8A. Also, a light beam passing from the point 51a on the object plane through the pupil regions 31 and 33 on the pupil plane 52 is indicated by a solid line, and a light beam passing from the point 51b on the object plane to the pupil regions 31 and 33 on the pupil plane 52 is indicated by a broken line. did.

図8(a)の例では、図3でも説明したように、撮像光学系202の結像面近傍にマイクロレンズアレイ108を配置することで、撮像素子109と撮影光学系の瞳平面52が共役の関係にある。さらに、物体平面51とマイクロレンズアレイ108が共役の関係にある。このため物体平面51上の点51aからの光束はマイクロレンズ61に、点51bからの光束はマイクロレンズ62に到達し、瞳領域31から35それぞれを通過した光束はマイクロレンズに対応するように設けられた画素に到達する。   In the example of FIG. 8A, as described with reference to FIG. 3, the microlens array 108 is disposed in the vicinity of the imaging surface of the imaging optical system 202, so that the imaging device 109 and the pupil plane 52 of the imaging optical system are conjugated. Are in a relationship. Further, the object plane 51 and the microlens array 108 are in a conjugate relationship. For this reason, the light beam from the point 51a on the object plane 51 reaches the microlens 61, the light beam from the point 51b reaches the microlens 62, and the light beams that have passed through the pupil regions 31 to 35 correspond to the microlens. Reach the selected pixel.

図8(b)の例では、マイクロレンズアレイ108によって撮像光学系202からの光束を結像させ、その結像面に撮像素子109を設けている。このように配置することで、物体平面51と撮像素子109とは共役の関係になる。物体平面51上の点51aから瞳平面52の瞳領域31を通過した光束はマイクロレンズ71に到達し、点51aから瞳平面上の瞳領域33を通過した光束はマイクロレンズ72に到達する。また、物体平面51上の点51bから瞳平面52の瞳領域31を通過した光束はマイクロレンズ72に到達し、点51bから瞳平面52の瞳領域33を通過した光束はマイクロレンズ73に到達する。各マイクロレンズを通過した光束は、マイクロレンズに対応するように設けられた画素に到達する。このように、物体平面からの光束は、その出射位置と、通過する瞳領域に応じて撮像素子109の撮像面における異なる位置に結像する。これらを、仮想的な撮像面50における位置に並べなおせば、図8(a)の撮像面で得られる情報と同様の情報を得ることができる。即ち、通過した瞳領域(入射角度)と撮像素子109上の位置の情報を得ることができる。   In the example of FIG. 8B, the light beam from the imaging optical system 202 is imaged by the microlens array 108, and the imaging element 109 is provided on the imaging surface. By arranging in this way, the object plane 51 and the image sensor 109 have a conjugate relationship. The light beam that has passed through the pupil region 31 of the pupil plane 52 from the point 51a on the object plane 51 reaches the micro lens 71, and the light beam that has passed through the pupil region 33 on the pupil plane from the point 51a reaches the micro lens 72. Further, the light beam that has passed through the pupil region 31 of the pupil plane 52 from the point 51b on the object plane 51 reaches the micro lens 72, and the light beam that has passed through the pupil region 33 of the pupil plane 52 from the point 51b reaches the micro lens 73. . The light beam that has passed through each microlens reaches a pixel provided so as to correspond to the microlens. Thus, the light beam from the object plane forms an image at different positions on the imaging surface of the image sensor 109 according to the emission position and the passing pupil region. If these are rearranged in the position on the virtual imaging surface 50, the same information as the information obtained on the imaging surface of FIG. 8A can be obtained. That is, information on the pupil region (incident angle) that has passed and the position on the image sensor 109 can be obtained.

図8(c)の例では、マイクロレンズアレイ108で撮像光学系202からの光束を再結像させ(一度結像した光束が拡散する状態にあるものを結像させるので再結像と呼ぶ)、その再結像面に撮像素子109の撮像面を配置する。このように配置することで、物体平面51と撮像素子109は共役の関係となる。物体平面51上の点51aから瞳平面52の瞳領域31を通過した光束はマイクロレンズ82に到達し、点51aから瞳平面52の瞳領域33を通過した光束はマイクロレンズ81に到達する。また、物体平面51の点51bから瞳平面52の瞳領域31を通過した光束はマイクロレンズ84に到達し、点51bから瞳平面52の瞳領域33を通過した光束はマイクロレンズ83に到達する。各マイクロレンズを通過した光束は、マイクロレンズに対応するように設けられた画素に到達する。   In the example of FIG. 8C, the microlens array 108 re-images the light beam from the imaging optical system 202 (referred to as re-imaging because the light beam once imaged is diffused is imaged). The imaging surface of the image sensor 109 is disposed on the re-imaging plane. By arranging in this way, the object plane 51 and the image sensor 109 have a conjugate relationship. The light beam that has passed through the pupil region 31 of the pupil plane 52 from the point 51a on the object plane 51 reaches the micro lens 82, and the light beam that has passed through the pupil region 33 of the pupil plane 52 from the point 51a reaches the micro lens 81. Further, the light beam that has passed through the pupil region 31 of the pupil plane 52 from the point 51b on the object plane 51 reaches the micro lens 84, and the light beam that has passed through the pupil region 33 of the pupil plane 52 from the point 51b reaches the micro lens 83. The light beam that has passed through each microlens reaches a pixel provided so as to correspond to the microlens.

図8(b)の場合と同様に、撮像素子109で得られた画素の信号を、仮想的な撮像面50における位置に並び替えれば、図8(a)の撮像面で得られる情報と同様の情報を得ることができる。即ち、通過した瞳領域(入射角度)と撮像素子109上の位置の情報を得ることができる。   Similarly to the case of FIG. 8B, if the pixel signals obtained by the image sensor 109 are rearranged to the positions on the virtual image pickup surface 50, the information obtained on the image pickup surface of FIG. Information can be obtained. That is, information on the pupil region (incident angle) that has passed and the position on the image sensor 109 can be obtained.

なお、図8ではマイクロレンズアレイ108(位相変調素子)を用いて瞳分割を行い、光束の位置情報と角度情報を取得する構成例を示したが、位置情報と角度情報(瞳の通過領域を制限することと等価)を取得可能なものであれば他の構成も利用可能である。例えば、基本パターンの繰り返しから構成されるパターンマスク(ゲイン変調素子)をマイクロレンズアレイ108の代わりに用いる構成であってもよい。また図8(d)に示すような多眼光学系(カメラアレイ)にも、本発明は適用可能である。図8(d)において、各多眼光学系の各カメラは、図8(a)乃至(c)における瞳領域31乃至35に対応する位置に撮像光学系を配置し、各撮像素子109a乃至cに像を結像させる。このようにして各撮像素子から得られる画像は、撮影位置が異なっており、上述した各分割瞳領域についてのRAW画像に対応している。このため、各カメラの位置関係に応じて同一の被写体像が結像される画素を特定することで、各画素について不足している色成分の信号強度を好適に補間することができる。   FIG. 8 shows a configuration example in which pupil division is performed using the microlens array 108 (phase modulation element) to acquire position information and angle information of a light beam. Other configurations can be used as long as they can acquire (equivalent to limiting). For example, a configuration in which a pattern mask (gain modulation element) configured by repeating basic patterns is used instead of the microlens array 108 may be used. The present invention can also be applied to a multi-view optical system (camera array) as shown in FIG. In FIG. 8D, each camera of each multi-view optical system has an imaging optical system disposed at a position corresponding to the pupil regions 31 to 35 in FIGS. 8A to 8C, and each imaging element 109a to 109c. Let the image form. Thus, the image obtained from each image sensor has a different shooting position, and corresponds to the RAW image for each divided pupil region described above. For this reason, by specifying the pixels on which the same subject image is formed in accordance with the positional relationship of each camera, it is possible to suitably interpolate the signal strength of the color component that is insufficient for each pixel.

以上説明したように、本実施形態の画像処理装置は、好適に色再現した画像を再構成可能なLFデータを生成することができる。具体的には画像処理装置は、同一時間に同一被写体を異なる位置で撮像して得られた複数の画像信号であって、各画素が予め定められた複数の色成分のうちのいずれか1つの色成分の信号強度を示す画像信号を取得する。そして取得した複数の画像信号のうち、同一焦点距離に存在する同一の被写体像に対応する画素を特定し、該対応する画素の各々について、画素に存在しない色成分の信号強度を対応する画素のうちの他の画素の該色成分の信号強度を用いて生成する。   As described above, the image processing apparatus of the present embodiment can generate LF data that can reconstruct an image that has been favorably color-reproduced. Specifically, the image processing apparatus is a plurality of image signals obtained by imaging the same subject at different positions at the same time, and each pixel is any one of a plurality of predetermined color components. An image signal indicating the signal intensity of the color component is acquired. Then, among the acquired image signals, a pixel corresponding to the same subject image existing at the same focal length is specified, and for each of the corresponding pixels, the signal intensity of the color component not existing in the pixel is determined. It is generated using the signal intensity of the color component of other pixels.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (12)

同一時間に同一被写体を異なる位置で撮像して得られた複数の画像信号であって、各画素が予め定められた複数の色成分のうちのいずれか1つの色成分の信号強度を示す画像信号を取得する取得手段と、
前記取得手段により取得された前記複数の画像信号のうち、同一焦点距離に存在する同一の被写体像に対応する画素を特定する特定手段と、
前記特定手段により特定された前記対応する画素の各々について、画素に存在しない色成分の信号強度を前記対応する画素のうちの他の画素の該色成分の信号強度を用いて生成する生成手段と、を有する
ことを特徴とする画像処理装置。
A plurality of image signals obtained by imaging the same subject at different positions at the same time, each image signal indicating the signal intensity of any one of a plurality of predetermined color components Obtaining means for obtaining
Specifying means for specifying pixels corresponding to the same subject image existing at the same focal length among the plurality of image signals acquired by the acquiring means;
Generating means for generating, for each of the corresponding pixels specified by the specifying means, a signal intensity of a color component that does not exist in the pixel using a signal intensity of the color component of another pixel of the corresponding pixels; And an image processing apparatus.
前記生成手段は、前記画素に存在しない色成分の信号強度として、前記他の画素の該色成分の信号強度を使用することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the generation unit uses the signal strength of the color component of the other pixel as the signal strength of the color component that does not exist in the pixel. 前記生成手段は、前記画素に存在しない色成分の信号強度を、前記他の画素の該色成分の信号強度を用いて補間することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the generation unit interpolates a signal intensity of a color component that does not exist in the pixel using a signal intensity of the color component of the other pixel. 前記生成手段は、前記対応する画素のうちの1つの前記画像信号に含まれる画素について、該1つの画像信号の撮影位置の近傍で撮影された前記画像信号から前記特定手段により特定された画素の信号強度を用いて補間することを特徴とする請求項3に記載の画像処理装置。   The generation unit is configured to determine, for a pixel included in one of the corresponding pixels, the pixel specified by the specifying unit from the image signal photographed in the vicinity of the photographing position of the one image signal. The image processing apparatus according to claim 3, wherein interpolation is performed using signal strength. 前記特定手段は、前記複数の画像信号間の像の位相差を検出することで、前記同一焦点距離に存在する同一の被写体像に対応する画素を特定することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   5. The specifying unit specifies pixels corresponding to the same subject image existing at the same focal length by detecting a phase difference of the images between the plurality of image signals. The image processing apparatus according to any one of the above. 前記複数の画像信号は、撮像装置により撮像された原画像信号であって、画素の各々が、前記撮像装置の撮像光学系において通過した瞳領域及び入射方向の組み合わせが異なる光束に対応した、前記複数の色成分のうちのいずれか1つの色成分の信号強度を示す原画像信号から、同一の瞳領域を通過した光束に対応する画素を結合させることで各々得られることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。   The plurality of image signals are original image signals imaged by an imaging device, and each of the pixels corresponds to a light flux having a different combination of a pupil region and an incident direction that have passed through the imaging optical system of the imaging device, The pixel image is obtained by combining pixels corresponding to a light beam that has passed through the same pupil region from an original image signal indicating the signal intensity of any one of a plurality of color components. The image processing apparatus according to any one of 1 to 5. 前記生成手段により前記画素に存在しない色成分の信号強度が生成された画像信号を記録する記録手段をさらに有することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a recording unit that records an image signal in which a signal intensity of a color component that does not exist in the pixel is generated by the generation unit. 同一時間に同一被写体を異なる位置で撮像し、各画素が予め定められた複数の色成分のうちのいずれか1つの色成分の信号強度を示す複数の画像信号を出力する撮像手段と、
前記撮像手段により出力された前記複数の画像信号のうち、同一焦点距離に存在する同一の被写体像に対応する画素を特定する特定手段と、
前記特定手段により特定された前記対応する画素の各々について、画素に存在しない色成分の信号強度を前記対応する画素のうちの他の画素の該色成分の信号強度を用いて生成する生成手段と、を有する
ことを特徴とする撮像装置。
Imaging means for imaging the same subject at different positions at the same time, and outputting a plurality of image signals each of which indicates the signal intensity of any one of a plurality of predetermined color components;
Specifying means for specifying pixels corresponding to the same subject image existing at the same focal length among the plurality of image signals output by the imaging means;
Generating means for generating, for each of the corresponding pixels specified by the specifying means, a signal intensity of a color component that does not exist in the pixel using a signal intensity of the color component of another pixel of the corresponding pixels; An imaging apparatus comprising:
画像処理装置の取得手段が、同一時間に同一被写体を異なる位置で撮像して得られた複数の画像信号であって、各画素が予め定められた複数の色成分のうちのいずれか1つの色成分の信号強度を示す画像信号を取得する取得工程と、
前記画像処理装置の特定手段が、前記取得工程において取得された前記複数の画像信号のうち、同一焦点距離に存在する同一の被写体像に対応する画素を特定する特定工程と、
前記画像処理装置の生成手段が、前記特定工程において特定された前記対応する画素の各々について、画素に存在しない色成分の信号強度を前記対応する画素のうちの他の画素の該色成分の信号強度を用いて生成する生成工程と、を有する
ことを特徴とする画像処理装置の制御方法。
A plurality of image signals obtained by the acquisition unit of the image processing apparatus capturing images of the same subject at different positions at the same time, and each pixel has a color selected from a plurality of predetermined color components An acquisition step of acquiring an image signal indicating the signal intensity of the component;
A specifying step in which the specifying unit of the image processing device specifies pixels corresponding to the same subject image existing at the same focal length among the plurality of image signals acquired in the acquiring step;
For each of the corresponding pixels specified in the specifying step, the generation unit of the image processing device uses the signal intensity of the color component of the other pixels among the corresponding pixels to determine the signal intensity of the color component that does not exist in the pixel. And a generation step of generating using the intensity. A control method for an image processing apparatus.
撮像装置の撮像手段が、同一時間に同一被写体を異なる位置で撮像し、各画素が予め定められた複数の色成分のうちのいずれか1つの色成分の信号強度を示す複数の画像信号を出力する撮像工程と、
前記撮像装置の特定手段が、前記撮像工程において出力された前記複数の画像信号のうち、同一焦点距離に存在する同一の被写体像に対応する画素を特定する特定工程と、
前記撮像装置の生成手段が、前記特定工程において特定された前記対応する画素の各々について、画素に存在しない色成分の信号強度を前記対応する画素のうちの他の画素の該色成分の信号強度を用いて生成する生成工程と、を有する
ことを特徴とする撮像装置の制御方法。
The imaging means of the imaging device images the same subject at different positions at the same time, and outputs a plurality of image signals each of which indicates the signal intensity of one of the plurality of color components. An imaging process to
A specifying step of specifying a pixel corresponding to the same subject image existing at the same focal length among the plurality of image signals output in the imaging step;
For each of the corresponding pixels specified in the specifying step, the generation unit of the imaging device determines the signal intensity of the color component that does not exist in the pixel and the signal intensity of the color component of the other pixels of the corresponding pixels. And a generation step of generating using the imaging method.
コンピュータを、請求項1乃至7のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 7. コンピュータに、請求項10に記載の撮像装置の制御方法の各工程を実行させるためのプログラム。   The program for making a computer perform each process of the control method of the imaging device of Claim 10.
JP2013023823A 2013-02-08 2013-02-08 Image processing apparatus, imaging apparatus, control method, and program Expired - Fee Related JP6190119B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013023823A JP6190119B2 (en) 2013-02-08 2013-02-08 Image processing apparatus, imaging apparatus, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013023823A JP6190119B2 (en) 2013-02-08 2013-02-08 Image processing apparatus, imaging apparatus, control method, and program

Publications (3)

Publication Number Publication Date
JP2014155071A true JP2014155071A (en) 2014-08-25
JP2014155071A5 JP2014155071A5 (en) 2016-03-31
JP6190119B2 JP6190119B2 (en) 2017-08-30

Family

ID=51576533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013023823A Expired - Fee Related JP6190119B2 (en) 2013-02-08 2013-02-08 Image processing apparatus, imaging apparatus, control method, and program

Country Status (1)

Country Link
JP (1) JP6190119B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5982600B2 (en) * 2014-03-18 2016-08-31 富士フイルム株式会社 Imaging apparatus and focus control method
JP2017038253A (en) * 2015-08-11 2017-02-16 キヤノン株式会社 Imaging device, image processing apparatus, image processing method, and program
US10868957B2 (en) 2018-10-18 2020-12-15 Samsung Electronics Co., Ltd. Apparatus and method for processing image to reconstruct image
US10902557B2 (en) 2017-11-24 2021-01-26 Samsung Electronics Co., Ltd. Method and apparatus for restoring image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007158597A (en) * 2005-12-02 2007-06-21 Nikon Corp Solid-state imaging apparatus with function of generating focus detection signal, and electronic camera
JP2009021683A (en) * 2007-07-10 2009-01-29 Sony Corp Imaging device
JP2009124213A (en) * 2007-11-12 2009-06-04 Sony Corp Image pickup apparatus
JP2012168246A (en) * 2011-02-10 2012-09-06 Olympus Corp Imaging element and imaging device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007158597A (en) * 2005-12-02 2007-06-21 Nikon Corp Solid-state imaging apparatus with function of generating focus detection signal, and electronic camera
JP2009021683A (en) * 2007-07-10 2009-01-29 Sony Corp Imaging device
JP2009124213A (en) * 2007-11-12 2009-06-04 Sony Corp Image pickup apparatus
JP2012168246A (en) * 2011-02-10 2012-09-06 Olympus Corp Imaging element and imaging device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5982600B2 (en) * 2014-03-18 2016-08-31 富士フイルム株式会社 Imaging apparatus and focus control method
JP2017038253A (en) * 2015-08-11 2017-02-16 キヤノン株式会社 Imaging device, image processing apparatus, image processing method, and program
US10902557B2 (en) 2017-11-24 2021-01-26 Samsung Electronics Co., Ltd. Method and apparatus for restoring image
US11334968B2 (en) 2017-11-24 2022-05-17 Samsung Electronics Co., Ltd. Method and apparatus for restoring image
US10868957B2 (en) 2018-10-18 2020-12-15 Samsung Electronics Co., Ltd. Apparatus and method for processing image to reconstruct image

Also Published As

Publication number Publication date
JP6190119B2 (en) 2017-08-30

Similar Documents

Publication Publication Date Title
JP6055332B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP5264131B2 (en) Imaging device
JP5854984B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP4941332B2 (en) Imaging device
US9369693B2 (en) Stereoscopic imaging device and shading correction method
JP2015521411A (en) Camera module patterned using π filter group
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
JP2010057067A (en) Image pickup apparatus and image processing apparatus
JP4823167B2 (en) Imaging device
CN103688536A (en) Image processing device, image processing method, and program
JP4823168B2 (en) Imaging device
JP6190119B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP2015185943A (en) Microlens with filter array and solid state image sensor
JP2010026011A (en) Imaging apparatus
JP2016111678A (en) Image sensor, image capturing apparatus, focus detection apparatus, image processing apparatus, and control method thereof
JP4823169B2 (en) Imaging device
JP2015148676A (en) Imaging apparatus and method of controlling imaging apparatus
JP2014155071A5 (en)
JP2009047734A (en) Imaging apparatus and image processing program
JP2020046482A (en) Imaging apparatus
JP2009047735A (en) Imaging apparatus and image processing program
JP6741549B2 (en) Imaging device and control method thereof
JP2016057402A (en) Imaging device and method for controlling the same
JP2019208214A (en) Image processing apparatus, image processing method, program, and imaging apparatus
JP6138222B2 (en) Image processing apparatus, imaging apparatus, control method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170804

R151 Written notification of patent or utility model registration

Ref document number: 6190119

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees