JP2013055623A - Image processing apparatus, image processing method, information recording medium, and program - Google Patents

Image processing apparatus, image processing method, information recording medium, and program Download PDF

Info

Publication number
JP2013055623A
JP2013055623A JP2011194418A JP2011194418A JP2013055623A JP 2013055623 A JP2013055623 A JP 2013055623A JP 2011194418 A JP2011194418 A JP 2011194418A JP 2011194418 A JP2011194418 A JP 2011194418A JP 2013055623 A JP2013055623 A JP 2013055623A
Authority
JP
Japan
Prior art keywords
blur correction
pixel
filter
image
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2011194418A
Other languages
Japanese (ja)
Inventor
Masato Tachi
真透 舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011194418A priority Critical patent/JP2013055623A/en
Priority to US13/565,264 priority patent/US8837853B2/en
Priority to CN2012103231390A priority patent/CN102984527A/en
Publication of JP2013055623A publication Critical patent/JP2013055623A/en
Abandoned legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an apparatus and a method of achieving appropriate blur correction for the imaging data having an RGBW pixel arrangement.SOLUTION: The image processing apparatus includes a blur correction processing unit performing blur correction for the output signal from an image sensor having an RGBW arrangement consisting of RGB pixels and W (white) pixels. When performing blur correction processing for a W pixel signal, the blur correction processing unit creates a blur correction filter reflecting the color ratio of a local area including the W pixel signal to be corrected, and performs blur correction processing to which the filter reflecting the color ratio thus created is applied. For example, the low frequency components of RGB colors are calculated in the local area, the color ratio is calculated using these calculation values, and then blur correction is performed by creating a blur correction filter corresponding to the color ratio thus calculated.

Description

本開示は、画像処理装置、および画像処理方法、情報記録媒体、並びにプログラムに関する。特に、画像のぼけ補正を実行する画像処理装置、および画像処理方法、情報記録媒体、並びにプログラムに関する。   The present disclosure relates to an image processing device, an image processing method, an information recording medium, and a program. In particular, the present invention relates to an image processing apparatus, an image processing method, an information recording medium, and a program that execute image blur correction.

デジタルカメラ等の撮像装置において撮影される画像には、例えば、フォーカスずれや、レンズの収差、さらに、撮像素子であるCCDやCMOS等で発生するノイズなどに起因して、ノイズやぼけが発生する。
特に、安価なレンズを用いたカメラでは、像高(光学中心からの距離)が大きくなるほど、レンズの収差に起因した画像のぼけが大きくなる。
An image captured by an imaging apparatus such as a digital camera has noise and blurring due to, for example, focus shift, lens aberration, noise generated by an imaging device such as a CCD or CMOS, and the like. .
In particular, in a camera using an inexpensive lens, image blur due to lens aberration increases as the image height (distance from the optical center) increases.

このような様々な要因に基づく画像のノイズやぼけの補正処理について開示した従来技術として、例えば、特許文献1(特開2006−246080号公報)、特許文献2(特開2009−159603号公報)、特許文献3(特開2010−081263号公報)などがある。   For example, Patent Document 1 (Japanese Patent Application Laid-Open No. 2006-246080) and Patent Document 2 (Japanese Patent Application Laid-Open No. 2009-159603) are disclosed as related arts that disclose correction processing for image noise and blur based on various factors. And Japanese Patent Application Laid-Open No. 2010-081263.

特許文献1(特開2006−246080号公報)は、撮影画像の領域単位で異なる先鋭化パラメータを用いた補正処理構成を開示している。具体的には、像高(光学中心からの距離)が大きくなるほど、先鋭化パラメータを強くして画像補正を行う構成である。
しかし、この特許文献1の処理は、像高に応じて高周波成分の強度を強める処理を施すのみであり、例えば倍率色収差やぼけの周波数特性の変化等については考慮しておらず、適切な補正が実行されない場合が発生するという問題がある
Japanese Patent Application Laid-Open No. 2006-246080 discloses a correction processing configuration that uses different sharpening parameters for each region of a captured image. Specifically, the image correction is performed by increasing the sharpening parameter as the image height (distance from the optical center) increases.
However, the process of Patent Document 1 merely performs a process of increasing the intensity of the high-frequency component in accordance with the image height, and does not consider, for example, the change in the chromatic aberration of magnification or the frequency characteristic of the blur, and the appropriate correction. Has a problem that may not run

また、特許文献2(特開2009−159603号公報)は、レンズの固体差や製造誤差によって変化するぼけに対応するため、それぞれのレンズ特性に応じたフィルタを選択してぼけ補正処理を実行する構成を開示している。
しかし、上述の像高依存型のぼけのように像高に応じてぼけ方が連続的に変化するぼけに対して、この補正処理を適用しようとすると、ぼけ補正用のフィルタの種類が膨大な数になるという問題が発生する。
Further, Patent Document 2 (Japanese Patent Laid-Open No. 2009-159603) selects a filter corresponding to each lens characteristic and executes blur correction processing in order to cope with blurring that varies depending on lens differences or manufacturing errors. The configuration is disclosed.
However, if this correction processing is applied to blur in which the blur method changes continuously according to the image height, such as the above-described image height-dependent blur, the number of types of blur correction filters is enormous. The problem of becoming a number occurs.

さらに、特許文献3(特開2010−081263号公報)は、像高によって偏りの発生するぼけ方を示すいわゆる片ぼけに対して、像高ごとに重心位置をずらしたフィルタを適用することで、像高に応じた適切な補正を実行する構成を開示している。
具体的には、フィルタの重心位置の補正によって片ぼけに対応した補正を行うものである。しかし、重心位置の補正に主眼をおいており、補正強度の制御については示されておらず、ぼけの強い部分や弱い部分に対応した個別の処理が実行されず、適切な補正がなされない場合が発生する。
Furthermore, Patent Document 3 (Japanese Patent Laid-Open No. 2010-081263) applies a filter in which the position of the center of gravity is shifted for each image height to a so-called one-side blur indicating how the blur occurs depending on the image height. A configuration for executing an appropriate correction according to the image height is disclosed.
More specifically, correction corresponding to blurring is performed by correcting the position of the center of gravity of the filter. However, the focus is on the correction of the center of gravity, the control of the correction strength is not shown, and individual processing corresponding to the strong or weak part is not executed, and appropriate correction is not made Will occur.

さらに、撮像素子に付属するフィルタとしてRGBの各色に加え、全波長透過型のW(White)画素を備えたRGBW配列を持つフィルタを備えた撮像装置の撮影画像に対する補正処理について、特許文献4(特開2011−55038号公報)に記載がある。   Furthermore, as a filter attached to the image sensor, in addition to each color of RGB, correction processing for a captured image of an imaging device including a filter having an RGBW array including all-wavelength transmission type W (White) pixels is disclosed in Patent Document 4 ( JP, 2011-55038, A).

W(White)画素を備えたRGBW配列を持つフィルタを利用した場合、W画素が波長領域の広い可視光を透過するため、被写体の色によってぼけ方が異なる。
上記特許文献4の処理は、被写体色に依存しない一律な補正を行う構成であり、被写体の色によって異なるぼけ方に対して十分な補正効果が得られない場合が発生するという問題がある。
When a filter having an RGBW array including W (White) pixels is used, the W pixel transmits visible light having a wide wavelength range, and thus the blur is different depending on the color of the subject.
The process of Patent Document 4 is configured to perform uniform correction independent of the subject color, and there is a problem that a sufficient correction effect cannot be obtained for different blurring methods depending on the subject color.

また、上述した上記従来技術の構成の多くは、例えば、畳み込み演算によるフィルタリングに基づく画素値補正を行うものであるが、様々な補正を行うために、このフィルタリングを行うためのフィルタを多数、格納するため容量の大きなメモリを必要とするなど、小型かつ低コストのカメラに実装するには問題がある。   In addition, many of the above-described prior art configurations perform pixel value correction based on filtering by, for example, convolution calculation. In order to perform various corrections, a large number of filters for performing this filtering are stored. Therefore, there is a problem in mounting on a small and low-cost camera, such as requiring a memory with a large capacity.

特開2006−246080号公報JP 2006-246080 A 特開2009−159603号公報JP 2009-159603 A 特開2010−081263号公報JP 2010-081263 A 特開2011−055038号公報JP 2011-055038 A

本開示は、例えば上記問題点に鑑みてなされたものであり、画像のぼけ補正を行う構成において、特に像高に応じた適切な補正を実現する画像処理装置、および画像処理方法、情報記録媒体、並びにプログラムを提供することを目的とする。
また、本開示の一実施例では、様々な態様のぼけに応じたぼけ補正フィルタを、基本的なフィルタに基づいて適宜算出して利用する構成とすることで、予めメモリに格納するフィルタの数を削減可能とした画像処理装置、および画像処理方法、情報記録媒体、並びにプログラムを提供することを目的とする。
The present disclosure has been made in view of, for example, the above-described problems, and in an image blur correction configuration, an image processing apparatus, an image processing method, and an information recording medium that realize appropriate correction particularly according to an image height It aims at providing a program.
Further, in an embodiment of the present disclosure, the number of filters stored in advance in the memory is configured by appropriately using a blur correction filter corresponding to blur of various aspects based on a basic filter. Image processing apparatus, image processing method, information recording medium, and program are provided.

本開示の第1の側面は、
RGB画素とW(ホワイト)画素からなるRGBW配列を有する撮像素子の出力信号に対するぼけ補正処理を行うぼけ補正処理部を有し、
前記ぼけ補正処理部は、
W画素信号に対するぼけ補正処理に際して、補正対象のW画素信号を含む局所領域の色比率を反映した色比率反映ぼけ補正フィルタを生成し、該色比率反映フィルタを適用したぼけ補正処理を実行する画像処理装置にある。
The first aspect of the present disclosure is:
A blur correction processing unit that performs blur correction processing on an output signal of an image sensor having an RGBW array including RGB pixels and W (white) pixels;
The blur correction processing unit
An image for generating a color ratio reflecting blur correction filter reflecting the color ratio of the local region including the W pixel signal to be corrected and executing the blur correction process using the color ratio reflecting filter in the blur correction process for the W pixel signal In the processing unit.

さらに、本開示の画像処理装置の一実施態様において、前記ぼけ補正処理部は、前記撮像素子の出力信号に含まれるW画素信号を利用した補間処理により、全画素対応のW画素信号を持つ補間画像を生成し、生成した補間画像を構成するW画素各々について前記色比率反映ぼけ補正フィルタを生成し、該色比率反映フィルタを適用したぼけ補正処理を実行する。   Furthermore, in one embodiment of the image processing device according to the present disclosure, the blur correction processing unit performs interpolation having a W pixel signal corresponding to all pixels by an interpolation process using a W pixel signal included in an output signal of the image sensor. An image is generated, the color ratio reflection blur correction filter is generated for each W pixel constituting the generated interpolation image, and blur correction processing using the color ratio reflection filter is executed.

さらに、本開示の画像処理装置の一実施態様において、前記ぼけ補正処理部は、前記局所領域のRGB各色の低周波成分を算出し、算出したRGB各色の低周波成分の値の比率を前記局所領域の色比率とする。   Furthermore, in an embodiment of the image processing apparatus of the present disclosure, the blur correction processing unit calculates a low frequency component of each color of RGB in the local region, and calculates a ratio of the calculated values of the low frequency components of each color of RGB in the local region. The color ratio of the area.

さらに、本開示の画像処理装置の一実施態様において、前記ぼけ補正処理部は、前記局所領域のRGBの各色比率に応じて決定するブレンド比率に応じて、予めメモリに保持されたR対応ぼけ補正フィルタと、G対応ぼけ補正フィルタと、B対応ぼけ補正フィルタとをブレンドして前記色比率反映ぼけ補正フィルタを生成する。   Furthermore, in an embodiment of the image processing apparatus according to the present disclosure, the blur correction processing unit is configured to perform the R corresponding blur correction previously stored in the memory according to a blend ratio determined according to each RGB color ratio of the local region. The color ratio reflecting blur correction filter is generated by blending the filter, the G corresponding blur correction filter, and the B corresponding blur correction filter.

さらに、本開示の画像処理装置の一実施態様において、前記画像処理装置は、さらに、前記RGBW配列をRGB配列に変換するデータ変換部を有する。   Furthermore, in an embodiment of the image processing device of the present disclosure, the image processing device further includes a data conversion unit that converts the RGBW array into an RGB array.

さらに、本開示の画像処理装置の一実施態様において、前記データ変換部は、前記ぼけ補正処理部の生成したW画素信号対応のぼけ補正信号から推定されるRGB対応のぼけ補正信号であるぼけ補正ありRGB信号(Rd,Gd,Bd)を生成し、前記ぼけ補正ありRGB信号(Rd,Gd,Bd)を適用してRGB配列を構成するRGB信号値を決定する処理を実行する。   Furthermore, in an embodiment of the image processing apparatus according to the present disclosure, the data conversion unit is a blur correction signal that is an RGB-compatible blur correction signal estimated from a blur correction signal corresponding to a W pixel signal generated by the blur correction processing unit. An RGB signal (Rd, Gd, Bd) is generated, and the RGB signal values (Rd, Gd, Bd) with blur correction are applied to determine the RGB signal values constituting the RGB array.

さらに、本開示の画像処理装置の一実施態様において、前記画像処理装置は、さらに、RGB画素とW画素からなるRGBW配列を有する撮像素子の出力信号を解析して各画素対応のエッジ強度情報を含むエッジ情報を生成するエッジ検出部を有し、前記データ変換部は、ぼけ補正処理の非適用信号であるぼけ補正なしRGB信号(Rl,Gl,Bl)を算出して、前記ぼけ補正処理部の生成したW画素信号対応のぼけ補正信号から推定されるRGB対応のぼけ補正信号であるぼけ補正ありRGB信号(Rd,Gd,Bd)と前記ぼけ補正なしRGB信号とのブレンド処理によりRGB配列またはカラー画像を構成するRGB信号値の決定処理を行う構成であり、前記エッジ情報によりエッジ強度が大であると判定した画素位置ではぼけ補正ありRGB信号のブレンド比率を高くし、エッジ強度が小であると判定した画素位置ではぼけ補正なしRGB信号のブレンド比率を高く設定したブレンド処理を実行してRGB信号値の決定処理を行う。   Furthermore, in an embodiment of the image processing device according to the present disclosure, the image processing device further analyzes an output signal of an image sensor having an RGBW array including RGB pixels and W pixels to obtain edge intensity information corresponding to each pixel. An edge detection unit that generates edge information, and the data conversion unit calculates a non-blurred RGB signal (Rl, Gl, Bl) that is a non-applied signal of the blur correction process, and the blur correction processing unit Or an RGB array by blending the blur-corrected RGB signal (Rd, Gd, Bd) corresponding to RGB estimated from the generated blur correction signal corresponding to the W pixel signal and the RGB signal without blur correction. This is a configuration that determines the RGB signal values that make up a color image, and blur correction is performed at pixel positions that have been determined to have high edge strength based on the edge information. Ri by increasing the blending ratio of the RGB signal, the edge strength performs determination processing of RGB signal values by performing the blend processing set high blend ratio of blurring-uncorrected RGB signals in the pixel position is determined to be small.

さらに、本開示の画像処理装置の一実施態様において、前記ぼけ補正処理部は、W画素信号を適用してぼけ補正処理を実行して各画素対応のぼけ補正W信号(Wd)を生成し、前記データ変換部は、画像の局所領域でW信号とRGB各信号に正の相関があるとの仮定に基づいて、前記ぼけ補正W信号(Wd)からRGB対応のぼけ補正信号であるぼけ補正ありRGB信号(Rd,Gd,Bd)を算出する。   Furthermore, in one embodiment of the image processing device of the present disclosure, the blur correction processing unit performs blur correction processing by applying a W pixel signal to generate a blur correction W signal (Wd) corresponding to each pixel, The data converter is based on the assumption that there is a positive correlation between the W signal and each RGB signal in the local region of the image, and there is blur correction that is a blur correction signal corresponding to RGB from the blur correction W signal (Wd). RGB signals (Rd, Gd, Bd) are calculated.

さらに、本開示の画像処理装置の一実施態様において、前記ぼけ補正処理部は、前記色比率反映ぼけ補正フィルタと、ぼけ補正対象画素の像高に応じて生成する座標位置対応ハイパスフィルタを、前記ぼけ補正対象画素の像高に応じて決定するブレンド係数を適用してブレンド処理を行い、該ブレンド処理によって生成したフィルタを適用してぼけ補正処理を実行する請求項1に記載の画像処理装置。   Furthermore, in an embodiment of the image processing device of the present disclosure, the blur correction processing unit includes the color ratio reflecting blur correction filter and a coordinate position corresponding high-pass filter that is generated according to an image height of a blur correction target pixel. The image processing apparatus according to claim 1, wherein blend processing is performed by applying a blend coefficient determined according to an image height of a blur correction target pixel, and blur correction processing is executed by applying a filter generated by the blend processing.

前記ぼけ補正処理部は、
前記色比率反映ぼけ補正フィルタと、前記座標位置対応ハイパスフィルタを、前記ぼけ補正対象画素の像高とフォーカス位置情報に応じて決定するブレンド係数を適用してブレンド処理を行い、該ブレンド処理によって生成したフィルタを適用してぼけ補正処理を実行する。
The blur correction processing unit
The color ratio reflecting blur correction filter and the coordinate position corresponding high pass filter are blended by applying a blend coefficient determined according to the image height and focus position information of the blur correction target pixel, and are generated by the blend processing. The blur correction process is executed by applying the filter.

さらに、本開示の画像処理装置の一実施態様において、前記ぼけ補正処理部は、前記ブレンド処理において、ぼけ補正対象画素の画素位置が、画像中心から遠く、像高が大きくなるに従って、前記座標位置対応ハイパスフィルタのブレンド率を減少させたブレンド処理を実行する。   Furthermore, in an embodiment of the image processing apparatus of the present disclosure, the blur correction processing unit is configured to determine the coordinate position as the pixel position of the blur correction target pixel is farther from the image center and the image height is larger in the blending process. A blend process is performed in which the blend ratio of the corresponding high-pass filter is reduced.

さらに、本開示の画像処理装置の一実施態様において、前記ぼけ補正処理部は、予めメモリに保持されたx方向調整用ハイパスフィルタ(HPF_x)と、y方向調整用ハイパスフィルタ(HPF_y)と、画角中央位置[(x,y)=(0,0)]に対応する中心フィルタ(HPF_center)を、ぼけ補正対象画素の画素位置に応じてブレンドすることで、前記座標位置対応ハイパスフィルタを生成する。   Furthermore, in one embodiment of the image processing device of the present disclosure, the blur correction processing unit includes an x-direction adjustment high-pass filter (HPF_x), a y-direction adjustment high-pass filter (HPF_y), which are stored in a memory in advance, and an image. The coordinate position-corresponding high-pass filter is generated by blending the center filter (HPF_center) corresponding to the corner center position [(x, y) = (0, 0)] according to the pixel position of the blur correction target pixel. .

さらに、本開示の画像処理装置の一実施態様において、前記ぼけ補正処理部は、さらに、前記座標位置対応ハイパスフィルタを、ぼけ補正対象画素の像高に応じてエンハンス強度調整を実行して強度調整フィルタを生成し、該強度調整フィルタを適用したぼけ補正処理を行う。   Furthermore, in an embodiment of the image processing apparatus according to the present disclosure, the blur correction processing unit further performs an intensity adjustment by performing an enhancement intensity adjustment on the coordinate position corresponding high-pass filter according to an image height of a blur correction target pixel. A filter is generated, and a blur correction process using the intensity adjustment filter is performed.

さらに、本開示の画像処理装置の一実施態様において、前記ぼけ補正処理部は、前記座標位置対応ハイパスフィルタを、直流成分と交流成分に分離し、交流成分に対して、ぼけ補正対象画素の像高に応じた強度調整パラメータを適用した調整処理を行い、調整処理を行った交流成分と前記直流成分の再合成により、前記強度調整フィルタを生成する。   Furthermore, in one embodiment of the image processing device according to the present disclosure, the blur correction processing unit separates the coordinate position corresponding high-pass filter into a DC component and an AC component, and an image of a blur correction target pixel with respect to the AC component. An adjustment process using an intensity adjustment parameter corresponding to the height is performed, and the intensity adjustment filter is generated by recombining the AC component subjected to the adjustment process and the DC component.

さらに、本開示の画像処理装置の一実施態様において、前記ぼけ補正処理部は、前記座標位置対応ハイパスフィルタを、ぼけ補正対象画素の像高と、フォーカス位置情報に応じた強度調整パラメータを適用したエンハンス強度調整を実行して前記強度調整フィルタを生成する。   Furthermore, in an embodiment of the image processing apparatus according to the present disclosure, the blur correction processing unit applies an intensity adjustment parameter corresponding to the image height of the blur correction target pixel and focus position information to the coordinate position corresponding high-pass filter. An enhancement intensity adjustment is performed to generate the intensity adjustment filter.

さらに、本開示の画像処理装置の一実施態様において、前記画像信号補正部は、ぼけ補正対象画素を含む複数画素からなる局所領域に飽和画素が含まれるか否かを検出する飽和検出部を有し、前記ぼけ補正処理部は、前記飽和検出部からの検出情報を入力し、前記局所領域に飽和画素が含まれる場合には、前記ぼけ補正対象画素のぼけ補正を実行せず、飽和画素が含まれない場合にのみ、前記ぼけ補正対象画素のぼけ補正を実行する。   Furthermore, in an embodiment of the image processing device according to the present disclosure, the image signal correction unit includes a saturation detection unit that detects whether or not a saturated pixel is included in a local region including a plurality of pixels including a blur correction target pixel. The blur correction processing unit inputs detection information from the saturation detection unit, and when the local region includes a saturated pixel, the blur correction target pixel is not subjected to blur correction, and the saturated pixel Only when it is not included, blur correction of the blur correction target pixel is executed.

さらに、本開示の第2の側面は、
画像処理装置において画像のぼけ補正処理を実行する画像処理方法であり、
ぼけ補正処理部が、RGB画素とW(ホワイト)画素からなるRGBW配列を有する撮像素子の出力信号に対するぼけ補正処理を行うぼけ補正処理ステップを実行し、
前記ぼけ補正処理ステップは、
W画素信号に対するぼけ補正処理に際して、補正対象のW画素信号を含む局所領域の色比率を反映した色比率反映ぼけ補正フィルタを生成し、該色比率反映フィルタを適用したぼけ補正処理を実行するステップである画像処理方法にある。
Furthermore, the second aspect of the present disclosure is:
An image processing method for executing image blur correction processing in an image processing apparatus,
The blur correction processing unit executes a blur correction processing step for performing blur correction processing on an output signal of an image sensor having an RGBW array including RGB pixels and W (white) pixels,
The blur correction processing step includes
A step of generating a color ratio reflecting blur correction filter reflecting a color ratio of a local region including the W pixel signal to be corrected and executing the blur correction process using the color ratio reflecting filter in the blur correction processing for the W pixel signal; The image processing method is.

さらに、本開示の第3の側面は、
画像処理装置において画像のぼけ補正処理を実行させるプログラムであり、
ぼけ補正処理部に、RGB画素とW(ホワイト)画素からなるRGBW配列を有する撮像素子の出力信号に対するぼけ補正処理を行わせるぼけ補正処理ステップを実行させ、
前記ぼけ補正処理ステップにおいては、
W画素信号に対するぼけ補正処理に際して、補正対象のW画素信号を含む局所領域の色比率を反映した色比率反映ぼけ補正フィルタを生成させて、該色比率反映フィルタを適用したぼけ補正処理を実行させるプログラムにある。
Furthermore, the third aspect of the present disclosure is:
A program for executing image blur correction processing in an image processing apparatus,
Causing the blur correction processing unit to execute a blur correction processing step for performing blur correction processing on an output signal of an image sensor having an RGBW array including RGB pixels and W (white) pixels;
In the blur correction processing step,
When blur correction processing is performed on a W pixel signal, a color ratio reflecting blur correction filter that reflects the color ratio of the local region including the W pixel signal to be corrected is generated, and blur correction processing using the color ratio reflecting filter is executed. In the program.

さらに、本開示の第4の側面は、
画像処理装置において画像のぼけ補正処理を実行させるプログラムを記録した記録媒体であり、
ぼけ補正処理部に、RGB画素とW(ホワイト)画素からなるRGBW配列を有する撮像素子の出力信号に対するぼけ補正処理を行わせるぼけ補正処理ステップを実行させ、
前記ぼけ補正処理ステップにおいては、
W画素信号に対するぼけ補正処理に際して、補正対象のW画素信号を含む局所領域の色比率を反映した色比率反映ぼけ補正フィルタを生成させて、該色比率反映フィルタを適用したぼけ補正処理を実行させるプログラムを記録した記録媒体にある。
Furthermore, the fourth aspect of the present disclosure is:
A recording medium that records a program for executing image blur correction processing in an image processing apparatus,
Causing the blur correction processing unit to execute a blur correction processing step for performing blur correction processing on an output signal of an image sensor having an RGBW array including RGB pixels and W (white) pixels;
In the blur correction processing step,
When blur correction processing is performed on a W pixel signal, a color ratio reflecting blur correction filter that reflects the color ratio of the local region including the W pixel signal to be corrected is generated, and blur correction processing using the color ratio reflecting filter is executed. It is on the recording medium that records the program.

なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。   Note that the program of the present disclosure is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to an information processing apparatus or a computer system that can execute various program codes. By providing such a program in a computer-readable format, processing corresponding to the program is realized on the information processing apparatus or the computer system.

本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Other objects, features, and advantages of the present disclosure will become apparent from a more detailed description based on embodiments of the present disclosure described below and the accompanying drawings. In this specification, the system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.

本開示の一実施例の構成によれば、RGBW画素配列を持つ撮像データに対する適切なぼけ補正を実現する装置、方法が実現される。
具体的には、RGB画素とW(ホワイト)画素からなるRGBW配列を有する撮像素子の出力信号に対するぼけ補正処理を行うぼけ補正処理部を有する。ぼけ補正処理部は、W画素信号に対するぼけ補正処理に際して、補正対象のW画素信号を含む局所領域の色比率を反映した色比率反映ぼけ補正フィルタを生成し、生成した色比率反映フィルタを適用したぼけ補正処理を実行する。例えば局所領域においてRGB各色の低周波成分を算出し、これらの算出値を用いて色比率を算出して、算出した色比率に応じたぼけ補正フィルタを生成してぼけ補正を実行する。
これらの処理により、画像の局所領域の色比率に応じた最適なぼけ補正フィルタを適用した適切なぼけ補正処理が実現される。
According to the configuration of an embodiment of the present disclosure, an apparatus and a method for realizing appropriate blur correction for imaging data having an RGBW pixel array are realized.
Specifically, the image processing apparatus includes a blur correction processing unit that performs a blur correction process on an output signal of an image sensor having an RGBW array including RGB pixels and W (white) pixels. The blur correction processing unit generates a color ratio reflecting blur correction filter that reflects the color ratio of the local region including the W pixel signal to be corrected, and applies the generated color ratio reflecting filter when the blur correction process is performed on the W pixel signal. Perform blur correction processing. For example, low frequency components of each color of RGB are calculated in the local region, a color ratio is calculated using these calculated values, a blur correction filter corresponding to the calculated color ratio is generated, and blur correction is executed.
With these processes, an appropriate blur correction process using an optimal blur correction filter corresponding to the color ratio of the local region of the image is realized.

像高に応じて発生するぼけの態様について説明する図である。It is a figure explaining the aspect of the blur which generate | occur | produces according to image height. ウィナーフィルタによるぼけ補正処理の一例について説明する図である。It is a figure explaining an example of the blur correction process by a Wiener filter. 本開示の画像処理装置の構成例について説明する図である。It is a figure explaining the structural example of the image processing apparatus of this indication. 本開示の画像処理装置の構成例について説明する図である。It is a figure explaining the structural example of the image processing apparatus of this indication. 画像信号補正部の実行する処理の全体シーケンスを説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the whole sequence of the process which an image signal correction | amendment part performs. 飽和画素が含まれる画素領域に対するぼけ補正と偽色発生について説明する図である。It is a figure explaining the blur correction | amendment with respect to the pixel area | region containing a saturated pixel, and false color generation. ぼけ補正対象画素の周囲に飽和画素が含まれる場合、補正対象画素のぼけ補正を行わない設定とする処理について説明する図である。It is a figure explaining the process set as the setting which does not perform blur correction of a correction object pixel, when a saturation pixel is contained around the blur correction object pixel. 平坦度(weightFlat)について説明する図である。It is a figure explaining flatness (weightFlat). フィルタ生成処理の詳細シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the detailed sequence of a filter production | generation process. 座標位置対応ハイパスフィルタ(HPF_dist)を生成するシーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the sequence which produces | generates a coordinate position corresponding | compatible high-pass filter (HPF_dist). 座標位置対応ハイパスフィルタ(HPF_dist)を生成するために適用するハイパスフィルタの例について説明する図である。It is a figure explaining the example of the high pass filter applied in order to produce | generate a coordinate position corresponding | compatible high pass filter (HPF_dist). フィルタのエンハンス特性を示す図である。It is a figure which shows the enhancement characteristic of a filter. (a)レンズMTF特性、(b)ウィナー(Wiener)フィルタ特性、(c)ブレンド係数αの設定例について説明する図である。It is a figure explaining the example of a setting of (a) lens MTF characteristic, (b) Wiener filter characteristic, and (c) blend coefficient (alpha). エンハンス強度調整したぼけ補正フィルタ(Ffinal)を生成する処理について説明する図である。It is a figure explaining the process which produces | generates the blurring correction filter (Ffinal) which adjusted the enhancement intensity | strength. エンハンス強度調整したぼけ補正フィルタ(Ffinal)を生成する処理について説明する図である。It is a figure explaining the process which produces | generates the blurring correction filter (Ffinal) which adjusted the enhancement intensity | strength. フィルタのエンハンス特性を示す図である。It is a figure which shows the enhancement characteristic of a filter. (a)レンズMTF特性、(b)ウィナー(Wiener)フィルタ特性、(c)エンハンス強度調整パラメータβの設定例について説明する図である。It is a figure explaining the example of a setting of (a) lens MTF characteristic, (b) Wiener filter characteristic, and (c) enhancement intensity | strength adjustment parameter (beta). RGBWフィルタにおける各色の分光強度特性を示す図である。It is a figure which shows the spectral intensity characteristic of each color in an RGBW filter. RGBW各色のMTF特性を示す図である。It is a figure which shows the MTF characteristic of each color of RGBW. RGBW画像のRGB画像への変換処理について説明する図である。It is a figure explaining the conversion process to the RGB image of an RGBW image. 画像処理装置の一実施例について説明する図である。It is a figure explaining one Example of an image processing apparatus. 画像処理装置の一実施例について説明する図である。It is a figure explaining one Example of an image processing apparatus. 画像信号補正部の実行する処理の全体シーケンスを説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the whole sequence of the process which an image signal correction | amendment part performs. 低周波成分mR,mG,mBを算出する低周波成分算出フィルタの構成例について説明する図である。It is a figure explaining the structural example of the low frequency component calculation filter which calculates low frequency component mR, mG, mB. 低周波成分mR,mG,mBを算出する低周波成分算出フィルタの構成例について説明する図である。It is a figure explaining the structural example of the low frequency component calculation filter which calculates low frequency component mR, mG, mB. 低周波成分mR,mG,mBを算出する低周波成分算出フィルタの構成例について説明する図である。It is a figure explaining the structural example of the low frequency component calculation filter which calculates low frequency component mR, mG, mB. 低周波成分mR,mG,mBを算出する低周波成分算出フィルタの構成例について説明する図である。It is a figure explaining the structural example of the low frequency component calculation filter which calculates low frequency component mR, mG, mB. W対応ぼけ補正フィルタの算出処理例について説明する図である。It is a figure explaining the example of a calculation process of W corresponding blur correction filter. 低周波成分mWを算出する低周波成分算出フィルタ、ノイズ信号を除去したW信号Wnを算出するフィルタの例について説明する図である。It is a figure explaining the example of the filter which calculates the low frequency component calculation filter which calculates the low frequency component mW, and the W signal Wn which removed the noise signal. 局所領域におけるWとGの画素値比率の対応関係例について説明する図である。It is a figure explaining the correspondence example of the pixel value ratio of W and G in a local region.

以下、図面を参照しながら本開示の画像処理装置、および画像処理方法、情報記録媒体、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行う。
1.撮影画像に発生するぼけの特性と、ぼけ補正に適用可能なフィルタの概要について
2.(実施例1)画像処理装置の構成例について
3.実施例1に係る画像処理装置のぼけ補正処理の詳細について
4.(実施例2)色比率を考慮したぼけ補正を実行する画像処理装置の構成例について
5.実施例2に係る画像処理装置のぼけ補正処理の詳細について
6.本開示の構成のまとめ
Hereinafter, the details of the image processing apparatus, the image processing method, the information recording medium, and the program of the present disclosure will be described with reference to the drawings. The description will be made according to the following items.
1. 1. About the characteristics of the blur that occurs in the captured image and the outline of the filter that can be applied to blur correction (Example 1) 2. Configuration example of image processing apparatus 3. Details of blur correction processing of the image processing apparatus according to the first embodiment (Embodiment 2) Configuration example of image processing apparatus that executes blur correction considering color ratio 5. Details of blur correction processing of image processing apparatus according to Embodiment 2 Summary of composition of this disclosure

[1.撮影画像に発生するぼけの特性と、ぼけ補正に適用可能なフィルタの概要について]
本開示の画像処理装置の具体的な説明の前に、撮影画像に発生するぼけの特性と、ぼけ補正に適用可能な基本的なフィルタの概要について説明する。
[1. About the characteristics of blur that occurs in captured images and the outline of filters that can be applied to blur correction]
Prior to specific description of the image processing apparatus according to the present disclosure, characteristics of blur generated in a captured image and an outline of a basic filter applicable to blur correction will be described.

前述したように、デジタルカメラ等の撮像装置によって撮影された画像には、レンズ特性やCCD、CMOS等の撮像素子の特性に応じたぼけが発生する。
特に、安価なレンズを用いたカメラでは、像高(光学中心からの距離)が大きくなるほど、レンズの収差に起因した画像のぼけが大きくなる。
As described above, an image taken by an imaging device such as a digital camera is blurred according to lens characteristics and characteristics of an imaging element such as a CCD or CMOS.
In particular, in a camera using an inexpensive lens, image blur due to lens aberration increases as the image height (distance from the optical center) increases.

像高に応じて発生するぼけの態様について、図1を参照して説明する。
図1は、矩形の白領域と黒領域が交互に設定されたチェッカーパターンの撮影画像を示している。
図1に示すように、画像の中心領域は、ぼけが小さい。すなわち、光学中心に近い(像高が小さい)ほど、ぼけが小さい。
一方、光学中心からの距離が大きくなるほど、すなわち像高が大きくなるほど、ぼけが大きくなる。
このように、カメラによる撮影画像に発生するぼけは、カメラのレンズの光学中心に近い画像領域の中心部ほど小さく、レンズの光学中心から遠い画像の周辺領域ほど大きくなる傾向がある。
A mode of blur generated according to the image height will be described with reference to FIG.
FIG. 1 shows a captured image of a checker pattern in which rectangular white areas and black areas are alternately set.
As shown in FIG. 1, the center area of the image is less blurred. That is, the closer to the optical center (the smaller the image height), the smaller the blur.
On the other hand, the greater the distance from the optical center, that is, the greater the image height, the greater the blur.
As described above, the blur generated in the image taken by the camera tends to be smaller at the center of the image area near the optical center of the lens of the camera and larger at the peripheral area of the image far from the optical center of the lens.

次に、画像のぼけ補正に利用されるフィルタの一例としてウィナー(Wiener)フィルタについて簡単に説明する。
(1)ぼけのない理想画像(原画像)、
(2)ぼけのある撮影画像、
(3)撮影画像に対するフィルタの適用処理によって復元される復元画像、
これらの3つの画像を想定する。
ここで、
(1)ぼけのない理想画像(原画像)と、
(3)撮影画像に対するフィルタの適用処理によって復元される復元画像、
これらの2つの画像の二乗誤差を最小とするフィルタが、最小二乗フィルタ、またはウィナー(Wiener)フィルタと呼ばれる。
Next, a Wiener filter as an example of a filter used for image blur correction will be briefly described.
(1) Ideal image (original image) without blur,
(2) Blurred shot image,
(3) a restored image restored by filter application processing on the captured image;
Assume these three images.
here,
(1) An ideal image (original image) without blur,
(3) a restored image restored by filter application processing on the captured image;
A filter that minimizes the square error between these two images is called a least square filter or a Wiener filter.

f(x,y)を、ぼけのない理想画像(原画像)、
g(x,y)を、ぼけを含む撮影画像、
h(x,y)を、レンズ収差や手ぶれによる劣化関数、
n(x,y)を、ノイズ成分、
とする。
(x,y)は各画像の画素位置であり、f(x,y)〜n(x,y)は各画像の座標位置(x,y)の画素値を示す場合もある。
ここで、レンズ収差や手ぶれによる劣化関数h(x,y)が、固定値であると仮定すると、以下の(式1)の関係が成り立つ。
f (x, y) is an ideal image (original image) without blur,
g (x, y) is a captured image including blur,
h (x, y) is a degradation function due to lens aberration or camera shake,
n (x, y) is a noise component,
And
(X, y) is the pixel position of each image, and f (x, y) to n (x, y) may indicate the pixel value of the coordinate position (x, y) of each image.
Here, assuming that the degradation function h (x, y) due to lens aberration and camera shake is a fixed value, the following relationship (Equation 1) holds.

・・・・(式1) ... (Formula 1)

上記式の両辺をフーリエ変換すると、
G(u,v)=H(u,v)×F(u,v)+N(u,v)・・・・(式2)
となる。
ここで、G(u,v),H(u,v),F(u,v),N(u,v)はそれぞれg(x,y),h(x,y),f(x,y),n(x,y)のフーリエ変換を表す。
この式からレンズ収差や手ぶれによる劣化関数に零点がなく、ノイズ成分が既知であるとき、F(u,v)は、以下の(式3)から求めることが可能である。
When both sides of the above equation are Fourier transformed,
G (u, v) = H (u, v) × F (u, v) + N (u, v) (Equation 2)
It becomes.
Here, G (u, v), H (u, v), F (u, v), and N (u, v) are g (x, y), h (x, y), and f (x, y) represents the Fourier transform of n (x, y).
From this equation, when there is no zero point in the degradation function due to lens aberration or camera shake and the noise component is known, F (u, v) can be obtained from the following (Equation 3).

・・・・(式3) ... (Formula 3)

しかしながら、一般にノイズ成分は未知であるため、上記(式3)を厳密に解くことはできない。そこで、理想画像(F)と、ぼけの補正された復元画像(F')の誤差を最小とする以下の(式4)のウィナー(Wiener)フィルタK(u,v)を用いてぼけ補正が行われる。   However, since the noise component is generally unknown, the above (Equation 3) cannot be solved exactly. Therefore, blur correction is performed using a Wiener filter K (u, v) of the following (Equation 4) that minimizes the error between the ideal image (F) and the restored image (F ′) corrected for blur. Done.

・・・・(式4)
ただし、上記(式4)において、
(Sn(u,v)/Sf(u,v)):理想画像(原画像)Fと、ノイズNとのパワースペクトル密度(Γ)を示す。
(Γ=Sn(u,v)/Sf(u,v))
.... (Formula 4)
However, in the above (Formula 4),
(Sn (u, v) / Sf (u, v)): Indicates the power spectral density (Γ) between the ideal image (original image) F and noise N.
(Γ = Sn (u, v) / Sf (u, v))

以下に示す(式5)のとおり、このフィルタを逆フーリエ変換したものk(x,y)と、観測画像を実空間で畳み込むことで、ぼけ補正のされた画像f'(x,y)を得ることができる。   As shown in (Expression 5) below, k (x, y) obtained by inverse Fourier transform of this filter and an image f ′ (x, y) corrected for blur by convolving the observed image in real space. Can be obtained.

・・・・(式5) ... (Formula 5)

上記(式5)に従ったウィナーフィルタによるぼけ補正処理の一例を図2に示す。
図2には、
(a)撮影画像G
(b)ウィナーフィルタK
これらを示している。
An example of blur correction processing by the Wiener filter according to the above (Formula 5) is shown in FIG.
In FIG.
(A) Captured image G
(B) Wiener filter K
These are shown.

(a)撮影画像は、W(White)画素を含むRGBW画素からなるRAW画像である。
ここで、補正対象画素は図2(a)に示す7×7画素の中心のW画素である。
(b)に示すウィナーフィルタKは、7×7画素に含まれる複数のW画素各々に対する乗算係数を示したものである。7×7画素に含まれるW画素の画素値に各係数を乗算して加算する畳み込み演算を実行して、中心のW画素の補正画素値を算出する。
(A) A photographed image is a RAW image composed of RGBW pixels including W (White) pixels.
Here, the correction target pixel is a central W pixel of 7 × 7 pixels shown in FIG.
The Wiener filter K shown in (b) shows a multiplication coefficient for each of a plurality of W pixels included in 7 × 7 pixels. A convolution operation for multiplying and adding each pixel value to the pixel value of the W pixel included in the 7 × 7 pixel is executed to calculate a correction pixel value of the central W pixel.

なお、図2に示す例はRGBW構成の画像のW画素に対する処理例を示しているが、R,G,Bの各画素に対しても同様のフィルタ処理が行われる。
またRGBW構成ではなくRGB構成の画像に対しても同様のウィナーフィルタ適用処理によるぼけ補正が行われる。
The example shown in FIG. 2 shows an example of processing for W pixels of an RGBW-structured image, but the same filter processing is performed for each of R, G, and B pixels.
Also, blur correction by the same Wiener filter application processing is performed on an RGB configuration image instead of the RGBW configuration.

[2.(実施例1)画像処理装置の構成例について]
図3、図4を参照して、本開示の画像処理装置の構成例について説明する。
図3は、本開示の画像処理装置の一実施例である撮像装置100の構成例を示す図である。撮像装置100は、光学レンズ105、撮像素子(イメージセンサ)110、信号処理部120、メモリ130、制御部140を有する。なお、撮像装置は画像処理装置の一態様である。
[2. (Example 1) Configuration example of image processing apparatus]
A configuration example of the image processing apparatus according to the present disclosure will be described with reference to FIGS. 3 and 4.
FIG. 3 is a diagram illustrating a configuration example of the imaging apparatus 100 which is an embodiment of the image processing apparatus of the present disclosure. The imaging apparatus 100 includes an optical lens 105, an imaging element (image sensor) 110, a signal processing unit 120, a memory 130, and a control unit 140. Note that the imaging device is an aspect of an image processing device.

なお、本開示の画像処理装置には、例えばPCなどの装置も含まれる。PC等の画像処理装置は、図3に示す撮像装置100の光学レンズ105、撮像素子110を持たず、その他の構成要素から構成され、撮像素子100の取得データの入力部、または記憶部を持つ構成となる。   Note that the image processing apparatus of the present disclosure includes an apparatus such as a PC. An image processing apparatus such as a PC does not have the optical lens 105 and the image sensor 110 of the image pickup apparatus 100 shown in FIG. 3, and is composed of other components, and has an input unit for acquired data of the image sensor 100 or a storage unit. It becomes composition.

以下では、図3に示す撮像装置100を本開示の画像処理装置の代表例として説明する。なお、図3に示す撮像装置100は、例えばスチルカメラ、ビデオカメラなどである。   Hereinafter, the imaging apparatus 100 illustrated in FIG. 3 will be described as a representative example of the image processing apparatus of the present disclosure. Note that the imaging apparatus 100 illustrated in FIG. 3 is, for example, a still camera or a video camera.

図3に示す撮像装置100の撮像素子(イメージセンサ)110は、RGB配列からなるベイヤ配列を持つカラーフィルタを備えた構成である。
まず、RGB配列からなる撮像素子110を利用した構成と処理について説明する。
後段で、RGBW配列を持つ撮像素子を利用した構成と処理例について説明する。
The imaging device (image sensor) 110 of the imaging apparatus 100 illustrated in FIG. 3 has a configuration including a color filter having a Bayer array composed of RGB arrays.
First, a configuration and processing using the image sensor 110 having an RGB array will be described.
A configuration and processing example using an image sensor having an RGBW array will be described later.

図3に示す撮像装置100の撮像素子(イメージセンサ)110は、RGB配列181を持つ。すなわち、
赤色近傍の波長を透過する赤(R)、
緑色近傍の波長を透過する緑(G)、
青色近傍の波長を透過する青(B)、
これら3種類の分光特性を持つフィルタを備えた撮像素子である。
An imaging element (image sensor) 110 of the imaging apparatus 100 illustrated in FIG. 3 has an RGB array 181. That is,
Red (R) that transmits wavelengths near red,
Green (G) that transmits wavelengths in the vicinity of green,
Blue (B) that transmits wavelengths near blue,
It is an image sensor provided with a filter having these three types of spectral characteristics.

このRGB配列181を持つ撮像素子110は、光学レンズ105を介してRGBいずれかの光を各画素単位で受光し、光電変換により受光信号強度に対応する電気信号を生成して出力する。この撮像素子110によってRGB3種類の分光から成るモザイク画像が得られる。   The image sensor 110 having the RGB array 181 receives one of RGB light in units of pixels via the optical lens 105, and generates and outputs an electrical signal corresponding to the received light signal intensity by photoelectric conversion. With this image sensor 110, a mosaic image composed of three types of RGB spectra is obtained.

撮像素子(イメージセンサ)110の出力信号は信号処理部120の画像信号補正部200に入力される。
画像信号補正部200は、例えば像高(光学中心からの距離)やフォーカス位置に応じて変化するぼけ方を考慮したぼけ補正処理を実行する。この画像信号補正部200の構成と処理の詳細については後述する。
An output signal of the image sensor (image sensor) 110 is input to the image signal correction unit 200 of the signal processing unit 120.
The image signal correction unit 200 executes a blur correction process in consideration of, for example, a blur method that changes according to an image height (distance from the optical center) and a focus position. Details of the configuration and processing of the image signal correction unit 200 will be described later.

画像信号補正部200においてぼけ補正のなされたRGB画像はRGB信号処理部250に出力される。
画像信号補正部200の出力は、撮像素子110からの出力と同様、ベイヤ配列を持つデータである。
The RGB image subjected to the blur correction in the image signal correction unit 200 is output to the RGB signal processing unit 250.
The output of the image signal correction unit 200 is data having a Bayer array, similar to the output from the image sensor 110.

RGB信号処理部250は、従来のカメラ等に備えられた信号処理部と同様の処理を実行する。具体的にはデモザイク処理、ホワイトバランス調整処理、γ補正処理などを実行してカラー画像183を生成する。生成したカラー画像183はメモリ130に記録される。   The RGB signal processing unit 250 executes the same processing as the signal processing unit provided in a conventional camera or the like. Specifically, the color image 183 is generated by executing demosaic processing, white balance adjustment processing, γ correction processing, and the like. The generated color image 183 is recorded in the memory 130.

制御部140は、これら一連の処理の制御を実行する。例えば、一連の処理を実行させるプログラムがメモリ130に格納されており、制御部140は、メモリ130から読み出したプログラムを実行して一連の処理を制御する。
なお、メモリ130は、例えば磁気ディスク、光ディスク、フラッシュメモリ等の各種記録媒体によって構成可能である。
The control unit 140 executes control of these series of processes. For example, a program for executing a series of processes is stored in the memory 130, and the control unit 140 executes the program read from the memory 130 and controls the series of processes.
The memory 130 can be configured by various recording media such as a magnetic disk, an optical disk, and a flash memory.

画像信号補正部200の詳細構成について図4を参照して説明する。
画像信号補正部200は、図4に示すように、ラインメモリ201、像高算出部202、飽和検出部203、ぼけ補正処理部210、エッジ検出部221、ブレンド処理部230を有する。
ブレンド処理部230は、加重加算処理部235を有する。
A detailed configuration of the image signal correction unit 200 will be described with reference to FIG.
As illustrated in FIG. 4, the image signal correction unit 200 includes a line memory 201, an image height calculation unit 202, a saturation detection unit 203, a blur correction processing unit 210, an edge detection unit 221, and a blend processing unit 230.
The blend processing unit 230 includes a weighted addition processing unit 235.

撮像素子110から出力された各画素対応の画素値信号は一旦、ラインメモリ201に蓄えられる。
また、各画素の画素値に対応付けられた各画素の座標位置を示すxyアドレスが像高算出部202に出力される。
ラインメモリ201は撮像素子の水平7ライン分のラインメモリを有する。ラインメモリ201からは7つの水平ライン分のデータを並列に順次出力する。出力先は、ぼけ補正処理部210、エッジ検出部221、飽和検出部203である。これらの各処理部に対して、RGB配列181の撮像データが7ライン単位で出力される。
The pixel value signal corresponding to each pixel output from the image sensor 110 is temporarily stored in the line memory 201.
Further, an xy address indicating the coordinate position of each pixel associated with the pixel value of each pixel is output to the image height calculation unit 202.
The line memory 201 has a line memory for seven horizontal lines of the image sensor. The line memory 201 sequentially outputs data for seven horizontal lines in parallel. The output destinations are the blur correction processing unit 210, the edge detection unit 221, and the saturation detection unit 203. The imaging data of the RGB array 181 is output in units of 7 lines to each of these processing units.

エッジ検出部221は、ラインメモリ201からの出力信号を検証して、画像に含まれるエッジ情報、例えばエッジ方向とエッジ強度を含むエッジ情報を生成してブレンド処理部230に出力する。
具体的には、例えば、処理対象画素(7×7画素の中心画素)を中心として7×7画素の画素情報から算出される平坦度(weightFlat)を算出してブレンド処理部230に出力する。
なお、この平坦度(weightFlat)算出処理は、本出願人の先の出願である特開2011−55038号公報に記載の処理と同様の処理として実行可能である。
The edge detection unit 221 verifies the output signal from the line memory 201, generates edge information included in the image, for example, edge information including the edge direction and edge strength, and outputs the edge information to the blend processing unit 230.
Specifically, for example, the flatness (weightFlat) calculated from the pixel information of 7 × 7 pixels around the processing target pixel (center pixel of 7 × 7 pixels) is calculated and output to the blend processing unit 230.
This flatness (weightFlat) calculation process can be executed as a process similar to the process described in Japanese Patent Application Laid-Open No. 2011-55038, which is an earlier application of the present applicant.

ぼけ補正処理部210は、ラインメモリ201からの入力信号(Rin,Gin,Bin)を検証して、画像ぼけを削減する処理を行い、その処理結果として得られるぼけ補正信号(Rd,Gd,Bd)を算出してブレンド処理部230に出力する。   The blur correction processing unit 210 verifies the input signal (Rin, Gin, Bin) from the line memory 201, performs processing to reduce image blur, and blur correction signals (Rd, Gd, Bd) obtained as a result of the processing. ) Is calculated and output to the blend processing unit 230.

ブレンド処理部230は、ラインメモリ201からの出力信号中のRGB信号(Rin,Gin,Bin)と、エッジ検出部221から出力されるエッジ情報、およびぼけ補正処理部210から出力されるぼけ補正信号(Rd,Gd,Bd)を入力する。
ブレンド処理部230は、これらの情報を利用して、エッジを考慮したぼけ補正のなされた出力信号RGBを生成してRGB信号処理部250に出力する。
The blend processing unit 230 includes RGB signals (Rin, Gin, Bin) in the output signal from the line memory 201, edge information output from the edge detection unit 221, and a blur correction signal output from the blur correction processing unit 210. Input (Rd, Gd, Bd).
Using this information, the blend processing unit 230 generates an output signal RGB that has been subjected to blur correction in consideration of edges, and outputs the output signal RGB to the RGB signal processing unit 250.

ブレンド処理部230は、加重加算処理部235を有し、加重加算処理部235は、エッジ検出部221で算出した処理対象画素のエッジ情報、すなわち、処理対象画素(7×7画素の中心画素)を中心として7×7画素の画素情報から算出される平坦度(weightFlat)に応じて、ぼけ補正処理部210から出力されるぼけ補正信号(Rd,Gd,Bd)の加重平均処理を実行して、RGB配列181のRGB各画素値を算出する。具体的には、以下の式に従ってRGB画素値を決定する。
R=(weightFlat)×(Rd)+(1−weightFlat)×Rin
G=(weightFlat)×(Gd)+(1−weightFlat)×Gin
B=(weightFlat)×(Bd)+(1−weightFlat)×Bin
この式の算出結果として得られるR、G、BをRGB信号処理部250に出力する。
The blend processing unit 230 includes a weighted addition processing unit 235, and the weighted addition processing unit 235 calculates the edge information of the processing target pixel calculated by the edge detection unit 221, that is, the processing target pixel (center pixel of 7 × 7 pixels). The weighted average processing of the blur correction signals (Rd, Gd, Bd) output from the blur correction processing unit 210 is executed according to the flatness (weightFlat) calculated from the pixel information of 7 × 7 pixels centering on , RGB pixel values of the RGB array 181 are calculated. Specifically, RGB pixel values are determined according to the following formula.
R = (weightFlat) × (Rd) + (1-weightFlat) × Rin
G = (weightFlat) × (Gd) + (1−weightFlat) × Gin
B = (weightFlat) × (Bd) + (1−weightFlat) × Bin
R, G, and B obtained as a calculation result of this expression are output to the RGB signal processing unit 250.

RGB信号処理部250は、一般的なカメラや画像処理装置が持つRGB配列(ベイヤ配列)信号に対する信号処理部と同様である。RGB信号処理部250は、ブレンド処理部230から出力されるRGB配列(ベイヤ配列)信号に対する信号処理を実行してカラー画像183(図3参照)を生成する。RGB信号処理部250は、具体的には、例えばホワイトバランス調整処理、デモザイク処理、シェーディング処理、RGBカラーマトリクス処理、γ補正処理などを実行してカラー画像183を生成する。   The RGB signal processing unit 250 is the same as the signal processing unit for RGB array (Bayer array) signals of general cameras and image processing apparatuses. The RGB signal processing unit 250 performs signal processing on the RGB array (Bayer array) signal output from the blend processing unit 230 to generate a color image 183 (see FIG. 3). Specifically, the RGB signal processing unit 250 generates a color image 183 by executing, for example, white balance adjustment processing, demosaic processing, shading processing, RGB color matrix processing, γ correction processing, and the like.

図5に画像信号補正部200の実行する処理の全体シーケンスを説明するフローチャートを示す。
まず、ステップS101において、像高等に応じたぼけ補正フィルタを生成する。この処理は、ぼけ補正処理部210において実行される。
ぼけ補正処理部210は、像高算出部202から、ぼけ補正対象画素のxyアドレスに基づいて算出された像高(画像中心(=光学中心)からの距離)情報を入力して、像高等に応じたぼけ補正フィルタを生成する。
なお、この具体的な処理については後述する。
FIG. 5 is a flowchart for explaining the overall sequence of processing executed by the image signal correction unit 200.
First, in step S101, a blur correction filter corresponding to the image height or the like is generated. This process is executed in the blur correction processing unit 210.
The blur correction processing unit 210 receives image height (distance from the image center (= optical center)) information calculated based on the xy address of the blur correction target pixel from the image height calculation unit 202, and sets the image height and the like. A corresponding blur correction filter is generated.
This specific process will be described later.

次に、ステップS102において、ぼけ補正対象画素が飽和しているか否かが判定される。
具体的には、図4に示す飽和検出部203において、ぼけ補正対象画素の飽和検出が実行され、この検出情報がぼけ補正処理部210に入力される。
補正対象画素が飽和している場合、ぼけ補正を実行すると偽色が発生する可能性がある。これは、ぼけ補正処理には、ぼけ補正対象となる画素の周囲の画素の画素値を参照して、補正対象画素の画素値を設定する処理を含むからである。
Next, in step S102, it is determined whether the blur correction target pixel is saturated.
Specifically, the saturation detection unit 203 shown in FIG. 4 performs saturation detection of the blur correction target pixel, and this detection information is input to the blur correction processing unit 210.
When the correction target pixel is saturated, there is a possibility that a false color is generated when blur correction is performed. This is because the blur correction process includes a process of setting the pixel value of the correction target pixel with reference to the pixel values of the pixels around the pixel that is the blur correction target.

例えば、図6(a)に示す画像の画素領域271aはハイライト画素、すなわち飽和画素が含まれる画素領域である。
このような飽和画素を含む画素領域271aに対して、ぼけ補正処理を施すと、図6(b)の画素領域271bに示すようにぼけは減少するが、本来の被写体の色と異なる色が設定される偽色が発生する。
このような偽色発生を防止するため、図7に示すように、ぼけ補正対象画素の周囲、例えば補正対象画素を中心とする7×7画素に飽和画素が含まれる場合、補正対象画素のぼけ補正を行わない設定とする。
For example, the pixel region 271a of the image shown in FIG. 6A is a pixel region including a highlight pixel, that is, a saturated pixel.
When blur correction processing is performed on a pixel area 271a including such saturated pixels, blur is reduced as shown in the pixel area 271b of FIG. 6B, but a color different from the original subject color is set. A false color is generated.
In order to prevent such false color generation, as shown in FIG. 7, when a saturation pixel is included around a blur correction target pixel, for example, a 7 × 7 pixel centering on the correction target pixel, the blur of the correction target pixel is detected. Set to not perform correction.

このように、ぼけ補正処理部210は、飽和検出部203における飽和画素(ハイライト)領域の検出情報に応じて、飽和画素領域は、ぼけ補正処理なし信号に置き換える処理を行う。
飽和検出部203は、例えば、ぼけ処理対象画素を中心とした7×7画素領域の画素に対して、予め既定したしきい値を超えてないか判断する。7×7画素領域の1画素でもしきい値を超えていれば、飽和検出情報をぼけ補正処理部210に出力する。
ぼけ補正処理部210は、7×7画素領域の1画素でもしきい値を超えていれば、偽色が発生する可能性が高いため、補正処理なし信号に置き換える処理を行う。
As described above, the blur correction processing unit 210 performs processing for replacing the saturation pixel region with a signal without blur correction processing according to the detection information of the saturation pixel (highlight) region in the saturation detection unit 203.
For example, the saturation detection unit 203 determines whether or not a predetermined threshold value is exceeded for a pixel in a 7 × 7 pixel region centered on the blur processing target pixel. If even one pixel in the 7 × 7 pixel region exceeds the threshold value, the saturation detection information is output to the blur correction processing unit 210.
The blur correction processing unit 210 performs processing of replacing with a signal without correction processing because there is a high possibility that a false color will occur if even one pixel in the 7 × 7 pixel region exceeds the threshold value.

この処理は、図5に示すフローのステップS102の判定がYesと判定された場合の処理に対応し、この場合は、ステップS103,S104を実行せず、ステップS105に進む。
すなわち、処理対象画素(7×7画素の中心画素)に対するぼけ補正処理は実行しない。
This process corresponds to the process in the case where the determination in step S102 of the flow shown in FIG. 5 is Yes. In this case, the process proceeds to step S105 without executing steps S103 and S104.
That is, the blur correction process is not performed on the processing target pixel (the center pixel of 7 × 7 pixels).

ぼけ処理対象画素を中心とした7×7画素領域の画素のいすれも、予め既定したしきい値を超えず、飽和検出がなされなかった場合は、ステップS102の判定はNoとなり、ステップS103においてフィルタを適用したぼけ補正処理を実行する。
このぼけ補正処理は、図4に示すぼけ補正処理部210において実行する処理であり、ステップS101において生成した像高等に応じて生成されたぼけ補正フィルタを適用してぼけ補正処理が行われる。
If any of the pixels in the 7 × 7 pixel area centered on the blur processing target pixel does not exceed a predetermined threshold value and saturation is not detected, the determination in step S102 is No, and in step S103 The blur correction process with the filter applied is executed.
This blur correction process is a process executed in the blur correction processing unit 210 shown in FIG. 4, and the blur correction process is performed by applying the blur correction filter generated according to the image height generated in step S101.

次に、ステップS104においてエッジ検出処理が実行される。
この処理は、図4に示すエッジ検出部221において実行される。エッジ検出部221は、ラインメモリ201からの出力信号を検証して、画像に含まれるエッジ情報、例えばエッジ方向とエッジ強度を含むエッジ情報を生成する。
具体的には、前述したように、例えば、処理対象画素(7×7画素の中心画素)を中心として7×7画素の画素情報から算出される平坦度(weightFlat)を算出してブレンド処理部230に出力する。
Next, edge detection processing is executed in step S104.
This processing is executed in the edge detection unit 221 shown in FIG. The edge detection unit 221 verifies the output signal from the line memory 201 and generates edge information included in the image, for example, edge information including the edge direction and the edge strength.
Specifically, as described above, for example, the blend processing unit calculates the flatness (weightFlat) calculated from the pixel information of 7 × 7 pixels with the processing target pixel (the central pixel of 7 × 7 pixels) as the center. 230.

平坦度(weightFlat)は、図8に示すように、0〜1の範囲の値を持ち、
1に近いほど、平坦度が低い(テクスチャが多い)
0に近いほど、平坦度が高い(テクスチャが少ない)
このような画像状態を示す、平坦度の指標値である。
The flatness (weightFlat) has a value in the range of 0 to 1, as shown in FIG.
The closer to 1, the lower the flatness (the more texture)
The closer to 0, the higher the flatness (less texture)
This is an index value of flatness indicating such an image state.

図8に示すように、予め設定した2つの閾値(Limit0,Limit1)を用いて、平坦度(weightFlat)を以下のように算出する。
0≦(ratioFlat)<Limit0であれば、
平坦度(weightFlat)=0
Limit0≦(ratioFlat)<Limit1であれば、
平坦度(weightFlat)=0〜1
Limit1≦(ratioFlat)であれば、
平坦度(weightFlat)=1
とする。
As shown in FIG. 8, the flatness (weightFlat) is calculated as follows using two preset threshold values (Limit0, Limit1).
If 0 ≦ (ratioFlat) <Limit0,
Flatness (weightFlat) = 0
If Limit0 ≦ (ratioFlat) <Limit1,
Flatness (weightFlat) = 0-1
If Limit1 ≦ (ratioFlat),
Flatness (weightFlat) = 1
And

エッジ検出部221は、例えば、上記の平坦度(weightFlat)情報をエッジ情報として、ブレンド処理部230に出力する。
なお、前述したように、この平坦度(weightFlat)算出処理は、本出願人の先の出願である特開2011−55038号公報に記載の処理と同様の処理として実行可能であり、詳細は、特開2011−55038号公報を参照されたい。
For example, the edge detection unit 221 outputs the above-described flatness (weightFlat) information to the blend processing unit 230 as edge information.
As described above, this flatness (weightFlat) calculation process can be executed as a process similar to the process described in Japanese Patent Application Laid-Open No. 2011-55038, which is an earlier application of the present applicant. See Japanese Patent Application Laid-Open No. 2011-55038.

次に、ステップS105において、ブレンド処理が実行される。
この処理は、図4に示すブレンド処理部230の実行する処理である。ブレンド処理部230は、ラインメモリ201からの出力信号中のRGB信号(Rin,Gin,Bin)と、エッジ検出部221から出力されるエッジ情報、およびぼけ補正処理部210から出力されるぼけ補正信号(Rd,Gd,Bd)を入力する。
ブレンド処理部230は、これらの情報を利用して、エッジを考慮したぼけ補正のなされた出力信号RGBを生成してRGB信号処理部250に出力する。
Next, in step S105, a blend process is executed.
This process is a process executed by the blend processing unit 230 shown in FIG. The blend processing unit 230 includes RGB signals (Rin, Gin, Bin) in the output signal from the line memory 201, edge information output from the edge detection unit 221, and a blur correction signal output from the blur correction processing unit 210. Input (Rd, Gd, Bd).
Using this information, the blend processing unit 230 generates an output signal RGB that has been subjected to blur correction in consideration of edges, and outputs the output signal RGB to the RGB signal processing unit 250.

ブレンド処理部230は、加重加算処理部235を有し、加重加算処理部235は、エッジ検出部221で算出した処理対象画素のエッジ情報、すなわち、処理対象画素(7×7画素の中心画素)を中心として7×7画素の画素情報から算出される平坦度(weightFlat)に応じて、ぼけ補正処理部210から出力されるぼけ補正信号(Rd,Gd,Bd)の加重平均処理を実行して、RGB配列181のRGB各画素値を算出する。具体的には、以下の式に従ってRGB画素値を決定する。
R=(weightFlat)×(Rd)+(1−weightFlat)×Rin
G=(weightFlat)×(Gd)+(1−weightFlat)×Gin
B=(weightFlat)×(Bd)+(1−weightFlat)×Bin
この式の算出結果として得られるR、G、BをRGB信号処理部250に出力する。
The blend processing unit 230 includes a weighted addition processing unit 235, and the weighted addition processing unit 235 calculates the edge information of the processing target pixel calculated by the edge detection unit 221, that is, the processing target pixel (center pixel of 7 × 7 pixels). The weighted average processing of the blur correction signals (Rd, Gd, Bd) output from the blur correction processing unit 210 is executed according to the flatness (weightFlat) calculated from the pixel information of 7 × 7 pixels centering on , RGB pixel values of the RGB array 181 are calculated. Specifically, RGB pixel values are determined according to the following formula.
R = (weightFlat) × (Rd) + (1-weightFlat) × Rin
G = (weightFlat) × (Gd) + (1−weightFlat) × Gin
B = (weightFlat) × (Bd) + (1−weightFlat) × Bin
R, G, and B obtained as a calculation result of this expression are output to the RGB signal processing unit 250.

ブレンド処理部230の加重加算処理部235は、具体的には、例えば、エッジ検出部221で算出した処理対象画素のエッジ情報により、エッジ強度が大であると判定した画素位置ではぼけ補正信号のブレンド比率を高くし、エッジ強度が小であると判定した画素位置ではぼけ補正なし信号のブレンド比率を高く設定したブレンド処理を行う。
エッジの近傍においては高周波成分の復元されたシャープな信号であることが望ましいが、平坦部においては、元々高周波成分が含まれていないため、ノイズの抑制された信号であることが望ましいからである。
Specifically, the weighted addition processing unit 235 of the blend processing unit 230 specifically outputs, for example, a blur correction signal at a pixel position where the edge strength is determined to be high based on the edge information of the processing target pixel calculated by the edge detection unit 221. Blend processing is performed in which the blend ratio is set high and the blend ratio of the signal without blur correction is set high at the pixel position where the edge strength is determined to be small.
This is because it is desirable that the signal is a sharp signal with a high-frequency component restored in the vicinity of the edge, but since the high-frequency component is originally not included in the flat portion, it is desirable that the signal be suppressed in noise. .

ただし、前述したように、所定単位の画素領域、例えばぼけ補正処理対象となる画素を中心とした7×7画素領域に飽和画素が検出された場合、その画素については、ぼけ補正は実行されないので、撮像素子110からの入力画素値Rin,Gin,Binがそのまま、出力される。   However, as described above, when a saturated pixel is detected in a pixel unit of a predetermined unit, for example, a 7 × 7 pixel region centered on a pixel to be subjected to blur correction processing, blur correction is not performed for that pixel. The input pixel values Rin, Gin, Bin from the image sensor 110 are output as they are.

最後に、ステップS106において、すべての入力画素についての処理が完了したか否かを判定し、未処理画素が存在する場合は、未処理画素について、ステップS101からステップS105の処理を繰り返し実行する。
ステップS106において、すべての入力画素についての処理が完了したと判定した場合に、画像信号補正部200の処理が終了する。
Finally, in step S106, it is determined whether or not processing for all input pixels has been completed. If there are unprocessed pixels, the processing from step S101 to step S105 is repeatedly executed for the unprocessed pixels.
If it is determined in step S106 that the processing has been completed for all input pixels, the processing of the image signal correction unit 200 ends.

[3.実施例1に係る画像処理装置のぼけ補正処理の詳細について]
次に、図4に示す画像信号補正部200において実行するぼけ補正処理の具体例について説明する。
図4に示す画像信号補正部200のぼけ補正処理部210は、ラインメモリ201からの入力信号(Rin,Gin,Bin)を検証して、画像ぼけを削減する処理を行い、その処理結果として得られるぼけ補正信号(Rd,Gd,Bd)を算出してブレンド処理部230に出力する。
[3. Details of blur correction processing of image processing apparatus according to first embodiment]
Next, a specific example of the blur correction process executed in the image signal correction unit 200 shown in FIG. 4 will be described.
The blur correction processing unit 210 of the image signal correction unit 200 shown in FIG. 4 verifies the input signal (Rin, Gin, Bin) from the line memory 201, performs processing to reduce image blur, and obtains the processing result. The blur correction signal (Rd, Gd, Bd) is calculated and output to the blend processing unit 230.

ぼけ補正処理部210は、図5に示すフローのステップS101において、ぼけ補正対象画素の像高等に応じたぼけ補正フィルタを生成し、生成したフィルタを適用してステップS103においてぼけ補正処理を実行する。   The blur correction processing unit 210 generates a blur correction filter according to the image height or the like of the blur correction target pixel in step S101 of the flow illustrated in FIG. 5 and applies the generated filter to execute the blur correction process in step S103. .

図5のステップS101におけるフィルタ生成処理の詳細シーケンスを説明するフローチャートを図9に示す。
図9に示すフローチャートに従ってぼけ補正フィルタの生成処理の詳細について説明する。
FIG. 9 shows a flowchart for explaining a detailed sequence of the filter generation process in step S101 of FIG.
Details of the blur correction filter generation processing will be described with reference to the flowchart shown in FIG.

まず、ステップS121において、ぼけ補正対象画素のxyアドレス、すなわち座標(x,y)に応じたハイパスフィルタ、すなわち座標位置対応ハイパスフィルタ(HPF_dist)を生成する。   First, in step S121, a high-pass filter corresponding to the xy address of the blur correction target pixel, that is, the coordinate (x, y), that is, a high-pass filter corresponding to the coordinate position (HPF_dist) is generated.

ぼけ補正処理部210は、図4に示す像高算出部202から、補正対象画素の座標(x,y)と像高(画像中心からの距離)を入力して、座標位置対応ハイパスフィルタ(HPF_dist)を生成する。
この処理について、図10を参照して説明する。
The blur correction processing unit 210 inputs the coordinates (x, y) and the image height (distance from the image center) of the pixel to be corrected from the image height calculation unit 202 shown in FIG. 4, and performs a coordinate position corresponding high pass filter (HPF_dist). ) Is generated.
This process will be described with reference to FIG.

図10には、座標位置対応ハイパスフィルタ(HPF_dist)の生成処理シーケンスを説明するフローチャートと、このフィルタ生成に適用するパラメータ等各を説明する図を示している。   FIG. 10 shows a flowchart for explaining a generation processing sequence of the coordinate position corresponding high-pass filter (HPF_dist) and a diagram for explaining parameters such as parameters applied to this filter generation.

まず、ぼけ補正処理部210は、図10に示すフローのステップS131において、ぼけ補正対象画素の座標(x,y)に応じて、
(1)x方向調整用ハイパスフィルタ(HPF_x)と、
(2)y方向調整用ハイパスフィルタ(HPF_y)を
ブレンドする処理を実行して、
(3)座標位置反映フィルタ(HPF_xy)
を生成する。
First, in step S131 of the flow illustrated in FIG. 10, the blur correction processing unit 210 determines according to the coordinates (x, y) of the blur correction target pixel.
(1) an x-direction adjusting high-pass filter (HPF_x);
(2) A process of blending the y-direction adjusting high-pass filter (HPF_y) is executed,
(3) Coordinate position reflection filter (HPF_xy)
Is generated.

なお、
(1)x方向調整用ハイパスフィルタ(HPF_x)、
(2)y方向調整用ハイパスフィルタ(HPF_y)、
画像処理装置内のメモリに保持されたフィルタであり、ぼけ補正処理部210がメモリから取得するフィルタである。
これらのフィルタの具体例について、図11を参照して説明する。
In addition,
(1) x-direction adjusting high-pass filter (HPF_x),
(2) y-direction adjusting high-pass filter (HPF_y),
It is a filter held in a memory in the image processing apparatus, and is a filter that the blur correction processing unit 210 acquires from the memory.
Specific examples of these filters will be described with reference to FIG.

図11には、以下の3つのハイパスフィルタを示している。
(A)重心を変化させないハイパスフィルタ(HPF_center)
(B)重心をx方向(水平方向)へ変化させるx方向調整用ハイパスフィルタ(HPF_x)
(C)重心をy方向(垂直方向)へ変化させるy方向調整用ハイパスフィルタ(HPF_y)
FIG. 11 shows the following three high-pass filters.
(A) High-pass filter that does not change the center of gravity (HPF_center)
(B) High-pass filter for adjusting the x direction (HPF_x) that changes the center of gravity in the x direction (horizontal direction)
(C) y-direction adjusting high-pass filter (HPF_y) for changing the center of gravity in the y-direction (vertical direction)

図10に示すフローのステップS131では、
図11に示す(B)x方向調整用ハイパスフィルタ(HPF_x)と、(C)y方向調整用ハイパスフィルタ(HPF_y)を、ぼけ補正対象画素の座標(x,y)に応じて、ブレンドする処理を実行して、
座標位置反映フィルタ(HPF_xy)
を生成する。
In step S131 of the flow shown in FIG.
Processing for blending (B) x-direction adjusting high-pass filter (HPF_x) and (C) y-direction adjusting high-pass filter (HPF_y) shown in FIG. 11 according to the coordinates (x, y) of the blur correction target pixel. Run
Coordinate position reflection filter (HPF_xy)
Is generated.

具体的には、以下の式に従って、座標位置反映フィルタ(HPF_xy)
を生成する。
HPF_xy=(x×HPF_x+y×HPF_y)/(x+y)
Specifically, according to the following formula, the coordinate position reflection filter (HPF_xy)
Is generated.
HPF_xy = (x × HPF_x + y × HPF_y) / (x + y)

図10のステップS131では、このようにして、ぼけ補正対象画素の座標(x,y)に応じて、座標位置反映フィルタ(HPF_xy)を生成する。   In step S131 in FIG. 10, the coordinate position reflection filter (HPF_xy) is generated in this manner according to the coordinates (x, y) of the blur correction target pixel.

次にステップS132において、ぼけ補正対象画素の座標(x,y)と、画角中央位置[(x,y)=(0,0)]との距離(r)に基づいて、
(1)座標位置反映フィルタ(HPF_xy)と、
(2)画角中央位置[(x,y)=(0,0)]に対応する中心フィルタ(HPF_center)
をブレンドして、
(3)座標位置対応ハイパスフィルタ(HPF_dist)
を生成する。
Next, in step S132, based on the distance (r) between the coordinates (x, y) of the blur correction target pixel and the field angle center position [(x, y) = (0, 0)],
(1) a coordinate position reflection filter (HPF_xy);
(2) Center filter (HPF_center) corresponding to the view angle center position [(x, y) = (0, 0)]
Blend
(3) Coordinate position corresponding high pass filter (HPF_dist)
Is generated.

(1)座標位置反映フィルタ(HPF_xy)は、ステップS131において算出したフィルタである。
(2)画角中央位置[(x,y)=(0,0)]に対応する中心フィルタ(HPF_center)は、図11(A)に示すフィルタであり、画像処理装置内のメモリに保持されたフィルタであり、ぼけ補正処理部210がメモリから取得するフィルタである。
(1) The coordinate position reflection filter (HPF_xy) is a filter calculated in step S131.
(2) The center filter (HPF_center) corresponding to the center of view angle [(x, y) = (0, 0)] is the filter shown in FIG. 11A and is held in the memory in the image processing apparatus. The blur correction processing unit 210 acquires from the memory.

なお、図10の(a)パラメータ説明に示すように、
ぼけ補正対象画素の座標を(x,y)としたとき、
画像中心(0,0)からの距離rが像高として算出される。
また画角端(xmzx,ymax)までの像高最大値をrmaxとする。
As shown in (a) parameter description in FIG.
When the coordinates of the blur correction target pixel are (x, y),
The distance r from the image center (0, 0) is calculated as the image height.
The maximum image height up to the field angle end (xmzx, ymax) is defined as rmax.

ぼけ補正処理部210は、この設定の下で、
座標位置対応ハイパスフィルタ(HPF_dist)を以下の式に従って算出する。
HPF_dist=[(HPF_xy×r)+(HPF_center×(rmax−r))]/rmax
ぼけ補正処理部210は、ステップS132において、上記の処理に従って、座標位置対応ハイパスフィルタ(HPF_dist)を算出する。
Under this setting, the blur correction processing unit 210
A coordinate position corresponding high pass filter (HPF_dist) is calculated according to the following equation.
HPF_dist = [(HPF_xy × r) + (HPF_center × (rmax−r))] / rmax
In step S132, the blur correction processing unit 210 calculates a coordinate position-corresponding high-pass filter (HPF_dist) according to the above processing.

この図10のフローのステップS131〜S132の処理が、図9に示すフローのステップS121における処理であり、
これらの処理によって、座標位置対応ハイパスフィルタ(HPF_dist)が生成される。
The processing of steps S131 to S132 in the flow of FIG. 10 is the processing in step S121 of the flow shown in FIG.
By these processes, a coordinate position corresponding high pass filter (HPF_dist) is generated.

次に、図9に示すフローのステップS122において、
(1)基本フィルタ(default filter)と、
(2)座標位置対応ハイパスフィルタ(HPF_dist)を、
像高(r)と、フォーカス位置情報(focus)に応じて決定されるブレンド係数α(focus,r)に応じて、ブレンドし、
(3)座標位置対応基本フィルタ(Fbase)、
を生成する。
Next, in step S122 of the flow shown in FIG.
(1) a basic filter (default filter);
(2) The coordinate position corresponding high pass filter (HPF_dist) is
Blending according to the image height (r) and the blend coefficient α (focus, r) determined according to the focus position information (focus),
(3) Basic filter for coordinate position (Fbase),
Is generated.

(1)基本フィルタ(default filter)は、画像処理装置内のメモリに保持されたフィルタであり、ぼけ補正処理部210がメモリから取得するフィルタである。
具体的には、先に図2を参照して説明した最小二乗フィルタ、またはウィナー(Wiener)フィルタと呼ばれるフィルタが適用可能である。
(1) A basic filter (default filter) is a filter held in a memory in the image processing apparatus, and is a filter that the blur correction processing unit 210 acquires from the memory.
Specifically, a filter called the least square filter or the Wiener filter described above with reference to FIG. 2 can be applied.

画像処理装置は、例えばウィナーフィルタ等のぼけ補正フィルタを基本フィルタ(default filter)としてメモリに保持しており、
図9に示すフローチャートのステップS122において、この基本フィルタ(default filter)と、ステップS121において生成した座標位置対応ハイパスフィルタ(HPF_dist)をブレンドして、座標位置対応基本フィルタ(Fbase)を生成する。
The image processing apparatus holds a blur correction filter such as a Wiener filter in a memory as a basic filter (default filter).
In step S122 of the flowchart shown in FIG. 9, the basic filter (default filter) and the coordinate position corresponding high pass filter (HPF_dist) generated in step S121 are blended to generate a coordinate position corresponding basic filter (Fbase).

座標位置対応基本フィルタ(Fbase)は、像高(r)と、フォーカス位置情報(focus)に応じて決定されるブレンド係数αに基づいて、以下の式で算出する。
Fbase=(1.0−α)×(default filter)+α(HPF_dist)
The coordinate position-corresponding basic filter (Fbase) is calculated by the following formula based on the blend height α determined according to the image height (r) and the focus position information (focus).
Fbase = (1.0−α) × (default filter) + α (HPF_dist)

さらに、ステップ123において、ステップS122で生成した座標位置対応基本フィルタ(Fbase)に対して、像高とフォーカス位置に応じた強度調整パラメータβ(focus,r)を適用して、エンハンス強度調整した、実際のぼけ補正に適用するぼけ補正フィルタ(Ffinal)を生成する。
このステップS123で生成したぼけ補正フィルタ(Ffinal)が、処理対象画素(x,y)の画素に対する実際のぼけ補正処理に適用されるフィルタとなる。
Furthermore, in step 123, the intensity adjustment parameter β (focus, r) corresponding to the image height and the focus position is applied to the coordinate position corresponding basic filter (Fbase) generated in step S122, and the enhancement intensity adjustment is performed. A blur correction filter (Ffinal) to be applied to actual blur correction is generated.
The blur correction filter (Ffinal) generated in step S123 is a filter applied to the actual blur correction processing for the pixel of the processing target pixel (x, y).

まず、ステップS122において実行する処理、すなわち、
(1)基本フィルタ(default filter)と、
(2)座標位置対応ハイパスフィルタ(HPF_dist)を、
像高(r)と、フォーカス位置情報(focus)に応じて決定されるブレンド係数α(focus,r)に応じて、ブレンドし、
(3)座標位置対応基本フィルタ(Fbase)、
を生成する。
この処理について図12他を参照して説明する。
First, the process executed in step S122, that is,
(1) a basic filter (default filter);
(2) The coordinate position corresponding high pass filter (HPF_dist) is
Blending according to the image height (r) and the blend coefficient α (focus, r) determined according to the focus position information (focus),
(3) Basic filter for coordinate position (Fbase),
Is generated.
This process will be described with reference to FIG.

(1)基本フィルタ(default filter)と、
(2)座標位置対応ハイパスフィルタ(HPF_dist)との、
像高(r)と、フォーカス位置情報(focus)に応じて決定されるブレンド係数αに基づくブレンド処理は、フィルタ周波数特性の調整(チューニング)処理に相当する処理である。
(1) a basic filter (default filter);
(2) With the coordinate position corresponding high pass filter (HPF_dist),
The blending process based on the blending coefficient α determined according to the image height (r) and the focus position information (focus) is a process corresponding to the filter frequency characteristic adjustment (tuning) process.

すなわち、像高(r)と、フォーカス位置情報(focus)に応じて決定されるブレンド係数αに基づいて、フィルタの周波数特性を変更する処理として行われる。
図12に示すグラフは、フィルタのエンハンス特性を示す図であり、横軸に空間周波数、縦軸に、フィルタ適用後の画素値出力に相当する強度(Magnitude)を示している。
上述したブレンド処理に適用するブレンド係数:αの様々な設定(α=−0.5〜1.5)において生成されるフィルタのエンハンス特性を示している。
That is, it is performed as a process of changing the frequency characteristics of the filter based on the image height (r) and the blend coefficient α determined according to the focus position information (focus).
The graph shown in FIG. 12 is a diagram showing the enhancement characteristics of a filter. The horizontal axis represents the spatial frequency, and the vertical axis represents the intensity (Magnitude) corresponding to the pixel value output after applying the filter.
It shows the enhancement characteristic of the filter generated at various settings (α = −0.5 to 1.5) of the blend coefficient α applied to the blending process described above.

前述したように、座標位置対応基本フィルタ(Fbase)は、像高(r)と、フォーカス位置情報(focus)に応じて決定されるブレンド係数αに基づいて、以下の式で算出する。
Fbase=(1.0−α)×(default filter)+α(HPF_dist)
As described above, the coordinate position-corresponding basic filter (Fbase) is calculated by the following equation based on the image height (r) and the blend coefficient α determined according to the focus position information (focus).
Fbase = (1.0−α) × (default filter) + α (HPF_dist)

上記式において、
ブレンド係数:α=0とした場合、
Fbase=(default filter)
であり、
図12に示すα=0.0に示す特性を持つラインのフィルタとなる。
In the above formula,
Blend coefficient: When α = 0,
Fbase = (default filter)
And
A line filter having the characteristic of α = 0.0 shown in FIG. 12 is obtained.

また、上記式において、
ブレンド係数:α=1.0とした場合、
Fbase=(HPF_dist)
であり、
図12に示すα=1.0に示す特性を持つラインのフィルタとなる。
In the above formula,
Blend coefficient: When α = 1.0,
Fbase = (HPF_dist)
And
A line filter having the characteristic of α = 1.0 shown in FIG. 12 is obtained.

すなわち、αを様々な値に変更することで、図12に示す例えば、
α=−0.5〜1.5の各周波数特性を持つフィルタを生成することができる。
このように、図9に示すフローのステップS122で実行する座標位置対応基本フィルタ(Fbase)の生成は、
(1)基本フィルタ(default filter)と、
(2)座標位置対応ハイパスフィルタ(HPF_dist)との、
ブレンドによるフィルタ周波数特性の調整(チューニング)処理に相当する処理として実行される。
That is, by changing α to various values, for example, as shown in FIG.
A filter having each frequency characteristic of α = −0.5 to 1.5 can be generated.
Thus, the generation of the coordinate position corresponding basic filter (Fbase) executed in step S122 of the flow shown in FIG.
(1) a basic filter (default filter);
(2) With the coordinate position corresponding high pass filter (HPF_dist),
It is executed as a process corresponding to a filter frequency characteristic adjustment (tuning) process by blending.

なお、ブレンド係数αは、像高(r)と、フォーカス位置情報(focus)に応じて決定される。
ブレンド係数αの設定例について、図13を参照して説明する。
The blend coefficient α is determined according to the image height (r) and the focus position information (focus).
A setting example of the blend coefficient α will be described with reference to FIG.

図13には、以下の各図を示している。
(a)レンズMTF特性
(b)ウィナー(Wiener)フィルタ特性
(c)ブレンド係数αの設定例
FIG. 13 shows the following figures.
(A) Lens MTF characteristics (b) Wiener filter characteristics (c) Setting example of blend coefficient α

図13(a)に示すように、一般に、像高が大きく(画像中心からの距離が大になる)につれて、MTF特性は劣化する。特に高周波領域はノイズに埋もれる領域となるため、図13(b)に示すように、ウィナー(Wiener)フィルタのエンハンス特性は低周波領域側へシフトする。
そのため、図13(c)に示すように、像高が大きく(画像中心からの距離が大になる)につれて、ハイパスフィルタのブレンド率を減少させる。すなわち、ブレンド係数αを小さくすることが好ましい。
フォーカスずれに関しても同様のことが言える。すなわち、フォーカスずれが大になるほど、ブレンド係数αを小さくする。
As shown in FIG. 13A, in general, the MTF characteristics deteriorate as the image height increases (the distance from the image center increases). In particular, since the high frequency region is a region buried in noise, as shown in FIG. 13B, the enhancement characteristic of the Wiener filter is shifted to the low frequency region side.
Therefore, as shown in FIG. 13C, as the image height increases (the distance from the image center increases), the blend ratio of the high-pass filter is decreased. That is, it is preferable to reduce the blend coefficient α.
The same can be said about the focus shift. That is, the blend coefficient α is decreased as the focus shift increases.

なお、フォーカスずれは、画像処理装置(カメラ)固有の値であり、各フォーカス位置に対応して発生するずれ量が各カメラにおける固有値となる。従ってフォーカスずれ量は、フォーカス位置情報から算出可能であり、ぼけ補正部210は図3に示す制御部140からフォーカス位置情報(図4参照)を受領して、予め設定された算出式にしたがってフォーカスずれ量を算出し、フォーカスずれ量と、像高算出部202から取得する像高rを用いてブレンド係数α(focus,r)を算出する。   The focus shift is a value unique to the image processing apparatus (camera), and the shift amount generated corresponding to each focus position is a unique value in each camera. Accordingly, the focus shift amount can be calculated from the focus position information, and the blur correction unit 210 receives the focus position information (see FIG. 4) from the control unit 140 shown in FIG. A deviation amount is calculated, and a blend coefficient α (focus, r) is calculated using the focus deviation amount and the image height r acquired from the image height calculation unit 202.

ぼけ補正処理部210は、このように、図9に示すフローのステップS122において、
(1)基本フィルタ(default filter)と、
(2)座標位置対応ハイパスフィルタ(HPF_dist)を、
像高(r)と、フォーカス位置情報(focus)に応じて決定されるブレンド係数α(focus,r)に応じて、ブレンドし、
(3)座標位置対応基本フィルタ(Fbase)、
を生成する。
As described above, the blur correction processing unit 210 in step S122 of the flow shown in FIG.
(1) a basic filter (default filter);
(2) The coordinate position corresponding high pass filter (HPF_dist) is
Blending according to the image height (r) and the blend coefficient α (focus, r) determined according to the focus position information (focus),
(3) Basic filter for coordinate position (Fbase),
Is generated.

次に、ステップS123の処理、すなわち、
ステップS122で生成した座標位置対応基本フィルタ(Fbase)に対して、像高とフォーカス位置に応じた強度調整パラメータβ(focus,r)を適用して、エンハンス強度調整したぼけ補正フィルタ(Ffinal)を生成する処理について説明する。
Next, the process of step S123, that is,
A blur correction filter (Ffinal) whose enhancement intensity is adjusted by applying an intensity adjustment parameter β (focus, r) corresponding to the image height and focus position to the coordinate position corresponding basic filter (Fbase) generated in step S122. The process to generate will be described.

ステップS123の処理は、
(a)図14に示す帯域分離処理と交流成分に対するエンハンス強度の乗算、
(b)図15に示す再合成処理、
これらの処理によって行われる。
The process of step S123 is
(A) Multiplying the band separation process shown in FIG.
(B) Resynthesis process shown in FIG.
These processes are performed.

まず、図14に示す帯域分離処理について説明する。
図14に示す座標位置対応基本フィルタ(Fbase)は、図9に示すフローのステップS122の処理において生成されたフィルタである。
まず、この座標位置対応基本フィルタ(Fbase)を直流成分と交流成分に帯域分離して、2つのフィルタに分離する。
直流成分は、7×7画素のフィルタの中央のみが係数=1.0、その他の画素の係数はすべて0に設定されたフィルタである。
交流成分は、座標位置対応基本フィルタ(Fbase)の係数から直流成分の係数を減算した係数を持つフィルタである。
First, the band separation process shown in FIG. 14 will be described.
The coordinate position-corresponding basic filter (Fbase) shown in FIG. 14 is a filter generated in the process of step S122 of the flow shown in FIG.
First, the coordinate position corresponding basic filter (Fbase) is band-separated into a direct current component and an alternating current component and separated into two filters.
The DC component is a filter in which only the center of the filter of 7 × 7 pixels is set to coefficient = 1.0, and the coefficients of other pixels are all set to 0.
The AC component is a filter having a coefficient obtained by subtracting the coefficient of the DC component from the coefficient of the coordinate position corresponding basic filter (Fbase).

さらに、交流成分に対して、エンハンス強度(=強度調整パラメータβ)を乗算する。
この交流成分とエンハンス強度との乗算結果と、直流成分を加算する再合成処理によって、図15に示す最終的なぼけ補正に適用するぼけ補正フィルタ(Ffinal)を生成する。
エンハンス強度が強度調整パラメータβに相当する。
図14、図15に示す例では、
エンハンス強度調整パラメータβ=1.5の例を示している。
Further, the AC component is multiplied by an enhancement strength (= strength adjustment parameter β).
A blur correction filter (Ffinal) to be applied to the final blur correction shown in FIG. 15 is generated by the multiplication result of the AC component and the enhancement intensity and the recombining process of adding the DC component.
The enhancement strength corresponds to the strength adjustment parameter β.
In the example shown in FIGS.
An example of the enhancement strength adjustment parameter β = 1.5 is shown.

図14に示す帯域分離処理によって生成された交流成分のフィルタ係数にエンハンス強度調整パラメータβ=1.5を乗算し、乗算結果と直流性分の各対応係数を加算する合成処理によって、エンハンス強度調整のなされた最終的な図15に示す係数を持つぼけ補正フィルタ(Ffinal)を生成する。   The enhancement intensity adjustment is performed by a synthesis process in which the filter coefficient of the AC component generated by the band separation process shown in FIG. 14 is multiplied by the enhancement intensity adjustment parameter β = 1.5, and the corresponding coefficient and the corresponding coefficient for the DC property are added. The final blur correction filter (Ffinal) having the coefficients shown in FIG. 15 is generated.

エンハンス強度調整パラメータβの設定と、フィルタの特性の変化について、図16を参照して説明する。
図16は、先に図12を参照して説明したと同様の、フィルタのエンハンス特性を示す図であり、横軸に空間周波数、縦軸に、フィルタ適用後の画素値出力に相当する強度(Magnitude)を示している。
The setting of the enhancement strength adjustment parameter β and the change in filter characteristics will be described with reference to FIG.
FIG. 16 is a diagram showing the enhancement characteristics of the filter as described above with reference to FIG. 12. The horizontal axis represents the spatial frequency, the vertical axis represents the intensity corresponding to the pixel value output after the filter application ( Magnitude).

座標位置対応基本フィルタ(Fbase)のエンハンス特性が、例えば図に示す点線で示す特性を持つとする。
この特性を持つ座標位置対応基本フィルタ(Fbase)に対して、図14、図15を参照して説明した、
(s1)直流成分と交流成分との帯域分離と、
(s2)エンハンス強度調整パラメータβ=1.5を適用した交流性分に対する乗算と、
(s3)交流成分に対する乗算結果と直流成分の加算処理による再合成処理、
これら(s1)〜(s3)の処理の結果として、図16の実線で示す特性を持つ
ぼけ補正フィルタ(Ffinal)
を生成することができる。
It is assumed that the enhancement characteristic of the coordinate position-corresponding basic filter (Fbase) has a characteristic indicated by a dotted line shown in the figure, for example.
With respect to the coordinate position-corresponding basic filter (Fbase) having this characteristic, it has been described with reference to FIGS.
(S1) Band separation of the DC component and the AC component;
(S2) Multiplying the AC component to which the enhancement strength adjustment parameter β = 1.5 is applied;
(S3) Recombining process by adding the multiplication result of the AC component and the DC component,
As a result of the processing of (s1) to (s3), the blur correction filter (Ffinal) having the characteristics shown by the solid line in FIG.
Can be generated.

図16に示す例は、
エンハンス強度調整パラメータβ=1.5
の例であるが、
βの値を変化させることで、様々な設定を持つぼけ補正フィルタ(Ffinal)を生成することができる。
The example shown in FIG.
Enhancement strength adjustment parameter β = 1.5
Is an example of
By changing the value of β, it is possible to generate a blur correction filter (Ffinal) having various settings.

なお、エンハンス強度調整パラメータβは、先に説明したブレンド係数αと同様、像高(r)と、フォーカス位置情報(focus)に応じて決定される。
エンハンス強度調整パラメータβの設定例について、図17を参照して説明する。
The enhancement intensity adjustment parameter β is determined according to the image height (r) and the focus position information (focus), as with the blend coefficient α described above.
A setting example of the enhancement strength adjustment parameter β will be described with reference to FIG.

図17には、以下の各図を示している。
(a)レンズMTF特性
(b)ウィナー(Wiener)フィルタ特性
(c)エンハンス強度調整パラメータβの設定例
FIG. 17 shows the following figures.
(A) Lens MTF characteristics (b) Wiener filter characteristics (c) Setting example of enhancement strength adjustment parameter β

図17(a)に示すように、一般に、像高が大きく(画像中心からの距離が大になる)につれて、MTF特性は劣化する。そのため、図17(b)に示すように、ウィナー(Wiener)フィルタのエンハンス強度も大きくなる。
そのため、図17(c)に示すように、像高が大きく(画像中心からの距離が大になる)につれて、エンハンス強度調整パラメータβを大きくすることが好ましい。
フォーカスずれに関しても同様のことが言える。すなわち、フォーカスずれが大になるほど、エンハンス強度調整パラメータβを大きくする。
As shown in FIG. 17A, generally, the MTF characteristics deteriorate as the image height increases (the distance from the image center increases). Therefore, as shown in FIG. 17B, the enhancement strength of the Wiener filter is also increased.
Therefore, as shown in FIG. 17C, it is preferable to increase the enhancement intensity adjustment parameter β as the image height increases (the distance from the image center increases).
The same can be said about the focus shift. That is, the enhancement intensity adjustment parameter β is increased as the focus shift increases.

なお、前述したようにフォーカスずれは、画像処理装置(カメラ)固有の値であり、各フォーカス位置に対応して発生するずれ量が各カメラにおける固有値となる。従ってフォーカスずれ量は、フォーカス位置情報から算出可能であり、ぼけ補正部210は図3に示す制御部140からフォーカス位置情報(図4参照)を受領して、予め設定された算出式にしたがってフォーカスずれ量を算出し、フォーカスずれ量と、像高算出部202から取得する像高rを用いてエンハンス強度調整パラメータβ(focus,r)を算出する。   As described above, the focus shift is a value unique to the image processing apparatus (camera), and a shift amount generated corresponding to each focus position is a unique value in each camera. Accordingly, the focus shift amount can be calculated from the focus position information, and the blur correction unit 210 receives the focus position information (see FIG. 4) from the control unit 140 shown in FIG. The shift amount is calculated, and the enhancement intensity adjustment parameter β (focus, r) is calculated using the focus shift amount and the image height r acquired from the image height calculation unit 202.

ぼけ補正処理部210は、このように、図9に示すフローのステップS123において、
ステップS122で生成した座標位置対応基本フィルタ(Fbase)に対して、像高とフォーカス位置に応じた強度調整パラメータβ(focus,r)を適用して、エンハンス強度調整したぼけ補正フィルタ(Ffinal)を生成する。
As described above, the blur correction processing unit 210 in step S123 of the flow shown in FIG.
A blur correction filter (Ffinal) whose enhancement intensity is adjusted by applying an intensity adjustment parameter β (focus, r) corresponding to the image height and focus position to the coordinate position corresponding basic filter (Fbase) generated in step S122. Generate.

この図9に示すフローのステップS123において生成したぼけ補正フィルタ(Ffinal)が、図4に示す画像信号補正部200の全体処理シーケンスとして説明した図5に示全体処理フローのステップS101において生成するぼけ補正フィルタである。
このぼけ補正フィルタは、像高、フォーカス位置に応じたフィルタであり、各補正画素位置、各フォーカス位置に応じて、逐次生成されるフィルタである。
図5に示すフローのステップS101で生成したぼけ補正フィルタ(Ffinal)がステップS103において適用されて、各画素のぼけ補正処理が実行される。
なお、このフィルタ適用処理は、先に図2を参照して説明した処理と同様の処理である。
図2に示す(b)ウィナーフィルタの代わりに、上述の処理によって生成したぼけ補正フィルタ(Ffinal)が適用される。
The blur correction filter (Ffinal) generated in step S123 of the flow shown in FIG. 9 is generated in step S101 of the overall processing flow shown in FIG. 5 described as the overall processing sequence of the image signal correction unit 200 shown in FIG. It is a correction filter.
This blur correction filter is a filter according to the image height and the focus position, and is a filter that is sequentially generated according to each correction pixel position and each focus position.
The blur correction filter (Ffinal) generated in step S101 of the flow shown in FIG. 5 is applied in step S103, and blur correction processing for each pixel is executed.
This filter application process is the same as the process described above with reference to FIG.
The blur correction filter (Ffinal) generated by the above-described processing is applied instead of the (b) Wiener filter shown in FIG.

すなわち、補正対象画素を中心とした所定単位の画素領域(例えば7×7画素)の画素領域の画素に対して、上述の処理によって生成したぼけ補正フィルタ(Ffinal)の係数を乗算して加算する畳み込み演算を実行して、中心画素の補正画素値を算出する。
なお、前述したように、図5のフローに示すステップS102において飽和検出がなされた場合は、ぼけ補正処理は省略される。
補正対象画素を中心とした所定単位の画素領域(例えば7×7画素)の画素領域に飽和画素が検出されない場合に、上述の処理によって生成したぼけ補正フィルタ(Ffinal)を適用した画素値補正によるぼけ補正処理が実行される。
That is, the pixel of a pixel region of a predetermined unit centered on the pixel to be corrected (for example, 7 × 7 pixels) is multiplied by the coefficient of the blur correction filter (Ffinal) generated by the above processing and added. A convolution operation is executed to calculate a corrected pixel value of the center pixel.
As described above, when saturation is detected in step S102 shown in the flow of FIG. 5, the blur correction process is omitted.
By pixel value correction using the blur correction filter (Ffinal) generated by the above-described process when a saturated pixel is not detected in a pixel area of a predetermined unit pixel area (for example, 7 × 7 pixels) centering on the correction target pixel A blur correction process is executed.

上述したように、本実施例において生成するぼけ補正フィルタ(Ffinal)は、補正対象の画素位置、具体的には像高と、フォーカス位置を考慮して係数調整がなされたフィルタとなる。すなわち、像高とフォーカス位置に応じて周波数特性、強度特性を調整したフィルタにより、各画素位置、フォーカス位置に応じた最適なぼけ補正が可能となる。   As described above, the blur correction filter (Ffinal) generated in the present embodiment is a filter whose coefficient is adjusted in consideration of the pixel position to be corrected, specifically the image height and the focus position. That is, it is possible to perform optimum blur correction according to each pixel position and focus position by using a filter whose frequency characteristics and intensity characteristics are adjusted according to the image height and the focus position.

なお、上述の実施例では、図5に示すフローのステップS101において生成するぼけ補正フィルタを、図8、図9に示すフローに従って最終的に生成されるぼけ補正フィルタ(Ffinal)とし、このぼけ補正フィルタ(Ffinal)を、図5に示すステップS103において適用して各画素のぼけ補正処理が実行する処理として説明した。   In the above-described embodiment, the blur correction filter (Ffinal) finally generated according to the flow shown in FIGS. 8 and 9 is used as the blur correction filter generated in step S101 of the flow shown in FIG. The filter (Ffinal) has been described as a process executed by the blur correction process of each pixel by applying it in step S103 shown in FIG.

しかし、例えば、図9に示すフローのステップS123を省略し、ステップS122において、ブレンド係数α(focus,r)に基づいて生成した座標位置対応基本フィルタ(Fbase)を最終的なぼけ補正フィルタとして適用してもよい。   However, for example, step S123 in the flow shown in FIG. 9 is omitted, and in step S122, the coordinate position corresponding basic filter (Fbase) generated based on the blend coefficient α (focus, r) is applied as the final blur correction filter. May be.

あるいは、図9に示すフローのステップS121やステップS122を省略し、ステップS123の処理のみによってぼけ補正フィルタを生成してもよい。すなわち、予メモリに保持した基本フィルタ(default filter)に対して、図9に示すフローのステップ123の処理、すなわち、図14と図15を参照して説明した帯域分離処理とエンハンス強度調整パラメータβ(focus,r)を適用した交流成分の強度調整と、再合成処理を実行して生成したフィルタをぼけ補正に適用してもよい。   Alternatively, step S121 and step S122 in the flow shown in FIG. 9 may be omitted, and the blur correction filter may be generated only by the process of step S123. That is, for the basic filter (default filter) held in the pre-memory, the process of step 123 of the flow shown in FIG. 9, that is, the band separation process and the enhancement strength adjustment parameter β described with reference to FIGS. A filter generated by executing the intensity adjustment of the alternating current component to which (focus, r) is applied and the resynthesis process may be applied to the blur correction.

また、上記実施例では、像高(r)と、フォーカス位置情報(focus)を適用してブレンド係数αや、エンハンス強度調整パラメータβを決定する構成例を説明したが、ブレンド係数αや、エンハンス強度調整パラメータβは、像高のみに依存して決定する構成としてもよい。あるいはフォーカス位置情報(focus)のみに依存して決定する構成としてもよい。さらに、その他のパラメータ、例えばズーム位置などを考慮して決定する構成としてもよい。   In the above embodiment, the configuration example in which the blend coefficient α and the enhancement intensity adjustment parameter β are determined by applying the image height (r) and the focus position information (focus) has been described. The intensity adjustment parameter β may be determined depending on only the image height. Alternatively, it may be determined depending only on the focus position information (focus). Furthermore, the configuration may be determined in consideration of other parameters such as a zoom position.

[4.(実施例2)色比率を考慮したぼけ補正を実行する画像処理装置の構成例について]
上述した実施例において、撮像素子はRGB配列を持つ構成であった。昨今、RGBに加え、RGBを含む可視光を透過するW(ホワイト)を加えたRGBW配列を持つフィルタを備えた撮像素子が多く利用されている。
[4. Second Embodiment Regarding Configuration Example of Image Processing Device that Performs Blur Correction Considering Color Ratio]
In the embodiment described above, the image sensor has a configuration having an RGB array. In recent years, an image pickup device including a filter having an RGBW array in which W (white) that transmits visible light including RGB in addition to RGB is added is widely used.

前述したように、このようなW(White)画素を備えたRGBW配列を持つフィルタを利用した場合、W画素が波長領域の広い可視光を透過するため、被写体の色によってぼけ方が異なる。
本出願人が先に出願した前述の特許文献4(特開2011−055038号公報)においても、RGBW画素配列を持つ撮影画像に対するぼけ補正処理構成を開示しているが、この先行出願において開示した処理は、W(White)画素に対するぼけ補正において、色比率を考慮せずに補正を行う構成であり、色比率に応じて異なるぼけ方を生じるW画素に対して十分な補正効果が得られない場合がある。
以下では、このような問題を解決した実施例について説明する。
As described above, when a filter having an RGBW arrangement including such W (White) pixels is used, the W pixel transmits visible light having a wide wavelength region, and thus the blur is different depending on the color of the subject.
The above-mentioned Patent Document 4 (Japanese Patent Laid-Open No. 2011-055038) filed earlier by the present applicant also discloses a blur correction processing configuration for a photographed image having an RGBW pixel array, but this is disclosed in this prior application. The processing is a configuration in which the correction is performed without considering the color ratio in the blur correction for the W (White) pixel, and a sufficient correction effect cannot be obtained for the W pixel that generates a different blur depending on the color ratio. There is a case.
Hereinafter, an embodiment that solves such a problem will be described.

図18はRGBWフィルタにおける各色の分光強度特性を示す図である。
R(赤)は、600nm付近の赤色に相当する波長光を効率的に透過させる。
G(緑)は、530nm付近の緑色に相当する波長光を効率的に透過させる。
B(青)は、430nm付近の青色に相当する波長光を効率的に透過させる。
これらRGBフィルタに対して、
W(白)は、RGB各波長光をすべて透過させる。
FIG. 18 is a diagram showing the spectral intensity characteristics of each color in the RGBW filter.
R (red) efficiently transmits light having a wavelength corresponding to red near 600 nm.
G (green) efficiently transmits light having a wavelength corresponding to green around 530 nm.
B (blue) efficiently transmits light having a wavelength corresponding to blue around 430 nm.
For these RGB filters,
W (white) transmits all the R, G, and B wavelengths.

図19は、RGBW各色のMTF特性を示す図である。横軸に空間周波数、縦軸にMTFを示している。なお、入射光は白色を仮定している。
MTFが高いほど、ぼけが少なく、MTFが低下するほど、ぼけ度合いが大きくなる。
例えば緑(G)は、他の各色RGに対して、広い空間周波数に渡ってMTFが高い値であり、ぼけが少ない。これは、入射光にG(緑)成分が多い場合にはぼけが少なくなり、R(赤)やB(青)が多い場合にはぼけが大きくなることを意味している。
FIG. 19 is a diagram showing the MTF characteristics of each color of RGBW. The horizontal axis shows the spatial frequency, and the vertical axis shows the MTF. The incident light is assumed to be white.
The higher the MTF, the less blur, and the lower the MTF, the greater the degree of blur.
For example, green (G) has a high value of MTF over a wide spatial frequency and less blur for each of the other colors RG. This means that the blur is reduced when the G (green) component is large in the incident light, and the blur is increased when the R (red) and B (blue) are large.

ベイヤ配列のRGB配列を利用した構成の場合、RGB各色のMTF特性に応じたフィルタを利用することで、RGB個別の特性に応じたにぼけ補正が可能である。すなわち、R,G,Bの各画素に対するぼけ補正に、R用,G用、B用の各ぼけ補正フィルタを適用すればRGB各々のMTF特性に対応して適切な補正が可能となる。   In the case of the configuration using the RGB array of the Bayer array, blur correction can be performed according to the individual RGB characteristics by using a filter corresponding to the MTF characteristics of each RGB color. That is, if the blur correction filters for R, G, and B are applied to the blur correction for each pixel of R, G, and B, appropriate correction corresponding to each MTF characteristic of RGB can be performed.

しかし、W(White)の場合、Wのフィルタを介して入力される波長光は、被写体の色に応じて異なることになる。結果として、被写体と光源の色に応じてMTF特性も変化し、被写体と光源の色に応じてぼけ方も異なる。従って、1つのフィルタを適用しても、適切な補正を行うことは困難となる。
なお、図19に示すW(White)のMTF特性は入射光が白色光の場合の一例にすぎず、W(White)のMTF特性は被写体の色に応じて、大きく変化してしまう。
However, in the case of W (White), the wavelength light input through the W filter differs depending on the color of the subject. As a result, the MTF characteristics also change depending on the colors of the subject and the light source, and the blurring method varies depending on the colors of the subject and the light source. Therefore, even if one filter is applied, it is difficult to perform appropriate correction.
Note that the W (White) MTF characteristic shown in FIG. 19 is merely an example of the case where the incident light is white light, and the W (White) MTF characteristic changes greatly depending on the color of the subject.

以下、この問題を解決するため、色比率を考慮したぼけ補正を実行する構成例について説明する。
以下において説明する画像処理装置(撮像装置)は、RGBW配列を持つフィルタを利用した撮像素子からの入力信号に対する処理を実行する。
画像処理装置は、ぼけ補正処理に加え、RGBW画像をRGB画像に変換する処理を実行する。
Hereinafter, in order to solve this problem, a configuration example in which blur correction is performed in consideration of the color ratio will be described.
An image processing apparatus (imaging apparatus) described below executes processing on an input signal from an imaging element using a filter having an RGBW array.
In addition to the blur correction process, the image processing apparatus executes a process of converting an RGBW image into an RGB image.

まず、図20を参照してRGBW画像のRGB画像への変換処理について説明する。
本実施例の画像処理装置は、RGB各色の波長光を選択的に透過するRGBフィルタに加え、RGB各波長光をすべて透過するホワイト(W:White)を含むRGBW型のカラーフィルタを持つ撮像素子(イメージセンサ)の取得データに対する処理を行う。
First, conversion processing of an RGBW image into an RGB image will be described with reference to FIG.
The image processing apparatus according to this embodiment includes an RGBW color filter including white (W: White) that transmits all the RGB wavelength light in addition to the RGB filter that selectively transmits the wavelength light of each RGB color. Processing is performed on acquired data of (image sensor).

具体的には、図20(1)に示すような、ホワイト(W:White)を含む例えばRGBW型のカラーフィルタを持つ撮像素子の取得データを、図20(2)に示すRGB配列(ベイヤ配列)に変換する処理を実行する。さらに、この変換処理に際して、ぼけや偽色の発生を低下させるための処理を併せて実行する。   Specifically, as shown in FIG. 20A, acquired data of an image sensor having, for example, an RGBW type color filter including white (W: White) is converted into an RGB array (Bayer array) shown in FIG. ) Is executed. Further, in this conversion process, a process for reducing the occurrence of blur and false colors is also executed.

具体的には、RGBW配列からRGBベイヤ配列への変換処理において、以下の5つの変換や補正処理を実行する。
W画素位置をG画素に変換(G画素値を推定)する=(GonW)
G画素位置をR画素に変換(R画素値を推定)する=(RonG)
G画素位置をB画素に変換(B画素値を推定)する=(BonG)
R画素位置をR画素に変換(R画素値を補正)する=(RonR)
B画素位置にB画素に変換(B画素値を補正)する=(BonB)
Specifically, in the conversion process from the RGBW array to the RGB Bayer array, the following five conversions and correction processes are executed.
Convert W pixel position to G pixel (estimate G pixel value) = (GonW)
Convert G pixel position to R pixel (estimate R pixel value) = (RonG)
Convert G pixel position to B pixel (estimate B pixel value) = (BonG)
Convert R pixel position to R pixel (correct R pixel value) = (RonR)
Convert to B pixel at B pixel position (correct B pixel value) = (BonB)

上記の各変換処理は、RGBW配列におけるRGBW各画素をRGB配列におけるRGB画素に変換するための画素値推定または補正処理として行われる。これらの処理を実行することで、図20(1)に示すRGBWのカラー配列から図20(2)に示すRGBベイヤ配列を生成する。   Each conversion process described above is performed as a pixel value estimation or correction process for converting each RGBW pixel in the RGBW array into an RGB pixel in the RGB array. By executing these processes, the RGB Bayer array shown in FIG. 20 (2) is generated from the RGBW color array shown in FIG. 20 (1).

以下、このようなカラー配列の変換処理をリモザイク処理と呼ぶ。
以下の実施例では、ホワイト(W)を持つRGBW型カラー配列をRGB型カラー配列(ベイヤ配列)に変換するリモザイク処理を実行し、かつ、このリモザイク処理に際して、ぼけの発生や偽色の発生を低減させる処理を実行する構成について説明する。
Hereinafter, such color array conversion processing is referred to as re-mosaic processing.
In the following embodiment, a re-mosaic process for converting an RGBW color array having white (W) into an RGB-type color array (Bayer array) is executed, and in the re-mosaic process, blurring or false colors are generated. A configuration for executing the processing to be reduced will be described.

図21は、本実施例の画像処理装置の一実施例である撮像装置300の構成例を示す図である。撮像装置300は、光学レンズ3105、撮像素子(イメージセンサ)310、信号処理部320、メモリ330、制御部340を有する。これらの基本構成は先に、図3を参照して説明した構成と同様である。   FIG. 21 is a diagram illustrating a configuration example of an imaging apparatus 300 that is an example of the image processing apparatus according to the present embodiment. The imaging apparatus 300 includes an optical lens 3105, an imaging element (image sensor) 310, a signal processing unit 320, a memory 330, and a control unit 340. These basic configurations are the same as those described above with reference to FIG.

なお、撮像装置は画像処理装置の一態様である。本開示の画像処理装置には、例えばPCなどの装置も含まれる。PC等の画像処理装置は、図21に示す撮像装置300の光学レンズ305、撮像素子310を持たず、その他の構成要素から構成され、撮像素子300の取得データの入力部、または記憶部を持つ構成となる。   Note that the imaging device is an aspect of an image processing device. The image processing apparatus of the present disclosure includes an apparatus such as a PC. The image processing apparatus such as a PC does not have the optical lens 305 and the imaging element 310 of the imaging apparatus 300 shown in FIG. It becomes composition.

図21に示す撮像装置300は、先に説明した図3に示す撮像装置100と異なり、撮像素子(イメージセンサ)310は、RGBW配列からなるフィルタを備えた構成である。すなわち、
赤色近傍の波長を透過する赤(R)、
緑色近傍の波長を透過する緑(G)、
青色近傍の波長を透過する青(B)、
これらに加え、
とRGBのすべてを透過するホワイト(W)、
これら4種類の分光特性を持つフィルタを備えた撮像素子である。
An imaging device 300 illustrated in FIG. 21 is different from the imaging device 100 illustrated in FIG. 3 described above, and an imaging element (image sensor) 310 includes a filter having an RGBW array. That is,
Red (R) that transmits wavelengths near red,
Green (G) that transmits wavelengths in the vicinity of green,
Blue (B) that transmits wavelengths near blue,
In addition to these,
And white (W) that transmits all of RGB
This is an image sensor provided with filters having these four types of spectral characteristics.

このRGBW配列381を持つ撮像素子310は、光学レンズ305を介してRGBWいずれかの光を各画素単位で受光し、光電変換により受光信号強度に対応する電気信号を生成して出力する。この撮像素子310によってRGBW4種類の分光から成るモザイク画像が得られる。   The image sensor 310 having the RGBW array 381 receives any of the RGBW light in units of pixels via the optical lens 305, and generates and outputs an electrical signal corresponding to the received light signal intensity by photoelectric conversion. A mosaic image composed of four types of RGBW spectra can be obtained by the image sensor 310.

撮像素子(イメージセンサ)310の出力信号は信号処理部320の画像信号補正部400に入力される。
画像信号補正部400は、先の実施例と同様、例えば像高(光学中心からの距離)やフォーカス位置に応じて変化するぼけ方を考慮し、さらに、色比率を考慮したぼけ補正を実行する。
画像信号補正部400は、さらに、RGBW配列381からRGB配列382への変換処理を実行する。具体的には、先に図20を参照して説明した以下の変換処理を行う。
W画素位置をG画素に変換(G画素値を推定)する=(GonW)
G画素位置をR画素に変換(R画素値を推定)する=(RonG)
G画素位置をB画素に変換(B画素値を推定)する=(BonG)
R画素位置をR画素に変換(R画素値を補正)する=(RonR)
B画素位置にB画素に変換(B画素値を補正)する=(BonB)
これら5つの変換や補正処理を実行する。
この変換/補正処理に際して、偽色やぼけを抑制するための処理を併せて実行する。
An output signal of the image sensor (image sensor) 310 is input to the image signal correction unit 400 of the signal processing unit 320.
As in the previous embodiment, the image signal correction unit 400 considers, for example, the blurring that changes according to the image height (distance from the optical center) and the focus position, and further performs blur correction in consideration of the color ratio. .
The image signal correction unit 400 further executes a conversion process from the RGBW array 381 to the RGB array 382. Specifically, the following conversion process described above with reference to FIG. 20 is performed.
Convert W pixel position to G pixel (estimate G pixel value) = (GonW)
Convert G pixel position to R pixel (estimate R pixel value) = (RonG)
Convert G pixel position to B pixel (estimate B pixel value) = (BonG)
Convert R pixel position to R pixel (correct R pixel value) = (RonR)
Convert to B pixel at B pixel position (correct B pixel value) = (BonB)
These five conversions and correction processes are executed.
In this conversion / correction processing, processing for suppressing false color and blur is also executed.

画像信号補正部400においてぼけ補正とデータ変換のなされたRGB画像382はRGB信号処理部450に出力される。
RGB信号処理部450は、従来のカメラ等に備えられた信号処理部と同様の処理を実行する。具体的にはデモザイク処理、ホワイトバランス調整処理、γ補正処理などを実行してカラー画像383を生成する。生成したカラー画像383はメモリ330に記録される。
The RGB image 382 that has been subjected to blur correction and data conversion in the image signal correction unit 400 is output to the RGB signal processing unit 450.
The RGB signal processing unit 450 performs the same processing as the signal processing unit provided in a conventional camera or the like. Specifically, a color image 383 is generated by executing demosaic processing, white balance adjustment processing, γ correction processing, and the like. The generated color image 383 is recorded in the memory 330.

制御部340は、これら一連の処理の制御を実行する。例えば、一連の処理を実行させるプログラムがメモリ330に格納されており、制御部340は、メモリ330から読み出したプログラムを実行して一連の処理を制御する。
なお、メモリ330は、例えば磁気ディスク、光ディスク、フラッシュメモリ等の各種記録媒体によって構成可能である。
The control unit 340 controls these series of processes. For example, a program for executing a series of processing is stored in the memory 330, and the control unit 340 executes the program read from the memory 330 and controls the series of processing.
The memory 330 can be configured by various recording media such as a magnetic disk, an optical disk, and a flash memory.

画像信号補正部400の詳細構成について図22を参照して説明する。
画像信号補正部400は、図22に示すように、ラインメモリ401、像高算出部402、飽和検出部403、ぼけ補正処理部410、エッジ検出部421、色相関リモザイク処理部(データ変換部)430を有する。
色相関リモザイク処理部(データ変換部)430は、W位置G補間パラメータ算出部431、G位置RB補間パラメータ算出部432、R位置R補間パラメータ算出部433、B位置B補間パラメータ算出部434、加重加算部435を有する。
A detailed configuration of the image signal correction unit 400 will be described with reference to FIG.
As shown in FIG. 22, the image signal correction unit 400 includes a line memory 401, an image height calculation unit 402, a saturation detection unit 403, a blur correction processing unit 410, an edge detection unit 421, and a color correlation re-mosaic processing unit (data conversion unit). 430.
The color correlation re-mosaic processing unit (data conversion unit) 430 includes a W position G interpolation parameter calculation unit 431, a G position RB interpolation parameter calculation unit 432, an R position R interpolation parameter calculation unit 433, a B position B interpolation parameter calculation unit 434, and a weighting. An adder 435 is included.

撮像素子310から出力された各画素対応の画素値信号は一旦、ラインメモリ401に蓄えられる。
また、各画素の画素値に対応付けられた各画素の座標位置を示すxyアドレスが像高算出部402に出力される。
ラインメモリ401は撮像素子の水平7ライン分のラインメモリを有する。ラインメモリ401からは7つの水平ライン分のデータを並列に順次出力する。出力先は、ぼけ補正処理部410、エッジ検出部421、飽和検出部403である。これらの各処理部に対して、RGBW配列381の撮像データが7ライン単位で出力される。
The pixel value signal corresponding to each pixel output from the image sensor 310 is temporarily stored in the line memory 401.
Further, an xy address indicating the coordinate position of each pixel associated with the pixel value of each pixel is output to the image height calculation unit 402.
The line memory 401 has a line memory for seven horizontal lines of the image sensor. The line memory 401 sequentially outputs data for seven horizontal lines in parallel. Output destinations are the blur correction processing unit 410, the edge detection unit 421, and the saturation detection unit 403. The imaging data of the RGBW array 381 is output to each of these processing units in units of 7 lines.

なお、エッジ検出部421、ぼけ補正処理部410は、RGBW配列381の撮像データ中、ホワイト(W)信号に対する処理を実行する。
また、色相関リモザイク処理部430は、RGBW配列381の撮像データ中、RGBWすべての信号を利用した処理を実行する。
Note that the edge detection unit 421 and the blur correction processing unit 410 execute processing on the white (W) signal in the imaging data of the RGBW array 381.
The color correlation re-mosaic processing unit 430 executes processing using all RGBW signals in the imaging data of the RGBW array 381.

エッジ検出部421は、ラインメモリ401からの出力信号に含まれる離散的なホワイト(W)信号を検証して、画像に含まれるエッジ情報、例えばエッジ方向とエッジ強度を含むエッジ情報を生成して色相関リモザイク処理部430に出力する。
具体的には、例えば、処理対象画素(7×7画素の中心画素)を中心として7×7画素の画素情報から算出される平坦度(weightFlat)を算出して色相関リモザイク処理部430に出力する。
なお、この平坦度(weightFlat)算出処理は、本出願人の先の出願である特開2011−55038号公報に記載の処理と同様の処理として実行可能である。
The edge detection unit 421 verifies the discrete white (W) signal included in the output signal from the line memory 401 and generates edge information included in the image, for example, edge information including the edge direction and the edge strength. The result is output to the color correlation re-mosaic processing unit 430.
Specifically, for example, the flatness (weightFlat) calculated from the pixel information of 7 × 7 pixels with the processing target pixel (the center pixel of 7 × 7 pixels) as the center is calculated and output to the color correlation re-mosaic processing unit 430. To do.
This flatness (weightFlat) calculation process can be executed as a process similar to the process described in Japanese Patent Application Laid-Open No. 2011-55038, which is an earlier application of the present applicant.

ぼけ補正処理部410は、まず、ラインメモリ401からの出力信号に含まれるホワイト(W)画素を適用し、RGB画素位置にW画素を補間処理により設定し、全画素にW画素を設定した補間画像を生成する。さらに、全画素にW画素を設定した画像の各W画素に対するぼけ補正処理を実行して、全画素のぼけ補正W信号、すなわち、ぼけ補正W信号(Wd)を生成して色相関リモザイク処理部430に出力する。   The blur correction processing unit 410 first applies white (W) pixels included in the output signal from the line memory 401, sets W pixels at RGB pixel positions by interpolation processing, and sets W pixels for all pixels. Generate an image. Further, a blur correction process is performed on each W pixel of an image in which W pixels are set for all pixels to generate a blur correction W signal for all pixels, that is, a blur correction W signal (Wd), and a color correlation re-mosaic processing unit Output to 430.

なお、ぼけ補正処理部410は、少なくとも色比率を考慮したぼけ補正を実行する。
さらに、先に説明した実施例と同様、例えば像高(光学中心からの距離)やフォーカス位置に応じて変化するぼけ方を考慮し、さらに、色比率を考慮したぼけ補正を実行する構成としてもよい。
The blur correction processing unit 410 performs blur correction considering at least the color ratio.
Further, as in the above-described embodiment, for example, a blur correction method that takes into account the image height (distance from the optical center) and the focus position and the color ratio is also considered. Good.

色相関リモザイク処理部430は、ラインメモリ401からの出力信号中のRGBW信号と、エッジ検出部421から出力されるエッジ情報、およびぼけ補正処理部410から出力される全画素対応のぼけ補正W信号(Wd)を入力する。
色相関リモザイク処理部430は、これらの情報を利用して、RGBWのカラー配列からRGB配列382への変換処理を実行する。
The color correlation re-mosaic processing unit 430 includes the RGBW signal in the output signal from the line memory 401, the edge information output from the edge detection unit 421, and the blur correction W signal corresponding to all pixels output from the blur correction processing unit 410. Enter (Wd).
The color correlation re-mosaic processing unit 430 performs conversion processing from the RGBW color array to the RGB array 382 using these pieces of information.

具体的には、先に図20を参照して説明したように、
W画素位置をG画素に変換(G画素値を推定)する=(GonW)
G画素位置をR画素に変換(R画素値を推定)する=(RonG)
G画素位置をB画素に変換(B画素値を推定)する=(BonG)
R画素位置をR画素に変換(R画素値を補正)する=(RonR)
B画素位置にB画素に変換(B画素値を補正)する=(BonB)
これら5つの変換や補正処理を実行する。
Specifically, as described above with reference to FIG.
Convert W pixel position to G pixel (estimate G pixel value) = (GonW)
Convert G pixel position to R pixel (estimate R pixel value) = (RonG)
Convert G pixel position to B pixel (estimate B pixel value) = (BonG)
Convert R pixel position to R pixel (correct R pixel value) = (RonR)
Convert to B pixel at B pixel position (correct B pixel value) = (BonB)
These five conversions and correction processes are executed.

W位置G補間パラメータ算出部431は、RGBW配列381のW画素位置に設定するG画素値の算出に適用する補間パラメータを算出する。ラインメモリ401からの入力信号中のW信号とB信号、ぼけ補正処理部410から入力するぼけ補正W信号(Wd)を用いて、上記の(GonW)の処理に適用する補間パラメータを算出する。
G位置RB補間パラメータ算出部432は、RGBW配列381のG画素位置に設定するR画素値またはB画素値の算出に適用する補間パラメータを算出する。ラインメモリ401からの入力信号中のW信号とB信号、ぼけ補正処理部410から入力するぼけ補正W信号(Wd)を用いて、上記の(RonG)、(BonG)の処理に適用するパラメータを算出する。
The W position G interpolation parameter calculation unit 431 calculates an interpolation parameter applied to calculation of a G pixel value set at the W pixel position of the RGBW array 381. Using the W signal and B signal in the input signal from the line memory 401 and the blur correction W signal (Wd) input from the blur correction processing unit 410, an interpolation parameter to be applied to the above (GonW) process is calculated.
The G position RB interpolation parameter calculation unit 432 calculates an interpolation parameter applied to the calculation of the R pixel value or the B pixel value set at the G pixel position of the RGBW array 381. Using the W signal and the B signal in the input signal from the line memory 401 and the blur correction W signal (Wd) input from the blur correction processing unit 410, parameters to be applied to the processing of the above (RonG) and (BonG) are set. calculate.

R位置R補間パラメータ算出部433は、RGBW配列381のR画素位置に設定する補正R画素値の算出に適用する補間パラメータを算出する。ラインメモリ401からの入力信号中のW信号とB信号、ぼけ補正処理部410から入力するぼけ補正W信号(Wd)を用いて、上記の(RonR)の処理に適用するパラメータを算出する。
B位置B補間パラメータ算出部434は、RGBW配列381のB画素位置に設定する補正B画素値の算出に適用する補間パラメータを算出する。ラインメモリ401からの入力信号中のW信号とB信号、ぼけ補正処理部410から入力するぼけ補正W信号(Wd)を用いて、上記の(BonB)の処理に適用するパラメータを算出する。
The R position R interpolation parameter calculation unit 433 calculates an interpolation parameter that is applied to calculation of a corrected R pixel value set at the R pixel position of the RGBW array 381. Using the W signal and the B signal in the input signal from the line memory 401 and the blur correction W signal (Wd) input from the blur correction processing unit 410, a parameter to be applied to the above (RonR) process is calculated.
The B position B interpolation parameter calculation unit 434 calculates an interpolation parameter to be applied to the calculation of the corrected B pixel value set at the B pixel position of the RGBW array 381. Using the W signal and B signal in the input signal from the line memory 401 and the blur correction W signal (Wd) input from the blur correction processing unit 410, parameters to be applied to the above (BonB) process are calculated.

加重加算処理部435は、各補間パラメータ算出部431〜434の算出した補間パラメータを入力し、さらに、エッジ検出部421から入力するエッジ情報を適用して、RGB配列(ベイヤ配列)382を構成する各画素のRGB信号値を算出する。
なお、色相関リモザイク処理部(データ変換部)430の実行するRGBW配列からRGB配列へのデータ変換処理は、基本的に本出願人の先行出願である特開2011−55038号公報に記載された処理を利用可能である。このデータ変換処理の詳細については、特開2011−55038号公報を参照されたい。
このようにして、加重加算処理部435の算出したGr,Rr,Brから構成されるRGB配列(ベイヤ配列)382を生成して、RGB信号処理部450に提供する。
The weighted addition processing unit 435 receives the interpolation parameters calculated by the interpolation parameter calculation units 431 to 434, and further applies the edge information input from the edge detection unit 421 to configure the RGB array (Bayer array) 382. The RGB signal value of each pixel is calculated.
The data conversion processing from the RGBW array to the RGB array performed by the color correlation re-mosaic processing unit (data conversion unit) 430 is basically described in Japanese Patent Application Laid-Open No. 2011-55038, which is a prior application of the present applicant. Processing is available. For details of this data conversion processing, refer to Japanese Patent Application Laid-Open No. 2011-55038.
In this way, an RGB array (Bayer array) 382 composed of Gr, Rr, and Br calculated by the weighted addition processing unit 435 is generated and provided to the RGB signal processing unit 450.

RGB信号処理部450は、一般的なカメラや画像処理装置が持つRGB配列(ベイヤ配列)信号に対する信号処理部と同様である。RGB信号処理部450は、加重平均部435から出力されるRGB配列(ベイヤ配列)382に対する信号処理を実行してカラー画像383(図20参照)を生成する。RGB信号処理部450は、具体的には、例えばホワイトバランス調整処理、デモザイク処理、シェーディング処理、RGBカラーマトリクス処理、γ補正処理などを実行してカラー画像383を生成する。   The RGB signal processing unit 450 is the same as the signal processing unit for RGB array (Bayer array) signals of general cameras and image processing apparatuses. The RGB signal processing unit 450 performs signal processing on the RGB array (Bayer array) 382 output from the weighted average unit 435 to generate a color image 383 (see FIG. 20). Specifically, the RGB signal processing unit 450 generates a color image 383 by executing, for example, white balance adjustment processing, demosaic processing, shading processing, RGB color matrix processing, and γ correction processing.

[5.実施例2に係る画像処理装置のぼけ補正処理の詳細について]
次に、実施例2に係る画像処理装置のぼけ補正処理の詳細について説明する。
図23に画像信号補正部400の実行する処理の全体シーケンスを説明するフローチャートを示す。
なお、図23に示すフローチャートの各ステップの処理の主な処理主体は以下の通りである。
ステップS301〜S305の処理は、主としてぼけ補正処理部410の実行する処理である。
ステップS306の処理は、エッジ検出部421の実行する処理である。
ステップS307の処理は、色相関リモザイク処理部(データ変換部)430の実行する処理である。
[5. Details of blur correction processing of image processing apparatus according to embodiment 2]
Next, details of the blur correction processing of the image processing apparatus according to the second embodiment will be described.
FIG. 23 is a flowchart for explaining the overall sequence of processing executed by the image signal correction unit 400.
The main processing entities of the processing of each step in the flowchart shown in FIG. 23 are as follows.
The processing in steps S301 to S305 is mainly processing executed by the blur correction processing unit 410.
The process of step S306 is a process executed by the edge detection unit 421.
The process of step S307 is a process executed by the color correlation re-mosaic processing unit (data conversion unit) 430.

また、ぼけ補正処理部410の実行するステップS301〜S305の処理と、エッジ検出部421の実行するステップS305の処理は、前述したようにRGBW配列の画像データに含まれるW画素を利用して実行される。   Further, the processing of steps S301 to S305 executed by the blur correction processing unit 410 and the processing of step S305 executed by the edge detection unit 421 are executed using the W pixels included in the image data of the RGBW array as described above. Is done.

各ステップの処理の詳細について説明する。
まず、ステップS301において、ぼけ補正処理部410は、ぼけ補正対象となる1つのW画素を中心とした所定の局所領域の色比率を算出する。
Details of the processing of each step will be described.
First, in step S301, the blur correction processing unit 410 calculates a color ratio of a predetermined local area centered on one W pixel that is a blur correction target.

なお、ぼけ補正処理部410は、先の実施例と同様、ぼけ補正処理対象となる画素を中心とした所定の画素領域(=局所領域)、例えば7×7画素の矩形画素領域を入力して処理を行う。
7×7画素領域の中心画素がW画素である場合は、そのW画素に対するぼけ補正処理を行うことになる。
7×7画素領域の中心画素がW画素でない場合は、その中心位置に対して周囲のW画素の画素値に基づいて設定した補間W画素値に対するぼけ補正処理を行う。
すなわち、ステップS301の前処理として、ぼけ補正処理部410は、ラインメモリ401からの出力信号に含まれるホワイト(W)画素を適用し、W画素以外のRGB画素位置にW画素を補間処理により設定し、全画素W画素の画像データを生成する。この全画素W画素の画像データから、順次1つずつW画素を選択してぼけ補正処理を実行する。
As in the previous embodiment, the blur correction processing unit 410 inputs a predetermined pixel area (= local area) centered on a pixel that is a blur correction process target, for example, a rectangular pixel area of 7 × 7 pixels. Process.
When the central pixel of the 7 × 7 pixel area is a W pixel, blur correction processing is performed on the W pixel.
If the center pixel of the 7 × 7 pixel area is not a W pixel, a blur correction process is performed on the interpolated W pixel value set based on the pixel values of surrounding W pixels with respect to the center position.
That is, as the preprocessing in step S301, the blur correction processing unit 410 applies white (W) pixels included in the output signal from the line memory 401, and sets W pixels at RGB pixel positions other than W pixels by interpolation processing. Then, image data of all pixels W is generated. From the image data of all the W pixels, W pixels are sequentially selected one by one, and blur correction processing is executed.

ステップS301において、ぼけ補正処理部410は、ぼけ補正対象となるW画素を中心とした7×7画素領域の色比率(R(赤)比率、G(緑)比率、B(青)比率)を以下の式によって算出する。
R比率=mR/(mG+mR+mB)
G比率=mG/(mG+mR+mB)
B比率=mB/(mG+mR+mB)
ただし、
mRは、局所領域(例えば7×7画素領域)におけるR信号の低周波成分
mGは、局所領域(例えば7×7画素領域)におけるG信号の低周波成分
mBは、局所領域(例えば7×7画素領域)におけるB信号の低周波成分
である。
In step S301, the blur correction processing unit 410 calculates the color ratio (R (red) ratio, G (green) ratio, B (blue) ratio) of the 7 × 7 pixel area centered on the W pixel that is the blur correction target. Calculated by the following formula.
R ratio = mR / (mG + mR + mB)
G ratio = mG / (mG + mR + mB)
B ratio = mB / (mG + mR + mB)
However,
mR is the low-frequency component of the R signal in the local region (eg, 7 × 7 pixel region) mG is the low-frequency component of the G signal in the local region (eg, 7 × 7 pixel region) mB is the local region (eg, 7 × 7 pixel region) This is the low frequency component of the B signal in the pixel area).

なお、上記式に従ってR(赤)比率、G(緑)比率、B(青)比率を算出する場合、
局所領域(例えば7×7画素領域)におけるR,G,B各信号の低周波成分mR,mG,mBを算出することが必要となる。
これらの各色対応の低周波成分を算出するために、例えば図24〜図27に示す低周波成分算出フィルタを適用した処理を行う。
In addition, when calculating R (red) ratio, G (green) ratio, and B (blue) ratio according to the above formula,
It is necessary to calculate the low frequency components mR, mG, mB of the R, G, B signals in the local region (for example, 7 × 7 pixel region).
In order to calculate these low-frequency components corresponding to each color, for example, processing using a low-frequency component calculation filter shown in FIGS.

図24〜図27に示すRGB各色対応の低周波成分算出フィルタは、ぼけ補正対象となるW画素(補間されたW画素も含む)を中心とした7×7画素の撮像素子310からの出力画像データに対するフィルタ処理に適用するフィルタである。補間処理によって全画素W画素とした補間画像ではなく、撮像素子310からの出力画像データに対して適用してR,G,B各信号の低周波成分mR,mG,mBを算出する。   The low-frequency component calculation filters corresponding to RGB colors shown in FIGS. 24 to 27 output images from the 7 × 7 pixel image sensor 310 centered on the W pixels (including the interpolated W pixels) to be blurred. It is a filter applied to the filter process with respect to data. The low-frequency components mR, mG, and mB of the R, G, and B signals are calculated by applying to the output image data from the image sensor 310, not the interpolated image in which all pixels are W pixels by the interpolation processing.

低周波成分算出フィルタは、7×7画素の構成に応じて異なる設定となる。
図24〜図27には、以下の7×7画素の各構成に応じて選択適用する以下の3つのフィルタをそれぞれ示している。
G信号の低周波成分(mG)算出フィルタ、
R信号の低周波成分(mR)算出フィルタ、
B信号の低周波成分(mB)算出フィルタ、
The low frequency component calculation filter has different settings depending on the configuration of 7 × 7 pixels.
24 to 27 show the following three filters to be selectively applied according to the following 7 × 7 pixel configurations.
A low frequency component (mG) calculation filter of the G signal,
A low frequency component (mR) calculation filter of the R signal;
A low frequency component (mB) calculation filter of the B signal,

図24は、ぼけ補正対象となるW画素(補間されたW画素も含む)を中心とした7×7画素の撮像素子310からの出力画像データが、以下の設定の場合のR,G,B各信号の低周波成分mR,mG,mBを算出する低周波成分算出フィルタの構成を示している。
(a)中心画素Wの左がG画素、右がB画素の場合に適用する低周波成分算出フィルタ(mR算出フィルタ511、mG算出フィルタ512、mB算出フィルタ513)
(b)中心画素Wの左がG画素、右がR画素の場合に適用する低周波成分算出フィルタ(mR算出フィルタ514、mG算出フィルタ515、mB算出フィルタ516)
FIG. 24 shows R, G, B when the output image data from the 7 × 7 pixel image sensor 310 centering on the W pixel (including the interpolated W pixel) to be blurred is set as follows. The structure of the low frequency component calculation filter which calculates the low frequency components mR, mG, mB of each signal is shown.
(A) Low frequency component calculation filter (mR calculation filter 511, mG calculation filter 512, mB calculation filter 513) applied when the center pixel W is a G pixel on the left and a B pixel on the right
(B) Low frequency component calculation filters (mR calculation filter 514, mG calculation filter 515, mB calculation filter 516) applied when the left side of the center pixel W is a G pixel and the right side is an R pixel

各フィルタに示す数値(係数)は、低周波成分算出対象となる色(RまたはGまたはB)の設定位置にのみ設定されている。これらの各係数値と撮像素子から入力する7×7画素の各対応画素位置の画素値と乗算し、乗算値を加算して各フィルタの下部に示す値(32,25,など)で除算して、低周波成分の算出が行われる。   The numerical value (coefficient) shown in each filter is set only at the setting position of the color (R, G, or B) that is a low frequency component calculation target. Each coefficient value is multiplied by the pixel value at each corresponding pixel position of 7 × 7 pixels input from the image sensor, and the multiplied value is added and divided by the values (32, 25, etc.) shown below each filter. Thus, the low frequency component is calculated.

図25は、ぼけ補正対象となるW画素(補間されたW画素も含む)を中心とした7×7画素の撮像素子310からの出力画像データが、以下の設定の場合のR,G,B各信号の低周波成分mR,mG,mBを算出する低周波成分算出フィルタの構成を示している。
(c)中心画素Wの右がG画素、上がB画素の場合に適用する低周波成分算出フィルタ(mR算出フィルタ521、mG算出フィルタ522、mB算出フィルタ523)
(d)中心画素Wの右がG画素、上がR画素の場合に適用する低周波成分算出フィルタ(mR算出フィルタ524、mG算出フィルタ525、mB算出フィルタ526)
FIG. 25 shows R, G, B when the output image data from the image sensor 310 of 7 × 7 pixels centering on W pixels (including interpolated W pixels) subject to blur correction is set as follows. The structure of the low frequency component calculation filter which calculates the low frequency components mR, mG, mB of each signal is shown.
(C) Low frequency component calculation filters (mR calculation filter 521, mG calculation filter 522, mB calculation filter 523) applied when the right side of the center pixel W is a G pixel and the upper side is a B pixel.
(D) Low frequency component calculation filters (mR calculation filter 524, mG calculation filter 525, mB calculation filter 526) applied when the right side of the center pixel W is a G pixel and the upper side is an R pixel

図26は、ぼけ補正対象となるW画素(補間されたW画素も含む)を中心とした7×7画素の撮像素子310からの出力画像データが、以下の設定の場合のR,G,B各信号の低周波成分mR,mG,mBを算出する低周波成分算出フィルタの構成を示している。
(e)中心画素Gの左上〜右下斜めラインにR画素がある場合に適用する低周波成分算出フィルタ(mR算出フィルタ541、mG算出フィルタ542、mB算出フィルタ543)
(f)中心画素Gの左上〜右下斜めラインにB画素がある場合に適用する低周波成分算出フィルタ(mR算出フィルタ544、mG算出フィルタ545、mB算出フィルタ546)
FIG. 26 shows R, G, B when the output image data from the 7 × 7 pixel image sensor 310 centering on the W pixel (including the interpolated W pixel) subject to blur correction is set as follows. The structure of the low frequency component calculation filter which calculates the low frequency components mR, mG, mB of each signal is shown.
(E) Low frequency component calculation filters (mR calculation filter 541, mG calculation filter 542, mB calculation filter 543) applied when there is an R pixel in the upper left to lower right diagonal line of the center pixel G
(F) Low frequency component calculation filter (mR calculation filter 544, mG calculation filter 545, mB calculation filter 546) applied when B pixel exists in the upper left to lower right diagonal line of the center pixel G

この図26に示す例は、撮像素子から入力する7×7画素の中心画素がW画素ではない例である。なお、この場合、ぼけ補正処理は、前述した全画素W画素に設定した補間画像に対して行われることになる。   The example shown in FIG. 26 is an example in which the central pixel of 7 × 7 pixels input from the image sensor is not a W pixel. In this case, the blur correction process is performed on the interpolated image set for all the pixels W described above.

図27は、ぼけ補正対象となるW画素(補間されたW画素も含む)を中心とした7×7画素の撮像素子310からの出力画像データが、以下の設定の場合のR,G,B各信号の低周波成分mR,mG,mBを算出する低周波成分算出フィルタの構成を示している。
(g)中心画素にR画素がある場合に適用する低周波成分算出フィルタ(mR算出フィルタ551、mG算出フィルタ552、mB算出フィルタ553)
(h)中心画素にB画素がある場合に適用する低周波成分算出フィルタ(mR算出フィルタ561、mG算出フィルタ562、mB算出フィルタ563)
FIG. 27 shows R, G, B when the output image data from the 7 × 7 pixel image sensor 310 centered on the W pixel (including the interpolated W pixel) to be corrected for blur is as follows. The structure of the low frequency component calculation filter which calculates the low frequency components mR, mG, mB of each signal is shown.
(G) Low frequency component calculation filters (mR calculation filter 551, mG calculation filter 552, mB calculation filter 553) applied when there is an R pixel at the center pixel
(H) Low frequency component calculation filters (mR calculation filter 561, mG calculation filter 562, mB calculation filter 563) applied when there is a B pixel at the center pixel

この図27に示す例も、撮像素子から入力する7×7画素の中心画素がW画素ではない例である。なお、この場合、ぼけ補正処理は、前述した全画素W画素に設定した補間画像に対して行われることになる。   The example shown in FIG. 27 is also an example in which the central pixel of 7 × 7 pixels input from the image sensor is not a W pixel. In this case, the blur correction process is performed on the interpolated image set for all the pixels W described above.

ステップS301において、ぼけ補正処理部410は、ぼけ補正対象となるW画素を中心とした7×7画素領域の画素パターンに応じて、図24〜図27に示す低周波成分算出フィルタを選択適用して、局所領域(例えば7×7画素領域)におけるRGB各信号の低周波成分mR,mG,mBを算出する。
さらに、これらの各色の低周波成分を利用して、ぼけ補正対象となる7×7画素領域の中心のW画素(補間画素の場合も含む)に対応する色比率(R(赤)比率、G(緑)比率、B(青)比率)を以下の式に従って算出する。
R比率=mR/(mG+mR+mB)
G比率=mG/(mG+mR+mB)
B比率=mB/(mG+mR+mB)
In step S301, the blur correction processing unit 410 selectively applies the low-frequency component calculation filters illustrated in FIGS. 24 to 27 in accordance with the pixel pattern of the 7 × 7 pixel region centered on the W pixel that is the blur correction target. Thus, the low frequency components mR, mG, and mB of the RGB signals in the local region (for example, 7 × 7 pixel region) are calculated.
Furthermore, using these low-frequency components of each color, a color ratio (R (red) ratio, G) corresponding to the W pixel (including the case of the interpolation pixel) at the center of the 7 × 7 pixel area that is the blur correction target. (Green) ratio and B (blue) ratio) are calculated according to the following equations.
R ratio = mR / (mG + mR + mB)
G ratio = mG / (mG + mR + mB)
B ratio = mB / (mG + mR + mB)

次に、ぼけ補正処理部410は、ステップS302において、ステップS301で算出した色比率を適用して、色比率に応じたぼけ補正フィルタを生成する。
この処理について、図28を参照して説明する。
Next, in step S302, the blur correction processing unit 410 applies the color ratio calculated in step S301 to generate a blur correction filter corresponding to the color ratio.
This process will be described with reference to FIG.

図28に示す式は、色比率に応じたぼけ補正フィルタの生成式である。
R対応ぼけ補正フィルタ、
G対応ぼけ補正フィルタ、
B対応ぼけ補正フィルタ、
これらの3つのぼけ補正フィルタは、画像処理装置のメモリに予め記憶された各色対応のぼけ補正フィルタである。
これらは、例えば先に図19を参照して説明した各色のMTF特性に応じて各色対応のぼけ補正に最適な処理を実行可能としたフィルタである。
The formula shown in FIG. 28 is a formula for generating a blur correction filter corresponding to the color ratio.
R correspondence blur correction filter,
G-adaptive blur correction filter,
B-adaptive blur correction filter,
These three blur correction filters are blur correction filters corresponding to the respective colors stored in advance in the memory of the image processing apparatus.
These are filters that can execute, for example, optimum processing for blur correction corresponding to each color in accordance with the MTF characteristics of each color described above with reference to FIG.

本実施例のぼけ補正処理では、W(White)画素に対して適用するぼけ補正フィルタをこれらRGB対応のぼけ補正フィルタと、ステップS301において算出した色比率、すなわち、R(赤)比率、G(緑)比率、B(青)比率、これらの各色比率を適用して算出する。   In the blur correction process of the present embodiment, the blur correction filter applied to the W (White) pixel is the RGB-compatible blur correction filter and the color ratio calculated in step S301, that is, the R (red) ratio, G ( The calculation is performed by applying the green) ratio, the B (blue) ratio, and these color ratios.

具体的には、図28に示すように、W対応ぼけ補正フィルタ(Wdeblur)を以下の式に従って、算出する。
deblur
=(mR/(mG+mR+mB))/Rdeblur
+(mG/(mG+mR+mB))/Gdeblur
+(mB/(mG+mR+mB))/Bdeblur
なお、
deblur:R対応ぼけ補正フィルタ
deblur:G対応ぼけ補正フィルタ
deblur:B対応ぼけ補正フィルタ
mR/(mG+mR+mB):R(赤)比率
mG/(mG+mR+mB):G(緑)比率
mB/(mG+mR+mB):B(青)比率
である。
Specifically, as shown in FIG. 28, a W-corresponding blur correction filter (Wdeblur) is calculated according to the following equation.
W deblurr
= (MR / (mG + mR + mB)) / R deblurr
+ (MG / (mG + mR + mB)) / G deblurr
+ (MB / (mG + mR + mB)) / B deblurr
In addition,
R deblur : R correspondence blur correction filter G deblurr : G correspondence blur correction filter B deblurr : B correspondence blur correction filter mR / (mG + mR + mB): R (red) ratio mG / (mG + mR + mB): G (green) ratio mB / (mG + mR + mB ): B (blue) ratio.

このように、補正対象とするW画素を中心とした所定の画素領域(本例では7×7画素)の色比率に応じて各色対応のぼけ補正フィルタをブレンドして、W(White)画素に適用するぼけ補正フィルタを生成する。   In this way, the blur correction filter corresponding to each color is blended according to the color ratio of a predetermined pixel region (in this example, 7 × 7 pixels) centered on the W pixel to be corrected, and the W (White) pixel is obtained. Generate a blur correction filter to apply.

図22に示すぼけ補正処理部410は、このステップS302において生成した色比率を反映したW(White)画素対応のぼけ補正フィルタを適用して、補間処理によって生成した全画素W画素の画像データに対するぼけ補正処理を行い、全画素対応ぼけ補正W信号(Wd)を生成して生成した全画素対応ぼけ補正W信号(Wd)を色相関リモザイク処理部(データ変換部)430に出力することができる。   The blur correction processing unit 410 shown in FIG. 22 applies a blur correction filter corresponding to W (White) pixels reflecting the color ratio generated in step S302, and applies to the image data of all pixels W pixels generated by the interpolation processing. The blur correction W signal (Wd) generated by performing the blur correction processing and generating the blur correction W signal (Wd) corresponding to all pixels can be output to the color correlation re-mosaic processing unit (data conversion unit) 430. .

さらに、ぼけ補正処理部410は、このステップS302において生成した色比率を反映したW(White)画素対応のぼけ補正フィルタに対して、前述した実施例と同様、像高等を考慮したフィルタ生成処理を実行し、色比率のみならず、像高等を反映したW(White)画素対応のぼけ補正フィルタを生成し、これを適用して、補間処理によって生成した全画素W画素の画像データに対するぼけ補正処理を行うことが可能である。
以下では、この処理例について説明する。
Further, the blur correction processing unit 410 performs a filter generation process in consideration of the image height and the like on the blur correction filter corresponding to the W (White) pixel reflecting the color ratio generated in step S302 as in the above-described embodiment. Execute and generate a blur correction filter corresponding to W (White) pixels reflecting not only the color ratio but also the image height, etc., and apply this to apply blur correction processing to the image data of all pixels W pixels generated by interpolation processing Can be done.
Hereinafter, this processing example will be described.

ぼけ補正処理部410は、ステップS303において、ステップS302で生成した色比率を反映したW(White)画素対応のぼけ補正フィルタをベースとして、前述した実施例と同様、像高等を考慮したフィルタ生成処理を実行する。   In step S303, the blur correction processing unit 410 uses the blur correction filter corresponding to the W (White) pixel that reflects the color ratio generated in step S302 as a base, and generates a filter in consideration of the image height and the like as in the above-described embodiment. Execute.

ステップS303の処理は、先の実施例において説明した図5のフローに示すステップS101の処理と同様の処理である。
すなわち、図9、図10に示すフローに従った処理として実行される。
ステップS302において生成した色比率反映ぼけ補正フィルタは、図9のフローのステップS122において適用する基本フィルタ(default filter)として利用される。
The process of step S303 is the same as the process of step S101 shown in the flow of FIG. 5 described in the previous embodiment.
That is, it is executed as a process according to the flow shown in FIGS.
The color ratio reflection blur correction filter generated in step S302 is used as a basic filter (default filter) applied in step S122 of the flow of FIG.

具体的には、以下の手順に従って、最終的なぼけ補正フィルタ(Ffinal)を生成する。
まず、図9に示すフローのステップS121において、補正対象画素の画素位置から算出する像高に応じたハイパスフィルタ(HPF_dist)を生成する。
この像高に応じたハイパスフィルタ(HPF_dist)は、先に図10に示すフローのステップS131〜S132の処理によって生成する。
Specifically, a final blur correction filter (Ffinal) is generated according to the following procedure.
First, in step S121 of the flow shown in FIG. 9, a high-pass filter (HPF_dist) corresponding to the image height calculated from the pixel position of the correction target pixel is generated.
The high-pass filter (HPF_dist) corresponding to the image height is generated by the processing of steps S131 to S132 in the flow shown in FIG.

次に、図9に示すフローのステップS122において、
(1)基本フィルタ(default filter)と、
(2)座標位置対応ハイパスフィルタ(HPF_dist)を、
像高(r)と、フォーカス位置情報(focus)に応じて決定されるブレンド係数α(focus,r)に応じて、ブレンドし、
(3)座標位置対応基本フィルタ(Fbase)、
を生成する。
Next, in step S122 of the flow shown in FIG.
(1) a basic filter (default filter);
(2) The coordinate position corresponding high pass filter (HPF_dist) is
Blending according to the image height (r) and the blend coefficient α (focus, r) determined according to the focus position information (focus),
(3) Basic filter for coordinate position (Fbase),
Is generated.

(1)基本フィルタ(default filter)は、図23に示すフローのステップS302において生成した色比率反映ぼけ補正フィルタである。
図9に示すフローチャートのステップS122において、この色比率反映ぼけ補正フィルタ(default filter)と、ステップS121において生成した座標位置対応ハイパスフィルタ(HPF_dist)をブレンドして、座標位置対応基本フィルタ(Fbase)を生成する。
(1) The basic filter (default filter) is a color ratio reflection blur correction filter generated in step S302 of the flow shown in FIG.
In step S122 of the flowchart shown in FIG. 9, the color ratio reflecting blur correction filter (default filter) and the coordinate position corresponding high-pass filter (HPF_dist) generated in step S121 are blended to obtain a coordinate position corresponding basic filter (Fbase). Generate.

座標位置対応基本フィルタ(Fbase)は、像高(r)と、フォーカス位置情報(focus)に応じて決定されるブレンド係数αに基づいて、以下の式で算出する。
Fbase=(1.0−α)×(default filter)+α(HPF_dist)
なお、上記式において、
default filter=色比率反映ぼけ補正フィルタである。
The coordinate position-corresponding basic filter (Fbase) is calculated by the following formula based on the blend height α determined according to the image height (r) and the focus position information (focus).
Fbase = (1.0−α) × (default filter) + α (HPF_dist)
In the above formula,
default filter = color ratio reflection blur correction filter.

なお、ブレンド係数αは、先の実施例で説明したように、像高(r)と、フォーカス位置情報(focus)に応じて決定される。
先に図13を参照して説明したように、一般に、像高が大きく(画像中心からの距離が大になる)につれて、MTF特性は劣化する。特に高周波領域はノイズに埋もれる領域となるため、図13(b)に示すように、ウィナー(Wiener)フィルタのエンハンス特性は低周波領域側へシフトする。
そのため、図13(c)に示すように、像高が大きく(画像中心からの距離が大になる)につれて、ハイパスフィルタのブレンド率を減少させる。すなわち、ブレンド係数αを小さくすることが好ましい。
フォーカスずれに関しても同様のことが言える。すなわち、フォーカスずれが大になるほど、ブレンド係数αを小さくする。
The blend coefficient α is determined according to the image height (r) and the focus position information (focus) as described in the previous embodiment.
As described above with reference to FIG. 13, the MTF characteristics generally deteriorate as the image height increases (the distance from the image center increases). In particular, since the high frequency region is a region buried in noise, as shown in FIG. 13B, the enhancement characteristic of the Wiener filter is shifted to the low frequency region side.
Therefore, as shown in FIG. 13C, as the image height increases (the distance from the image center increases), the blend ratio of the high-pass filter is decreased. That is, it is preferable to reduce the blend coefficient α.
The same can be said about the focus shift. That is, the blend coefficient α is decreased as the focus shift increases.

なお、フォーカスずれは、画像処理装置(カメラ)固有の値であり、各フォーカス位置に対応して発生するずれ量が各カメラにおける固有値となる。従ってフォーカスずれ量は、フォーカス位置情報から算出可能であり、ぼけ補正部410は図21に示す制御部340からフォーカス位置情報(図22参照)を受領して、予め設定された算出式にしたがってフォーカスずれ量を算出し、フォーカスずれ量と、像高算出部402から取得する像高rを用いてブレンド係数α(focus,r)を算出する。   The focus shift is a value unique to the image processing apparatus (camera), and the shift amount generated corresponding to each focus position is a unique value in each camera. Accordingly, the focus shift amount can be calculated from the focus position information, and the blur correction unit 410 receives the focus position information (see FIG. 22) from the control unit 340 shown in FIG. The deviation amount is calculated, and the blend coefficient α (focus, r) is calculated using the focus deviation amount and the image height r acquired from the image height calculation unit 402.

さらに、図9のフローのステップ123において、ステップS122で生成した座標位置対応基本フィルタ(Fbase)に対して、像高とフォーカス位置に応じた強度調整パラメータβ(focus,r)を適用して、エンハンス強度調整した、実際のぼけ補正に適用するぼけ補正フィルタ(Ffinal)を生成する。
このステップS123で生成したぼけ補正フィルタ(Ffinal)が、処理対象画素(x,y)の画素に対する実際のぼけ補正処理に適用されるフィルタとなる。
Further, in step 123 of the flow of FIG. 9, the intensity adjustment parameter β (focus, r) corresponding to the image height and the focus position is applied to the coordinate position corresponding basic filter (Fbase) generated in step S122. A blur correction filter (Ffinal) that is applied to the actual blur correction with the enhancement intensity adjusted is generated.
The blur correction filter (Ffinal) generated in step S123 is a filter applied to the actual blur correction processing for the pixel of the processing target pixel (x, y).

なお、ステップS123における像高とフォーカス位置に応じた強度調整パラメータβ(focus,r)を適用した処理は、先に、図14〜図17を参照して説明した処理と同様の処理である。
すなわち、座標位置対応基本フィルタ(Fbase)を直流成分と交流成分に帯域分離して、2つのフィルタに分離し、交流成分に対して、エンハンス強度(エンハンス強度調整パラメータβ)を乗算し、乗算結果と直流性分の各対応係数を加算する合成処理によって、エンハンス強度調整のなされた最終的なぼけ補正フィルタ(Ffinal)を生成する。
Note that the processing to which the intensity adjustment parameter β (focus, r) according to the image height and the focus position in step S123 is applied is the same processing as that described above with reference to FIGS.
That is, the coordinate position-corresponding basic filter (Fbase) is band-separated into a DC component and an AC component, separated into two filters, the AC component is multiplied by an enhancement strength (enhance strength adjustment parameter β), and the multiplication result The final blur correction filter (Ffinal) with enhanced intensity adjustment is generated by a synthesis process of adding the corresponding coefficients for the DC component and the DC component.

なお、エンハンス強度調整パラメータβは、先に説明したブレンド係数αと同様、像高(r)と、フォーカス位置情報(focus)に応じて決定される。先に図17を参照して説明したように、像高が大きく(画像中心からの距離が大になる)につれて、エンハンス強度調整パラメータβを大きくし、フォーカスずれが大になるほど、エンハンス強度調整パラメータβを大きくする。   The enhancement intensity adjustment parameter β is determined according to the image height (r) and the focus position information (focus), as with the blend coefficient α described above. As described above with reference to FIG. 17, the enhancement intensity adjustment parameter β is increased as the image height increases (the distance from the image center increases), and the enhancement intensity adjustment parameter increases as the focus shift increases. Increase β.

ぼけ補正処理部410は、このように、図23に示すフローのステップS302で生成した色比率対応のぼけ補正フィルタを、図9に示すフローのステップS122に示す基本フィルタ(default filter)として、図9に示すフローに従った処理を実行して最終的なぼけ補正フィルタ(Ffinal)を生成する。   As described above, the blur correction processing unit 410 uses the blur correction filter corresponding to the color ratio generated in step S302 of the flow shown in FIG. 23 as a basic filter (default filter) shown in step S122 of the flow shown in FIG. 9 is executed to generate a final blur correction filter (Ffinal).

この最終的なぼけ補正フィルタ(Ffinal)が、図23に示すフローのステップS303において生成するぼけ補正フィルタである。   This final blur correction filter (Ffinal) is the blur correction filter generated in step S303 of the flow shown in FIG.

ステップS304では、ぼけ補正対象画素が飽和しているか否かが判定される。
具体的には、図22に示す飽和検出部403において、ぼけ補正対象画素の飽和検出が実行され、この検出情報がぼけ補正処理部410に入力される。
補正対象画素が飽和している場合、ぼけ補正を実行すると偽色が発生する可能性がある。これは、先の実施例において図6、図7を参照して説明したように、ぼけ補正処理には、ぼけ補正対象となる画素の周囲の画素の画素値を参照して、補正対象画素の画素値を設定する処理を含むからである。
In step S304, it is determined whether the blur correction target pixel is saturated.
Specifically, the saturation detection unit 403 illustrated in FIG. 22 performs saturation detection of the blur correction target pixel, and this detection information is input to the blur correction processing unit 410.
When the correction target pixel is saturated, there is a possibility that a false color is generated when blur correction is performed. As described with reference to FIG. 6 and FIG. 7 in the previous embodiment, the blur correction process refers to the pixel values of the pixels around the pixel to be corrected for the correction target pixel. This is because it includes processing for setting pixel values.

このような偽色発生を防止するため、図7に示すように、ぼけ補正対象画素の周囲、例えば補正対象画素を中心とする7×7画素に飽和画素が含まれる場合、補正対象画素のぼけ補正を行わない設定とする。   In order to prevent such false color generation, as shown in FIG. 7, when a saturation pixel is included around a blur correction target pixel, for example, a 7 × 7 pixel centering on the correction target pixel, the blur of the correction target pixel is detected. Set to not perform correction.

このように、図22に示すぼけ補正処理部410は、飽和検出部403における飽和画素(ハイライト)領域の検出情報に応じて、飽和画素領域は、ぼけ補正処理なし信号に置き換える処理を行う。
飽和検出部403の実行する飽和画素(ハイライト)は、例えば、ぼけ処理対象画素を中心とした7×7画素領域の画素に対して、予め既定したしきい値を超えてないか判断する。ぼけ補正処理部410は、7×7画素領域の1画素でもしきい値を超えていれば、偽色が発生する可能性が高いため、補正処理なし信号に置き換える処理を行う。
この処理は、図23に示すフローのステップS304の判定がYesと判定された場合の処理に対応し、この場合は、ステップS305,S306を実行せず、ステップS307に進む。
すなわち、処理対象画素(7×7画素の中心画素)に対するぼけ補正処理は実行しない。
As described above, the blur correction processing unit 410 illustrated in FIG. 22 performs a process of replacing the saturation pixel region with a signal without blur correction processing according to the detection information of the saturation pixel (highlight) region in the saturation detection unit 403.
For example, the saturation pixel (highlight) executed by the saturation detection unit 403 determines whether or not a predetermined threshold value is exceeded for a pixel in a 7 × 7 pixel region centered on the blur processing target pixel. The blur correction processing unit 410 performs processing for replacing with a signal without correction processing because there is a high possibility that a false color is generated if even one pixel in the 7 × 7 pixel region exceeds the threshold value.
This process corresponds to the process in the case where the determination in step S304 of the flow shown in FIG. 23 is Yes. In this case, the process proceeds to step S307 without executing steps S305 and S306.
That is, the blur correction process is not performed on the processing target pixel (the center pixel of 7 × 7 pixels).

ぼけ処理対象画素を中心とした7×7画素領域の画素のいすれも、予め既定したしきい値を超えず、飽和検出がなされなかった場合は、ステップS304の判定はNoとなり、ステップS305においてフィルタを適用したぼけ補正処理を実行する。
このぼけ補正処理は、図22に示すぼけ補正処理部410において実行する処理であり、ステップS303において生成した色比率や像高等に応じて生成されたぼけ補正フィルタを適用してぼけ補正処理が行われる。
If any of the pixels in the 7 × 7 pixel area centered on the blur processing target pixel does not exceed the predetermined threshold value and saturation is not detected, the determination in step S304 is No, and in step S305 The blur correction process with the filter applied is executed.
This blur correction process is a process executed in the blur correction processing unit 410 shown in FIG. 22, and the blur correction process is performed by applying the blur correction filter generated according to the color ratio, image height, etc. generated in step S303. Is called.

次に、ステップS306においてエッジ検出処理が実行される。
この処理は、図22に示すエッジ検出部421において実行される。エッジ検出部421は、ラインメモリ401からの出力信号を検証して、画像に含まれるエッジ情報、例えばエッジ方向とエッジ強度を含むエッジ情報を生成する。
具体的には、例えば、処理対象画素(7×7画素の中心画素)を中心として7×7画素の画素情報から算出される平坦度(weightFlat)を算出して色相関リモザイク処理部(データ変換部)430に出力する。
Next, edge detection processing is executed in step S306.
This processing is executed in the edge detection unit 421 shown in FIG. The edge detection unit 421 verifies the output signal from the line memory 401 and generates edge information included in the image, for example, edge information including the edge direction and edge strength.
Specifically, for example, a color correlation re-mosaic processing unit (data conversion) is calculated by calculating a flatness (weightFlat) calculated from pixel information of 7 × 7 pixels centering on a processing target pixel (center pixel of 7 × 7 pixels). Part) 430.

平坦度(weightFlat)については、先に図8を参照して説明したように、0〜1の範囲の値を持ち、
1に近いほど、平坦度が低い(テクスチャが多い)
0に近いほど、平坦度が高い(テクスチャが少ない)
このような画像状態を示す、平坦度の指標値である。
The flatness (weightFlat) has a value in the range of 0 to 1, as described above with reference to FIG.
The closer to 1, the lower the flatness (the more texture)
The closer to 0, the higher the flatness (less texture)
This is an index value of flatness indicating such an image state.

図8に示すように、予め設定した2つの閾値(Limit0,Limit1)を用いて、平坦度(weightFlat)を以下のように算出する。
0≦(ratioFlat)<Limit0であれば、
平坦度(weightFlat)=0
Limit0≦(ratioFlat)<Limit1であれば、
平坦度(weightFlat)=0〜1
Limit1≦(ratioFlat)であれば、
平坦度(weightFlat)=1
とする。
As shown in FIG. 8, the flatness (weightFlat) is calculated as follows using two preset threshold values (Limit0, Limit1).
If 0 ≦ (ratioFlat) <Limit0,
Flatness (weightFlat) = 0
If Limit0 ≦ (ratioFlat) <Limit1,
Flatness (weightFlat) = 0-1
If Limit1 ≦ (ratioFlat),
Flatness (weightFlat) = 1
And

エッジ検出部421は、例えば、上記の平坦度(weightFlat)情報をエッジ情報として、色相関リモザイク処理部430に出力する。
なお、前述したように、この平坦度(weightFlat)算出処理は、本出願人の先の出願である特開2011−55038号公報に記載の処理と同様の処理として実行可能であり、詳細は、特開2011−55038号公報を参照されたい。
For example, the edge detection unit 421 outputs the flatness (weightFlat) information as edge information to the color correlation re-mosaic processing unit 430.
As described above, this flatness (weightFlat) calculation process can be executed as a process similar to the process described in Japanese Patent Application Laid-Open No. 2011-55038, which is an earlier application of the present applicant. See Japanese Patent Application Laid-Open No. 2011-55038.

次に、ステップS307において色相関リモザイク処理を実行する。
この色相関リモザイク処理は、図22の色相関リモザイク処理部(データ変換処理部)430の実行する処理である。
色相関リモザイク処理部430は、RGBWのカラー配列からRGB配列への変換処理を実行する。
Next, in step S307, color correlation re-mosaic processing is executed.
This color correlation re-mosaic process is a process executed by the color correlation re-mosaic processing unit (data conversion processing unit) 430 in FIG.
The color correlation re-mosaic processing unit 430 performs conversion processing from the RGBW color array to the RGB array.

具体的には、先に図20を参照して説明したように、
W画素位置をG画素に変換(G画素値を推定)する=(GonW)
G画素位置をR画素に変換(R画素値を推定)する=(RonG)
G画素位置をB画素に変換(B画素値を推定)する=(BonG)
R画素位置をR画素に変換(R画素値を補正)する=(RonR)
B画素位置にB画素に変換(B画素値を補正)する=(BonB)
これら5つの変換や補正処理を実行する。
Specifically, as described above with reference to FIG.
Convert W pixel position to G pixel (estimate G pixel value) = (GonW)
Convert G pixel position to R pixel (estimate R pixel value) = (RonG)
Convert G pixel position to B pixel (estimate B pixel value) = (BonG)
Convert R pixel position to R pixel (correct R pixel value) = (RonR)
Convert to B pixel at B pixel position (correct B pixel value) = (BonB)
These five conversions and correction processes are executed.

色相関リモザイク処理部430は、RGBW配列において輝度の主成分であるW信号と、色成分であるG,R,B信号に正の相関があることを仮定して、RGBW配列の各画素に設定すべきRGBいずれかの目的の画素値を推定する。   The color correlation re-mosaic processing unit 430 is set for each pixel of the RGBW array on the assumption that there is a positive correlation between the W signal that is the main component of luminance in the RGBW array and the G, R, and B signals that are color components. Estimate the target pixel value of any of RGB.

図22に示すように、色相関リモザイク処理部430は、W位置G補間パラメータ算出部431、G位置RB補間パラメータ算出部432、R位置R補間パラメータ算出部433、B位置B補間パラメータ算出部434、加重加算部435を有する。   As shown in FIG. 22, the color correlation re-mosaic processing unit 430 includes a W position G interpolation parameter calculation unit 431, a G position RB interpolation parameter calculation unit 432, an R position R interpolation parameter calculation unit 433, and a B position B interpolation parameter calculation unit 434. And a weighted addition unit 435.

最初に、RGBW配列のW画素位置をRGB配列のG画素に変換(G画素値を推定)するための補間パラメータ算出部であるW位置G補間パラメータ算出部431の処理について説明する。   First, the processing of the W position G interpolation parameter calculation unit 431 that is an interpolation parameter calculation unit for converting the W pixel position of the RGBW array into the G pixel of the RGB array (estimating the G pixel value) will be described.

W位置G補間パラメータ算出部431は、RGBW配列のW画素位置に設定するG画素値の算出に適用する補間パラメータを算出する。前述の(GonW)の処理に適用する補間パラメータである。
具体的には、ラインメモリ401からの入力信号中のWin信号とGin信号、ぼけ補正処理部203から入力するぼけ補正W信号(Wd)を用いて、
ぼけ補正ありG信号:Gd、
ぼけ補正なしG信号:Gl、
これらの各信号値を算出する。
これらの信号値は、RGBW配列のW画素位置をRGB配列のG画素として設定するためのG画素値算出に適用する補間パラメータ(GonW補間パラメータ)である。
The W position G interpolation parameter calculation unit 431 calculates an interpolation parameter applied to the calculation of the G pixel value set at the W pixel position of the RGBW array. This is an interpolation parameter applied to the above-described (GonW) process.
Specifically, using the Win signal and the Gin signal in the input signal from the line memory 401, and the blur correction W signal (Wd) input from the blur correction processing unit 203,
G signal with blur correction: Gd,
G signal without blur correction: Gl,
Each of these signal values is calculated.
These signal values are interpolation parameters (GonW interpolation parameters) applied to G pixel value calculation for setting the W pixel position of the RGBW array as the G pixel of the RGB array.

なお、色相関リモザイク処理部430においても、7×7の画素領域を処理単位として、処理を行う。W位置G補間パラメータ算出部431は、まず、処理単位の7×7画素領域におけるW信号とG信号の比率を求める。
具体的には、G画素への変換対象となるW画素を中心画素として持つ7×7画素領域を処理単位として、W信号とG信号の低周波成分mWおよびmGを算出する。
具体的には、例えば図27を参照して説明したと同様の低周波成分を算出するフィルタを適用して算出することができる。図29(1)に低周波成分mWを算出するmW算出フィルタ601の一例を示す。
The color correlation re-mosaic processing unit 430 also performs processing using a 7 × 7 pixel area as a processing unit. The W position G interpolation parameter calculation unit 431 first obtains the ratio of the W signal and the G signal in the 7 × 7 pixel area of the processing unit.
Specifically, the low frequency components mW and mG of the W signal and the G signal are calculated using a 7 × 7 pixel region having a W pixel as a central pixel to be converted to a G pixel as a processing unit.
Specifically, it can be calculated by applying a filter for calculating a low frequency component similar to that described with reference to FIG. FIG. 29 (1) shows an example of the mW calculation filter 601 for calculating the low frequency component mW.

7×7画素の入力信号の変換対象画素のW画素位置を中心とする7×7画素中のW画素値に、mW算出フィルタ601の対応画素位置のフィルタ係数を乗算して、各乗算結果の加算値をW信号の低周波成分mWとして算出する。図29(1)に示すフィルタの係数は一例であり、その他の係数を利用した構成でもよい。   The W pixel value in the 7 × 7 pixel centered on the W pixel position of the conversion target pixel of the 7 × 7 pixel input signal is multiplied by the filter coefficient of the corresponding pixel position of the mW calculation filter 601, and each multiplication result The added value is calculated as the low frequency component mW of the W signal. The coefficients of the filter shown in FIG. 29 (1) are merely examples, and a configuration using other coefficients may be used.

算出したmWとmGの比率が画像内の局所領域において保たれると仮定する。この仮定に従うと、局所領域におけるWとGの画素値比率の対応関係は図30に示すグラフのような対応関係となる。図30のグラフは横軸がW画素値、縦軸がG画素値である。画像の特定の狭い局所領域では、このW画素値とG画素値の比率は一定であるとすると、図30に示す直線のような比例関係にあると仮定できる。   Assume that the calculated ratio of mW to mG is maintained in a local region in the image. According to this assumption, the correspondence relationship between the pixel value ratios of W and G in the local region is a correspondence relationship as shown in the graph of FIG. In the graph of FIG. 30, the horizontal axis represents the W pixel value, and the vertical axis represents the G pixel value. If the ratio of the W pixel value to the G pixel value is constant in a specific narrow local region of the image, it can be assumed that there is a proportional relationship such as a straight line shown in FIG.

この仮定に従い、ぼけ補正処理部410から出力される変換対象画素位置のぼけ補正ホワイト(W)信号(=Wd)を用いて、
ぼけ補正ありG信号:Gd、
を算出する。以下の式に従って算出する。
Gd=(mG/mW)×Wd
この信号[Gd]は、高周波成分を含むG信号である。
なお、ここでは、W画素値とG画素値の比率が一定であることを仮定した推定手法を例示したが、W画素値とG画素値の相関を利用した他の推定手法を用いても良い。
In accordance with this assumption, the blur correction white (W) signal (= Wd) of the conversion target pixel position output from the blur correction processing unit 410 is used.
G signal with blur correction: Gd,
Is calculated. Calculate according to the following formula.
Gd = (mG / mW) × Wd
This signal [Gd] is a G signal containing a high frequency component.
Here, the estimation method assuming that the ratio between the W pixel value and the G pixel value is constant is illustrated here, but other estimation methods using the correlation between the W pixel value and the G pixel value may be used. .

前述したように、W位置G補間パラメータ算出部431は、RGBW配列のW画素位置に設定するG画素値の算出に適用する補間パラメータとして、
ぼけ補正ありG信号:Gd、
ぼけ補正なしG信号:Gl、
これらの各信号値を算出する。加重加算処理部435が変換対象画素のエッジ情報に応じて、これら2つの信号、Gd、Glのブレンド処理をして最終的なG画素値を決定する。
As described above, the W position G interpolation parameter calculation unit 431 has, as the interpolation parameter applied to the calculation of the G pixel value set at the W pixel position of the RGBW array,
G signal with blur correction: Gd,
G signal without blur correction: Gl,
Each of these signal values is calculated. The weighted addition processing unit 435 blends these two signals, Gd and Gl, according to the edge information of the conversion target pixel, and determines the final G pixel value.

ぼけ補正なしG信号Glの算出処理について説明する。ぼけ補正なしG信号Glの算出に際しては、
まず、例えば図29(2)に示す平滑化フィルタとしてのWn算出フィルタ602を用いてノイズ信号を除去したW信号Wnを算出する。
7×7画素の入力信号501の変換対象画素502のW画素位置を中心とする9画素中のW画素値に、Wn算出フィルタ602の対応画素位置のフィルタ係数を乗算して、各乗算結果の加算値をW信号のノイズ除去ホワイト(W)信号Wnを算出する。図29(2)に示すフィルタ係数は一例であり、その他の係数を利用した構成でもよい。また、9画素より広い領域を利用した構成としてもよい。また、演算コスト削減のため、ラインメモリ401から入力するW信号をそのまま利用する構成でも良い。
Processing for calculating the G signal Gl without blur correction will be described. When calculating the G signal Gl without blur correction,
First, a W signal Wn from which a noise signal has been removed is calculated using, for example, a Wn calculation filter 602 as a smoothing filter shown in FIG.
The W pixel value in 9 pixels centering on the W pixel position of the conversion target pixel 502 of the input signal 501 of 7 × 7 pixels is multiplied by the filter coefficient of the corresponding pixel position of the Wn calculation filter 602, and each multiplication result A noise removal white (W) signal Wn of the W signal is calculated as the added value. The filter coefficient shown in FIG. 29 (2) is an example, and a configuration using other coefficients may be used. Moreover, it is good also as a structure using the area | region wider than 9 pixels. Further, a configuration in which the W signal input from the line memory 401 is used as it is may be used to reduce the calculation cost.

このノイズ除去W信号[Wn]と前述のW信号とG信号の低周波成分mWおよびmGを適用して、
ぼけ補正なしG信号:Gl、
を算出する。以下の式に従って算出する。
Gl=(mG/mW)×Wn
この信号[Gl]は、ぼけ補正信号Wdを適用したものではなく、高周波成分を強調していないG信号に相当する。
なお、ここでは、W画素値とG画素値の比率が一定であることを仮定した推定手法を例示したが、W画素値とG画素値の相関を利用した他の推定手法を用いても良い。
Applying this noise-removed W signal [Wn] and the low-frequency components mW and mG of the aforementioned W signal and G signal,
G signal without blur correction: Gl,
Is calculated. Calculate according to the following formula.
Gl = (mG / mW) × Wn
This signal [Gl] does not apply the blur correction signal Wd, and corresponds to a G signal that does not emphasize the high-frequency component.
Here, the estimation method assuming that the ratio between the W pixel value and the G pixel value is constant is illustrated here, but other estimation methods using the correlation between the W pixel value and the G pixel value may be used. .

加重加算処理部435は、変換対象画素のエッジ情報に応じて、これら2つの信号、Gd、Glのブレンド処理をして最終的なG画素値を決定する。具体的には、平坦部でなくテクスチャ度の高いエッジ部では、ぼけ補正ありG信号:Gdの比率を高め、平坦部では、ぼけ補正なしG信号:Glの比率を高めたブレンド処理を実行して最終的なG画素値を決定する。   The weighted addition processing unit 435 performs blend processing of these two signals, Gd and Gl, according to the edge information of the conversion target pixel, and determines the final G pixel value. Specifically, the blending process is executed in which the ratio of the G signal with the blur correction: Gd is increased at the edge portion having a high texture degree instead of the flat portion, and the ratio of the G signal without blur correction: Gl is increased at the flat portion. To determine the final G pixel value.

G位置RB補間パラメータ算出部432は、
G画素位置をR画素に変換(R画素値を推定)する=(RonG)
G画素位置をB画素に変換(B画素値を推定)する=(BonG)
これらの処理に適用する補間パラメータを算出する。
The G position RB interpolation parameter calculation unit 432
Convert G pixel position to R pixel (estimate R pixel value) = (RonG)
Convert G pixel position to B pixel (estimate B pixel value) = (BonG)
Interpolation parameters to be applied to these processes are calculated.

具体的には、
ぼけ補正ありR信号:Rd、
ぼけ補正なしR信号:Rl、
ぼけ補正ありB信号:Bd、
ぼけ補正なしB信号:Bl、
これらの各信号値を算出する。
これらの信号値は、RGBW配列のG画素位置をRGB配列のR画素またはB画素として設定するためのR画素値またはB画素値算出に適用する補間パラメータ(RonG補間パラメータ、BonG補間パラメータ)である。
In particular,
R signal with blur correction: Rd,
R signal without blur correction: Rl,
B signal with blur correction: Bd,
B signal without blur correction: Bl,
Each of these signal values is calculated.
These signal values are interpolation parameters (RonG interpolation parameters, BonG interpolation parameters) applied to R pixel value or B pixel value calculation for setting the G pixel position of the RGBW array as an R pixel or B pixel of the RGB array. .

これらの各信号の算出処理は、前述のW位置G補間パラメータ算出部431の処理と同様、
各信号の低周波成分mW,mR,mBを算出し、さらに、ぼけ補正処理部410から出力される変換対象画素位置のぼけ補正ホワイト(W)信号(=Wd)を用いて、以下の各値を算出する処理として行われる。
ぼけ補正ありR信号:Rd、
ぼけ補正ありB信号:Bd、
ぼけ補正なしR信号:Rl、
ぼけ補正なしB信号:Bl、
を算出する。
The calculation processing of these signals is the same as the processing of the W position G interpolation parameter calculation unit 431 described above.
The low frequency components mW, mR, and mB of each signal are calculated, and the following values are calculated using the blur correction white (W) signal (= Wd) of the conversion target pixel position output from the blur correction processing unit 410. This is performed as a process for calculating.
R signal with blur correction: Rd,
B signal with blur correction: Bd,
R signal without blur correction: Rl,
B signal without blur correction: Bl,
Is calculated.

以下の式に従って算出する。
Rd=(mR/mW)×Wd
Bd=(mB/mW)×Wd
これらの信号[Rd],[Bd]は、高周波成分を含む信号である。
Rl=(mR/mW)×Wn
Bl=(mB/mW)×Wn
これらの信号[Rl]、[Bl]は、ぼけ補正信号Wdを適用したものではなく、高周波成分を強調していない信号に相当する。
Calculate according to the following formula.
Rd = (mR / mW) × Wd
Bd = (mB / mW) × Wd
These signals [Rd] and [Bd] are signals including high-frequency components.
Rl = (mR / mW) × Wn
Bl = (mB / mW) × Wn
These signals [Rl] and [Bl] do not apply the blur correction signal Wd, and correspond to signals that do not emphasize high-frequency components.

なお、ここでは、W画素値とR画素値またはB画素値の比率が一定であることを仮定した推定手法を例示したが、W画素値とR画素値またはB画素値の相関を利用した他の推定手法を用いても良い。   Here, the estimation method assuming that the ratio between the W pixel value and the R pixel value or the B pixel value is constant is illustrated here, but other than the correlation between the W pixel value and the R pixel value or the B pixel value is used. The estimation method may be used.

次に、RGBW配列のR画素位置をRGB配列のR画素に変換(R画素値を補正)するための補間パラメータ算出部であるR位置R補間パラメータ算出部433と、B位置B補間パラメータ算出部434の処理について説明する。   Next, an R position R interpolation parameter calculation unit 433 which is an interpolation parameter calculation unit for converting the R pixel position of the RGBW array into an R pixel of the RGB array (correcting the R pixel value), and a B position B interpolation parameter calculation unit The process 434 will be described.

RGBW配列のR画素位置は、RGB配列(ベイヤ配列)のR画素位置に対応し、そのままのR信号を使用することができる。
同様に、RGBW配列のB画素位置は、RGB配列(ベイヤ配列)のB画素位置に対応し、そのままのB信号を使用することができる。
しかしながら、この情報は光学レンズの収差の影響により高周波信号が失われている場合がある。このような場合、G画素位置に設定するR信号、B信号とは特性が異なる場合が発生する可能性がある。
The R pixel position of the RGBW array corresponds to the R pixel position of the RGB array (Bayer array), and the R signal as it is can be used.
Similarly, the B pixel position of the RGBW array corresponds to the B pixel position of the RGB array (Bayer array), and the B signal as it is can be used.
However, this information may have lost high frequency signals due to the effects of aberrations of the optical lens. In such a case, there is a possibility that characteristics may be different from those of the R signal and the B signal set at the G pixel position.

このような特性の差異の発生を防止するため、R位置R補間パラメータ算出部433では、入力信号に含まれるW信号とR信号を用いて、R信号の補正のためのパラメータを算出する。具体的には、
ぼけ補正ありR信号:Rd、
ぼけ補正なしR信号:Rl、
これらの各信号値を算出する。
これらの信号値は、RGBW配列のR画素位置をRGB配列の補正されたR画素として設定するためのR画素値補正処理に適用する補間パラメータ(RonR補間パラメータ)である。
In order to prevent such a characteristic difference from occurring, the R position / R interpolation parameter calculation unit 433 calculates a parameter for correcting the R signal using the W signal and the R signal included in the input signal. In particular,
R signal with blur correction: Rd,
R signal without blur correction: Rl,
Each of these signal values is calculated.
These signal values are interpolation parameters (RonR interpolation parameters) applied to the R pixel value correction process for setting the R pixel position in the RGBW array as the R pixel corrected in the RGB array.

R位置R補間パラメータ算出部433は、先に説明した他の補間パラメータ算出部と同様、まず、
W信号の低周波成分mW、
R信号の低周波成分mR、
これらの各低周波成分と、
W信号のノイズ除去ホワイト(W)信号Wn
これらを算出する。
The R position R interpolation parameter calculation unit 433 is similar to the other interpolation parameter calculation units described above,
Low frequency component mW of the W signal,
Low frequency component mR of R signal,
Each of these low frequency components,
Noise removal of W signal White (W) signal Wn
These are calculated.

さらに、これらを用いて、
ぼけ補正ありR信号:Rd、
ぼけ補正なしR信号:Rl、
これらを、以下の式に従って算出する。
Rd=(mR/mW)×Wd
Rl=(mR/mW)×Wn
なお、ここでは、W画素値とR画素値の比率が一定であることを仮定した推定手法を例示したが、W画素値とR画素値の相関を利用した他の推定手法を用いても良い。
Furthermore, using these,
R signal with blur correction: Rd,
R signal without blur correction: Rl,
These are calculated according to the following formula.
Rd = (mR / mW) × Wd
Rl = (mR / mW) × Wn
Here, the estimation method assuming that the ratio between the W pixel value and the R pixel value is constant is illustrated here, but other estimation methods using the correlation between the W pixel value and the R pixel value may be used. .

B位置B補間パラメータ算出部434は、先に説明した他の補間パラメータ算出部と同様、まず、
W信号の低周波成分mW、
B信号の低周波成分mB、
これらの各低周波成分と、
W信号のノイズ除去ホワイト(W)信号Wn
これらを算出する。
The B-position B interpolation parameter calculation unit 434, like the other interpolation parameter calculation units described above,
Low frequency component mW of the W signal,
The low frequency component mB of the B signal,
Each of these low frequency components,
Noise removal of W signal White (W) signal Wn
These are calculated.

さらに、これらを用いて、
ぼけ補正ありB信号:Bd、
ぼけ補正なしB信号:Bl、
これらを、以下の式に従って算出する。
Bd=(mB/mW)×Wd
Bl=(mB/mW)×Wn
なお、ここでは、W画素値とB画素値の比率が一定であることを仮定した推定手法を例示したが、W画素値とB画素値の相関を利用した他の推定手法を用いても良い。
Furthermore, using these,
B signal with blur correction: Bd,
B signal without blur correction: Bl,
These are calculated according to the following formula.
Bd = (mB / mW) × Wd
Bl = (mB / mW) × Wn
Here, the estimation method assuming that the ratio between the W pixel value and the B pixel value is constant is illustrated here, but other estimation methods using the correlation between the W pixel value and the B pixel value may be used. .

以上のように、W位置G補間パラメータ算出部431、G位置RB補間パラメータ算出部432、R位置R補間パラメータ算出部433、B位置B補間パラメータ算出部434の各々は、
ぼけ補正ありG,R,B信号:Gd、Rd、Bd、
ぼけ補正なしG,R,B信号:Gl、Rl、Bl、
これらの信号を算出する。
As described above, each of the W position G interpolation parameter calculation unit 431, the G position RB interpolation parameter calculation unit 432, the R position R interpolation parameter calculation unit 433, and the B position B interpolation parameter calculation unit 434
G, R, B signals with blur correction: Gd, Rd, Bd,
G, R, B signals without blur correction: Gl, Rl, Bl,
These signals are calculated.

次に、加重加算部435の処理について説明する。
加重加算処理部435は、エッジ検出部421から入力するエッジ情報を適用して、
ぼけ補正あり信号:Gd,Rd,Bd、
ぼけ補正なし信号:Gl,Rl,Bl、
これらの各信号の加重平均値:Gr,Rr,Brを算出する。加重加算処理部435の算出したGr,Rr,Brは、図21に示すRGB配列(ベイヤ配列)382を構成する各画素のRGB信号値に対応する。
Next, the processing of the weighted addition unit 435 will be described.
The weighted addition processing unit 435 applies the edge information input from the edge detection unit 421, and
Blur correction signal: Gd, Rd, Bd,
No blur correction signal: Gl, Rl, Bl,
The weighted average values of these signals: Gr, Rr, Br are calculated. Gr, Rr, and Br calculated by the weighted addition processing unit 435 correspond to the RGB signal values of the respective pixels constituting the RGB array (Bayer array) 382 shown in FIG.

W位置G補間パラメータ算出部431、G位置RB補間パラメータ算出部432、R位置R補間パラメータ算出部433、B位置B補間パラメータ算出部434の各々において、算出したGd,Rd,Bdは、ぼけ補正処理部410が、ぼけ補正処理を行ったW信号として生成したぼけ補正W信号(Wd)を用いて算出されており、高周波信号成分を含むと同時にノイズも増幅された信号となっている。
一方、Gl,Rl,Blはぼけ補正処理を行っていないW信号から算出された信号であり、高周波信号成分は含まないがノイズも少ない信号となっている。
In each of the W position G interpolation parameter calculation unit 431, the G position RB interpolation parameter calculation unit 432, the R position R interpolation parameter calculation unit 433, and the B position B interpolation parameter calculation unit 434, the calculated Gd, Rd, and Bd are corrected for blur. The processing unit 410 is calculated using the blur correction W signal (Wd) generated as the W signal subjected to the blur correction process, and includes a high frequency signal component and a noise amplified signal.
On the other hand, Gl, Rl, and Bl are signals calculated from the W signal that has not been subjected to the blur correction process, and are signals that do not include high-frequency signal components but have low noise.

加重加算処理部435は、変換対象画素のエッジ情報に応じて、
ぼけ補正あり信号:Gd,Rd,Bd、
ぼけ補正なし信号:Gl,Rl,Bl、
これらの信号のブレンド比率を決定して、ブレンド処理をして最終的なG,R,B画素値を決定する。具体的には、平坦部でなくテクスチャ度の高いエッジ部では、ぼけ補正あり信号:Gd,Rd,Bdの比率を高め、平坦部では、ぼけ補正なし信号:Gl,Rl,Bl比率を高めたブレンド処理を実行して最終的なG,R,B画素値を決定する。
The weighted addition processing unit 435, according to the edge information of the conversion target pixel,
Blur correction signal: Gd, Rd, Bd,
No blur correction signal: Gl, Rl, Bl,
The blend ratio of these signals is determined and blend processing is performed to determine final G, R, and B pixel values. Specifically, the ratio of the blur correction signal: Gd, Rd, Bd is increased at the edge portion having a high texture degree instead of the flat portion, and the ratio of the blur correction-free signal: Gl, Rl, Bl is increased at the flat portion. A blend process is executed to determine final G, R, and B pixel values.

エッジの近傍においては高周波成分の復元されたシャープな信号であることが望ましいが、平坦部においては、元々高周波成分が含まれていないため、ノイズの抑制された信号であることが望ましいからである。   This is because it is desirable that the signal is a sharp signal with a high-frequency component restored in the vicinity of the edge, but since the high-frequency component is originally not included in the flat portion, it is desirable that the signal be suppressed in noise. .

そのため、加重加算処理部435は、ぼけ補正の行われた信号Gd,Rd,Bdとぼけ補正の行われていない信号Gl,Rl,Blを、以下の式に示す通り、エッジ検出部421で算出した処理対象画素のエッジ情報、すなわち平坦度(weightFlat)に応じて加重平均処理を実行して、RGB配列382に設定する画素値Gr、Rr、BRを算出する。   Therefore, the weighted addition processing unit 435 calculates the signals Gd, Rd, and Bd subjected to the blur correction and the signals Gl, Rl, and B1 not subjected to the blur correction by the edge detection unit 421 as shown in the following formula. The weighted average process is executed according to the edge information of the processing target pixel, that is, the flatness (weightFlat), and the pixel values Gr, Rr, and BR set in the RGB array 382 are calculated.

Gr=(weightFlat)×(Gd)+(1−weightFlat)×Gl
Br=(weightFlat)×(Bd)+(1−weightFlat)×Bl
Rr=(weightFlat)×(Rd)+(1−weightFlat)×Rl
この式の算出結果として得られるGr、Br、RrをRGB配列382の信号として設定しRGB信号処理部450に出力する。この処理により、ノイズの増幅を抑えながら、高解像度の信号Gr,Rr,Brを得ることができる。
Gr = (weightFlat) × (Gd) + (1−weightFlat) × Gl
Br = (weightFlat) × (Bd) + (1−weightFlat) × Bl
Rr = (weightFlat) × (Rd) + (1−weightFlat) × Rl
Gr, Br, and Rr obtained as a calculation result of this equation are set as signals of the RGB array 382 and output to the RGB signal processing unit 450. By this processing, high-resolution signals Gr, Rr, and Br can be obtained while suppressing noise amplification.

ただし、前述したように、所定単位の画素領域、例えばぼけ補正処理対象となる画素を中心とした7×7画素領域に飽和画素が検出された場合、その画素については、ぼけ補正は実行されないので、ぼけ補正なし信号Rl,Gl,Blが出力される。   However, as described above, when a saturated pixel is detected in a pixel unit of a predetermined unit, for example, a 7 × 7 pixel region centered on a pixel to be subjected to blur correction processing, blur correction is not performed for that pixel. No blur correction signals Rl, Gl and Bl are output.

最後に、ステップS308において、すべての入力画素についての処理が完了したか否かを判定し、未処理画素が存在する場合は、未処理画素について、ステップS301からステップS307の処理を繰り返し実行する。
ステップS308において、すべての入力画素についての処理が完了したと判定した場合に、画像信号補正部400の処理が終了する。
Finally, in step S308, it is determined whether or not processing for all input pixels has been completed. If there are unprocessed pixels, the processing from step S301 to step S307 is repeatedly executed for the unprocessed pixels.
If it is determined in step S308 that the processing has been completed for all input pixels, the processing of the image signal correction unit 400 ends.

加重加算処理部435の生成したGr,Rr,Brから構成されるRGB配列(ベイヤ配列)382は、図21、図22に示すようにRGB信号処理部450に提供される。
なお、前述したように、色相関リモザイク処理部(データ変換部)430の実行するRGBW配列からRGB配列へのデータ変換処理は、基本的に本出願人の先行出願である特開2011−55038号公報に記載された処理を利用可能である。このデータ変換処理の詳細については、特開2011−55038号公報を参照されたい。
The RGB array (Bayer array) 382 composed of Gr, Rr, and Br generated by the weighted addition processing unit 435 is provided to the RGB signal processing unit 450 as shown in FIGS.
As described above, the RGBW array to RGB array data conversion process executed by the color correlation re-mosaic processing unit (data conversion unit) 430 is basically Japanese Patent Application Laid-Open No. 2011-55038, which is a prior application of the present applicant. Processing described in the publication can be used. For details of this data conversion processing, refer to Japanese Patent Application Laid-Open No. 2011-55038.

RGB信号処理部450は、一般的なカメラや画像処理装置が持つRGB配列(ベイヤ配列)信号に対する信号処理部と同様である。RGB信号処理部450は、加重平均部435から出力されるRGB配列(ベイヤ配列)382に対する信号処理を実行してカラー画像383(図21参照)を生成する。RGB信号処理部450は、具体的には、例えばホワイトバランス調整処理、デモザイク処理、シェーディング処理、RGBカラーマトリクス処理、γ補正処理などを実行してカラー画像383を生成する。   The RGB signal processing unit 450 is the same as the signal processing unit for RGB array (Bayer array) signals of general cameras and image processing apparatuses. The RGB signal processing unit 450 performs signal processing on the RGB array (Bayer array) 382 output from the weighted average unit 435 to generate a color image 383 (see FIG. 21). Specifically, the RGB signal processing unit 450 generates a color image 383 by executing, for example, white balance adjustment processing, demosaic processing, shading processing, RGB color matrix processing, and γ correction processing.

なお、上述した実施例では、図20(1)に示すRGBW配列に対する処理例として説明したが、本開示の処理は、このカラー配列に限らず、色信号に比べて高いサンプリングレートを持つW画素を含む様々なカラー配列を持つフィルタを備えた撮像素子の撮像データに対して適用可能である。   In the above-described embodiment, the processing example for the RGBW array illustrated in FIG. 20A has been described. However, the process of the present disclosure is not limited to this color array, and is a W pixel having a higher sampling rate than a color signal. The present invention can be applied to imaging data of an imaging device including filters having various color arrangements including

また、上述の実施例では、図22に示すフローのステップS305におけるぼけ補正処理に適用するぼけ補正フィルタを図22に示すフローのステップS302で生成した色比率反映フィルタをベースとして、さらにステップS303において像高等を反映させて変更したフィルタとした例を説明した。   In the above-described embodiment, the blur correction filter to be applied to the blur correction process in step S305 in the flow shown in FIG. 22 is based on the color ratio reflecting filter generated in step S302 in the flow shown in FIG. The example in which the filter is changed to reflect the image height has been described.

しかし、例えば、図22に示すフローのステップS305におけるぼけ補正処理に適用するぼけ補正フィルタは、図22に示すフローのステップS302で生成した色比率反映フィルタとしてもよい。すなわち、ステップS303の処理を省略した構成としてもよい。   However, for example, the blur correction filter applied to the blur correction process in step S305 of the flow shown in FIG. 22 may be the color ratio reflecting filter generated in step S302 of the flow shown in FIG. That is, a configuration in which the process of step S303 is omitted may be employed.

また、ステップS302、S303の両ステップを実行する場合においても、先に説明した実施例1と同様、例えばステップS303のフィルタ生成処理の詳細フローである図9に示すフローのステップS123を省略し、ステップS122において、ブレンド係数α(focus,r)に基づいて生成した座標位置対応基本フィルタ(Fbas)を最終的なぼけ補正フィルタとして適用してもよい。   Also, when executing both steps S302 and S303, as in the first embodiment described above, for example, step S123 of the flow shown in FIG. 9 which is a detailed flow of the filter generation processing of step S303 is omitted. In step S122, the coordinate position corresponding basic filter (Fbas) generated based on the blend coefficient α (focus, r) may be applied as a final blur correction filter.

あるいは、図9に示すフローのステップS121やステップS122を省略し、ステップS123の処理のみによってぼけ補正フィルタを生成してもよい。すなわち、ステップS302において生成した色比率反映フィルタを基本フィルタ(default filter)として、図9に示すフローのステップ123の処理、すなわち、図14と図15を参照して説明した帯域分離処理とエンハンス強度調整パラメータβ(focus,r)を適用した考慮郵政分の強度調整と、再合成処理を実行して生成したフィルタをぼけ補正に適用してもよい。   Alternatively, step S121 and step S122 in the flow shown in FIG. 9 may be omitted, and the blur correction filter may be generated only by the process of step S123. That is, using the color ratio reflecting filter generated in step S302 as a basic filter (default filter), the processing in step 123 of the flow shown in FIG. 9, that is, the band separation processing and enhancement strength described with reference to FIGS. The filter generated by executing the intensity adjustment for the postal service to which the adjustment parameter β (focus, r) is applied and the re-synthesis process may be applied to the blur correction.

また、上記実施例では、像高(r)と、フォーカス位置情報(focus)を適用してブレンド係数αや、エンハンス強度調整パラメータβを決定する構成例を説明したが、ブレンド係数αや、エンハンス強度調整パラメータβは、像高のみに依存して決定する構成としてもよい。あるいはフォーカス位置情報(focus)のみに依存して決定する構成としてもよい。さらに、その他のパラメータ、例えばズーム位置などを考慮して決定する構成としてもよい。   In the above embodiment, the configuration example in which the blend coefficient α and the enhancement intensity adjustment parameter β are determined by applying the image height (r) and the focus position information (focus) has been described. The intensity adjustment parameter β may be determined depending on only the image height. Alternatively, it may be determined depending only on the focus position information (focus). Furthermore, the configuration may be determined in consideration of other parameters such as a zoom position.

[6.本開示の構成のまとめ]
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
[6. Summary of composition of the present disclosure]
As described above, the embodiments of the present disclosure have been described in detail with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the gist of the present disclosure. In other words, the present invention has been disclosed in the form of exemplification, and should not be interpreted in a limited manner. In order to determine the gist of the present disclosure, the claims should be taken into consideration.

なお、本明細書において開示した技術は、以下のような構成をとることができる。
(1) RGB画素とW(ホワイト)画素からなるRGBW配列を有する撮像素子の出力信号に対するぼけ補正処理を行うぼけ補正処理部と、
前記RGBW配列をRGB配列に変換するデータ変換部を有し、
前記ぼけ補正処理部は、
W画素信号に対するぼけ補正処理に際して、補正対象のW画素信号を含む局所領域の色比率を反映した色比率反映ぼけ補正フィルタを生成し、該色比率反映フィルタを適用したぼけ補正処理を実行する画像処理装置。
The technology disclosed in this specification can take the following configurations.
(1) a blur correction processing unit that performs a blur correction process on an output signal of an image sensor having an RGBW array including RGB pixels and W (white) pixels;
A data converter for converting the RGBW array into an RGB array;
The blur correction processing unit
An image for generating a color ratio reflecting blur correction filter reflecting the color ratio of the local region including the W pixel signal to be corrected and executing the blur correction process using the color ratio reflecting filter in the blur correction process for the W pixel signal Processing equipment.

(2)前記ぼけ補正処理部は、前記撮像素子の出力信号に含まれるW画素信号を利用した補間処理により、全画素対応のW画素信号を持つ補間画像を生成し、生成した補間画像を構成するW画素各々について前記色比率反映ぼけ補正フィルタを生成し、該色比率反映フィルタを適用したぼけ補正処理を実行する前記(1)に記載の画像処理装置。
(3)前記ぼけ補正処理部は、前記局所領域のRGB各色の低周波成分を算出し、算出したRGB各色の低周波成分の値の比率を前記局所領域の色比率とする前記(1)または(2)に記載の画像処理装置。
(2) The blur correction processing unit generates an interpolated image having a W pixel signal corresponding to all pixels by an interpolation process using a W pixel signal included in the output signal of the image sensor, and configures the generated interpolated image The image processing apparatus according to (1), wherein the color ratio reflecting blur correction filter is generated for each W pixel to be performed, and blur correction processing using the color ratio reflecting filter is executed.
(3) The blur correction processing unit calculates a low frequency component of each color of RGB in the local region, and uses the ratio of the calculated low frequency components of each color of RGB as the color ratio of the local region. The image processing apparatus according to (2).

(4)前記ぼけ補正処理部は、前記局所領域のRGBの各色比率に応じて決定するブレンド比率に応じて、予めメモリに保持されたR対応ぼけ補正フィルタと、G対応ぼけ補正フィルタと、B対応ぼけ補正フィルタとをブレンドして前記色比率反映ぼけ補正フィルタを生成する前記(1)〜(3)いずれかに記載の画像処理装置。
(5)前記画像処理装置は、さらに、前記RGBW配列をRGB配列に変換するデータ変換部を有する前記(1)〜(4)いずれかに記載の画像処理装置。
(6)前記データ変換部は、前記ぼけ補正処理部の生成したW画素信号対応のぼけ補正信号から推定されるRGB対応のぼけ補正信号であるぼけ補正ありRGB信号(Rd,Gd,Bd)を生成し、前記ぼけ補正ありRGB信号(Rd,Gd,Bd)を適用してRGB配列を構成するRGB信号値を決定する処理を実行する前記(1)〜(5)いずれかに記載の画像処理装置。
(4) The blur correction processing unit includes an R corresponding blur correction filter, a G corresponding blur correction filter, which are stored in advance in memory according to a blend ratio determined according to each RGB color ratio of the local region, and B The image processing apparatus according to any one of (1) to (3), wherein the color ratio reflecting blur correction filter is generated by blending with a corresponding blur correction filter.
(5) The image processing device according to any one of (1) to (4), further including a data conversion unit that converts the RGBW array into an RGB array.
(6) The data conversion unit outputs the RGB signal (Rd, Gd, Bd) with blur correction, which is a blur correction signal corresponding to RGB estimated from the blur correction signal corresponding to the W pixel signal generated by the blur correction processing unit. The image processing according to any one of (1) to (5), wherein processing for generating and determining RGB signal values constituting an RGB array by applying the RGB signal (Rd, Gd, Bd) with blur correction is performed apparatus.

(7)前記画像処理装置は、さらに、RGB画素とW画素からなるRGBW配列を有する撮像素子の出力信号を解析して各画素対応のエッジ強度情報を含むエッジ情報を生成するエッジ検出部を有し、前記データ変換部は、ぼけ補正処理の非適用信号であるぼけ補正なしRGB信号(Rl,Gl,Bl)を算出して、前記ぼけ補正処理部の生成したW画素信号対応のぼけ補正信号から推定されるRGB対応のぼけ補正信号であるぼけ補正ありRGB信号(Rd,Gd,Bd)と前記ぼけ補正なしRGB信号とのブレンド処理によりRGB配列またはカラー画像を構成するRGB信号値の決定処理を行う構成であり、前記エッジ情報によりエッジ強度が大であると判定した画素位置ではぼけ補正ありRGB信号のブレンド比率を高くし、エッジ強度が小であると判定した画素位置ではぼけ補正なしRGB信号のブレンド比率を高く設定したブレンド処理を実行してRGB信号値の決定処理を行う前記(1)〜(6)いずれかに記載の画像処理装置。   (7) The image processing apparatus further includes an edge detection unit that analyzes an output signal of an image sensor having an RGBW array including RGB pixels and W pixels to generate edge information including edge intensity information corresponding to each pixel. The data conversion unit calculates a non-blurred RGB signal (Rl, Gl, Bl) which is a non-applied signal of the blur correction processing, and generates a blur correction signal corresponding to the W pixel signal generated by the blur correction processing unit. Processing for determining RGB signal values constituting an RGB array or color image by blending RGB signals (Rd, Gd, Bd) with blur correction, which are RGB-specific blur correction signals estimated from the above, and RGB signals without blur correction In the pixel position where the edge strength is determined to be high based on the edge information, the blur correction is performed and the RGB signal blend ratio is increased to In any one of the above (1) to (6), the blending process in which the blending ratio of the RGB signal without blur correction is set high is executed at the pixel position determined to have a small degree, and the RGB signal value determination process is performed. Image processing device.

(8)前記ぼけ補正処理部は、W画素信号を適用してぼけ補正処理を実行して各画素対応のぼけ補正W信号(Wd)を生成し、前記データ変換部は、画像の局所領域でW信号とRGB各信号に正の相関があるとの仮定に基づいて、前記ぼけ補正W信号(Wd)からRGB対応のぼけ補正信号であるぼけ補正ありRGB信号(Rd,Gd,Bd)を算出する前記(1)〜(7)いずれかに記載の画像処理装置。
(9)前記ぼけ補正処理部は、前記色比率反映ぼけ補正フィルタと、ぼけ補正対象画素の像高に応じて生成する座標位置対応ハイパスフィルタを、前記ぼけ補正対象画素の像高に応じて決定するブレンド係数を適用してブレンド処理を行い、該ブレンド処理によって生成したフィルタを適用してぼけ補正処理を実行する前記(1)〜(8)いずれかに記載の画像処理装置。
(8) The blur correction processing unit performs blur correction processing by applying a W pixel signal to generate a blur correction W signal (Wd) corresponding to each pixel. The data conversion unit Based on the assumption that there is a positive correlation between the W signal and each RGB signal, the RGB signal (Rd, Gd, Bd) with blur correction, which is a blur correction signal corresponding to RGB, is calculated from the blur correction W signal (Wd). The image processing apparatus according to any one of (1) to (7).
(9) The blur correction processing unit determines, according to the image height of the blur correction target pixel, the color ratio reflecting blur correction filter and a high-pass filter corresponding to the coordinate position to be generated according to the image height of the blur correction target pixel. The image processing apparatus according to any one of (1) to (8), wherein blend processing is performed by applying a blend coefficient to be performed, and blur correction processing is performed by applying a filter generated by the blend processing.

(10)前記ぼけ補正処理部は、前記色比率反映ぼけ補正フィルタと、前記座標位置対応ハイパスフィルタを、前記ぼけ補正対象画素の像高とフォーカス位置情報に応じて決定するブレンド係数を適用してブレンド処理を行い、該ブレンド処理によって生成したフィルタを適用してぼけ補正処理を実行する前記(1)〜(9)いずれかに記載の画像処理装置。
(11)前記ぼけ補正処理部は、前記ブレンド処理において、ぼけ補正対象画素の画素位置が、画像中心から遠く、像高が大きくなるに従って、前記座標位置対応ハイパスフィルタのブレンド率を減少させたブレンド処理を実行する前記(1)〜(10)いずれかに記載の画像処理装置。
(10) The blur correction processing unit applies a blend coefficient that determines the color ratio reflecting blur correction filter and the coordinate position corresponding high-pass filter according to an image height of the blur correction target pixel and focus position information. The image processing apparatus according to any one of (1) to (9), wherein a blending process is performed, and a blur correction process is performed by applying a filter generated by the blending process.
(11) In the blending process, the blur correction processing unit reduces the blend rate of the high-pass filter corresponding to the coordinate position as the pixel position of the blur correction target pixel is far from the center of the image and the image height increases. The image processing apparatus according to any one of (1) to (10), which executes processing.

(12)前記ぼけ補正処理部は、予めメモリに保持されたx方向調整用ハイパスフィルタ(HPF_x)と、y方向調整用ハイパスフィルタ(HPF_y)と、画角中央位置[(x,y)=(0,0)]に対応する中心フィルタ(HPF_center)を、ぼけ補正対象画素の画素位置に応じてブレンドすることで、前記座標位置対応ハイパスフィルタを生成する前記(1)〜(11)いずれかに記載の画像処理装置。
(13)前記ぼけ補正処理部は、さらに、前記座標位置対応ハイパスフィルタを、ぼけ補正対象画素の像高に応じてエンハンス強度調整を実行して強度調整フィルタを生成し、該強度調整フィルタを適用したぼけ補正処理を行う前記(1)〜(12)いずれかに記載の画像処理装置。
(12) The blur correction processing unit includes an x-direction adjustment high-pass filter (HPF_x), a y-direction adjustment high-pass filter (HPF_y), and a field angle center position [(x, y) = ( 0,0)] is blended according to the pixel position of the blur correction target pixel to generate the coordinate position corresponding high-pass filter in any one of (1) to (11). The image processing apparatus described.
(13) The blur correction processing unit further generates an intensity adjustment filter by performing enhancement intensity adjustment on the coordinate position corresponding high-pass filter according to the image height of the blur correction target pixel, and applies the intensity adjustment filter. The image processing apparatus according to any one of (1) to (12), wherein the blur correction process is performed.

(14)前記ぼけ補正処理部は、前記座標位置対応ハイパスフィルタを、直流成分と交流成分に分離し、交流成分に対して、ぼけ補正対象画素の像高に応じた強度調整パラメータを適用した調整処理を行い、調整処理を行った交流成分と前記直流成分の再合成により、前記強度調整フィルタを生成する前記(1)〜(13)いずれかに記載の画像処理装置。
(15)前記ぼけ補正処理部は、前記座標位置対応ハイパスフィルタを、ぼけ補正対象画素の像高と、フォーカス位置情報に応じた強度調整パラメータを適用したエンハンス強度調整を実行して前記強度調整フィルタを生成する前記(1)〜(14)いずれかに記載の画像処理装置。
(16)前記画像信号補正部は、ぼけ補正対象画素を含む複数画素からなる局所領域に飽和画素が含まれるか否かを検出する飽和検出部を有し、前記ぼけ補正処理部は、前記飽和検出部からの検出情報を入力し、前記局所領域に飽和画素が含まれる場合には、前記ぼけ補正対象画素のぼけ補正を実行せず、飽和画素が含まれない場合にのみ、前記ぼけ補正対象画素のぼけ補正を実行する前記(1)〜(15)いずれかに記載の画像処理装置。
(14) The blur correction processing unit separates the high-pass filter corresponding to the coordinate position into a DC component and an AC component, and applies an intensity adjustment parameter corresponding to the image height of the blur correction target pixel to the AC component. The image processing apparatus according to any one of (1) to (13), wherein the intensity adjustment filter is generated by performing synthesis and recombining the AC component and the DC component that have undergone adjustment processing.
(15) The blur correction processing unit executes enhancement intensity adjustment using the coordinate position corresponding high-pass filter to which an intensity adjustment parameter corresponding to image height of the blur correction target pixel and focus position information is applied, and thereby the intensity adjustment filter. The image processing apparatus according to any one of (1) to (14).
(16) The image signal correction unit includes a saturation detection unit that detects whether or not a saturated pixel is included in a local region including a plurality of pixels including a blur correction target pixel, and the blur correction processing unit includes the saturation correction unit. When the detection information from the detection unit is input, and the saturated pixel is included in the local region, the blur correction target pixel is not subjected to blur correction, and only when the saturated pixel is not included, the blur correction target The image processing apparatus according to any one of (1) to (15), wherein pixel blur correction is executed.

さらに、上記した装置およびシステムにおいて実行する処理の方法や、処理を実行させるプログラムおよびプログラムを記録した記録媒体も本開示の構成に含まれる。   Furthermore, a configuration of the present disclosure includes a method of processing executed in the above-described apparatus and system, a program for executing the processing, and a recording medium on which the program is recorded.

また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。   The series of processing described in the specification can be executed by hardware, software, or a combined configuration of both. When executing processing by software, the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run. For example, the program can be recorded in advance on a recording medium. In addition to being installed on a computer from a recording medium, the program can be received via a network such as a LAN (Local Area Network) or the Internet, and installed on a recording medium such as a built-in hard disk.

なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Note that the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary. Further, in this specification, the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.

以上、説明したように、本開示の一実施例の構成によれば、RGBW画素配列を持つ撮像データに対する適切なぼけ補正を実現する装置、方法が実現される。
具体的には、RGB画素とW(ホワイト)画素からなるRGBW配列を有する撮像素子の出力信号に対するぼけ補正処理を行うぼけ補正処理部を有する。ぼけ補正処理部は、W画素信号に対するぼけ補正処理に際して、補正対象のW画素信号を含む局所領域の色比率を反映した色比率反映ぼけ補正フィルタを生成し、生成した色比率反映フィルタを適用したぼけ補正処理を実行する。例えば局所領域においてRGB各色の低周波成分を算出し、これらの算出値を用いて色比率を算出して、算出した色比率に応じたぼけ補正フィルタを生成してぼけ補正を実行する。
これらの処理により、画像の局所領域の色比率に応じた最適なぼけ補正フィルタを適用した適切なぼけ補正処理が実現される。
As described above, according to the configuration of an embodiment of the present disclosure, an apparatus and a method for realizing appropriate blur correction for imaging data having an RGBW pixel array are realized.
Specifically, the image processing apparatus includes a blur correction processing unit that performs a blur correction process on an output signal of an image sensor having an RGBW array including RGB pixels and W (white) pixels. The blur correction processing unit generates a color ratio reflecting blur correction filter that reflects the color ratio of the local region including the W pixel signal to be corrected, and applies the generated color ratio reflecting filter when the blur correction process is performed on the W pixel signal. Perform blur correction processing. For example, low frequency components of each color of RGB are calculated in the local region, a color ratio is calculated using these calculated values, a blur correction filter corresponding to the calculated color ratio is generated, and blur correction is executed.
With these processes, an appropriate blur correction process using an optimal blur correction filter corresponding to the color ratio of the local region of the image is realized.

100 撮像装置
105 光学レンズ
110 撮像素子(イメージセンサ)
120 信号処理部
130 メモリ
140 制御部
181 RGB配列
183 カラー画像
200 画像信号補正部
201 ラインメモリ
202 像高算出部
203 飽和検出部
210 ぼけ補正処理部
221 エッジ検出部
230 ブレンド処理部
235 加重加算部
250 RGB信号処理部
300 撮像装置
305 光学レンズ
310 撮像素子(イメージセンサ)
320 信号処理部
330 メモリ
340 制御部
381 RGBW配列
382 RGB配列
383 カラー画像
400 画像信号補正部
401 ラインメモリ
402 像高算出部
403 飽和検出部
410 ぼけ補正処理部
421 エッジ検出部
430 色相関リモザイク処理部
431 W位置G補間パラメータ算出部
432 G位置RB補間パラメータ算出部
433 R位置R補間パラメータ算出部
434 B位置B補間パラメータ算出部
435 加重加算部
450 RGB信号処理部
DESCRIPTION OF SYMBOLS 100 Imaging device 105 Optical lens 110 Imaging element (image sensor)
120 signal processing unit 130 memory 140 control unit 181 RGB array 183 color image 200 image signal correction unit 201 line memory 202 image height calculation unit 203 saturation detection unit 210 blur correction processing unit 221 edge detection unit 230 blend processing unit 235 weighted addition unit 250 RGB signal processing unit 300 imaging device 305 optical lens 310 imaging element (image sensor)
320 Signal processing unit 330 Memory 340 Control unit 381 RGBW array 382 RGB array 383 Color image 400 Image signal correction unit 401 Line memory 402 Image height calculation unit 403 Saturation detection unit 410 Blur correction processing unit 421 Edge detection unit 430 Color correlation re-mosaic processing unit 431 W position G interpolation parameter calculation unit 432 G position RB interpolation parameter calculation unit 433 R position R interpolation parameter calculation unit 434 B position B interpolation parameter calculation unit 435 Weighted addition unit 450 RGB signal processing unit

Claims (19)

RGB画素とW(ホワイト)画素からなるRGBW配列を有する撮像素子の出力信号に対するぼけ補正処理を行うぼけ補正処理部を有し、
前記ぼけ補正処理部は、
W画素信号に対するぼけ補正処理に際して、補正対象のW画素信号を含む局所領域の色比率を反映した色比率反映ぼけ補正フィルタを生成し、該色比率反映フィルタを適用したぼけ補正処理を実行する画像処理装置。
A blur correction processing unit that performs blur correction processing on an output signal of an image sensor having an RGBW array including RGB pixels and W (white) pixels;
The blur correction processing unit
An image for generating a color ratio reflecting blur correction filter reflecting the color ratio of the local region including the W pixel signal to be corrected and executing the blur correction process using the color ratio reflecting filter in the blur correction process for the W pixel signal Processing equipment.
前記ぼけ補正処理部は、
前記撮像素子の出力信号に含まれるW画素信号を利用した補間処理により、全画素対応のW画素信号を持つ補間画像を生成し、生成した補間画像を構成するW画素各々について前記色比率反映ぼけ補正フィルタを生成し、該色比率反映フィルタを適用したぼけ補正処理を実行する請求項1に記載の画像処理装置。
The blur correction processing unit
An interpolation image having a W pixel signal corresponding to all the pixels is generated by interpolation processing using the W pixel signal included in the output signal of the image sensor, and the color ratio reflecting blur is applied to each of the W pixels constituting the generated interpolation image. The image processing apparatus according to claim 1, wherein a correction filter is generated, and blur correction processing using the color ratio reflection filter is executed.
前記ぼけ補正処理部は、
前記局所領域のRGB各色の低周波成分を算出し、算出したRGB各色の低周波成分の値の比率を前記局所領域の色比率とする請求項1に記載の画像処理装置。
The blur correction processing unit
The image processing apparatus according to claim 1, wherein low frequency components of each color of RGB in the local area are calculated, and a ratio of the calculated low frequency components of each color of RGB is set as a color ratio of the local area.
前記ぼけ補正処理部は、
前記局所領域のRGBの各色比率に応じて決定するブレンド比率に応じて、予めメモリに保持されたR対応ぼけ補正フィルタと、G対応ぼけ補正フィルタと、B対応ぼけ補正フィルタとをブレンドして前記色比率反映ぼけ補正フィルタを生成する請求項1に記載の画像処理装置。
The blur correction processing unit
The R corresponding blur correction filter, the G corresponding blur correction filter, and the B corresponding blur correction filter previously stored in the memory are blended in accordance with a blend ratio determined according to each RGB color ratio of the local region. The image processing apparatus according to claim 1, wherein a color ratio reflecting blur correction filter is generated.
前記画像処理装置は、さらに、
前記RGBW配列をRGB配列に変換するデータ変換部を有する請求項1に記載の画像処理装置。
The image processing apparatus further includes:
The image processing apparatus according to claim 1, further comprising a data conversion unit that converts the RGBW array into an RGB array.
前記データ変換部は、
前記ぼけ補正処理部の生成したW画素信号対応のぼけ補正信号から推定されるRGB対応のぼけ補正信号であるぼけ補正ありRGB信号(Rd,Gd,Bd)を生成し、
前記ぼけ補正ありRGB信号(Rd,Gd,Bd)を適用してRGB配列を構成するRGB信号値を決定する処理を実行する請求項5に記載の画像処理装置。
The data converter is
An RGB signal (Rd, Gd, Bd) with blur correction that is a blur correction signal corresponding to RGB estimated from the blur correction signal corresponding to the W pixel signal generated by the blur correction processing unit;
The image processing apparatus according to claim 5, wherein a process for determining RGB signal values constituting an RGB array is performed by applying the blur-corrected RGB signals (Rd, Gd, Bd).
前記画像処理装置は、さらに、
RGB画素とW画素からなるRGBW配列を有する撮像素子の出力信号を解析して各画素対応のエッジ強度情報を含むエッジ情報を生成するエッジ検出部を有し、
前記データ変換部は、
ぼけ補正処理の非適用信号であるぼけ補正なしRGB信号(Rl,Gl,Bl)を算出して、前記ぼけ補正処理部の生成したW画素信号対応のぼけ補正信号から推定されるRGB対応のぼけ補正信号であるぼけ補正ありRGB信号(Rd,Gd,Bd)と前記ぼけ補正なしRGB信号とのブレンド処理によりRGB配列またはカラー画像を構成するRGB信号値の決定処理を行う構成であり、
前記エッジ情報によりエッジ強度が大であると判定した画素位置ではぼけ補正ありRGB信号のブレンド比率を高くし、エッジ強度が小であると判定した画素位置ではぼけ補正なしRGB信号のブレンド比率を高く設定したブレンド処理を実行してRGB信号値の決定処理を行う請求項5に記載の画像処理装置。
The image processing apparatus further includes:
An edge detection unit that analyzes an output signal of an image sensor having an RGBW array composed of RGB pixels and W pixels and generates edge information including edge intensity information corresponding to each pixel;
The data converter is
An RGB signal (Rl, Gl, Bl) without blur correction, which is a non-applied signal of blur correction processing, is calculated, and the RGB blur is estimated from the blur correction signal corresponding to the W pixel signal generated by the blur correction processing unit. It is a configuration that performs RGB signal value determination processing that constitutes an RGB array or a color image by blending the RGB signal (Rd, Gd, Bd) with blur correction that is a correction signal and the RGB signal without blur correction,
The blending ratio of the RGB signal with blur correction is increased at the pixel position where the edge intensity is determined to be high according to the edge information, and the blend ratio of the RGB signal without blur correction is increased at the pixel position where the edge intensity is determined to be small. The image processing apparatus according to claim 5, wherein the RGB signal value determination process is performed by executing the set blend process.
前記ぼけ補正処理部は、
W画素信号を適用してぼけ補正処理を実行して各画素対応のぼけ補正W信号(Wd)を生成し、
前記データ変換部は、
画像の局所領域でW信号とRGB各信号に正の相関があるとの仮定に基づいて、前記ぼけ補正W信号(Wd)からRGB対応のぼけ補正信号であるぼけ補正ありRGB信号(Rd,Gd,Bd)を算出する請求項5に記載の画像処理装置。
The blur correction processing unit
A blur correction process is performed by applying the W pixel signal to generate a blur correction W signal (Wd) corresponding to each pixel,
The data converter is
Based on the assumption that there is a positive correlation between the W signal and each of the RGB signals in the local region of the image, the RGB signal (Rd, Gd) that is a blur correction signal corresponding to RGB from the blur correction W signal (Wd). , Bd) is calculated.
前記ぼけ補正処理部は、
前記色比率反映ぼけ補正フィルタと、ぼけ補正対象画素の像高に応じて生成する座標位置対応ハイパスフィルタを、前記ぼけ補正対象画素の像高に応じて決定するブレンド係数を適用してブレンド処理を行い、該ブレンド処理によって生成したフィルタを適用してぼけ補正処理を実行する請求項1に記載の画像処理装置。
The blur correction processing unit
The color ratio reflecting blur correction filter and the high-pass filter corresponding to the coordinate position generated according to the image height of the blur correction target pixel are applied with a blend coefficient that is determined according to the image height of the blur correction target pixel. The image processing apparatus according to claim 1, wherein the blur correction process is performed by applying the filter generated by the blend process.
前記ぼけ補正処理部は、
前記色比率反映ぼけ補正フィルタと、前記座標位置対応ハイパスフィルタを、前記ぼけ補正対象画素の像高とフォーカス位置情報に応じて決定するブレンド係数を適用してブレンド処理を行い、該ブレンド処理によって生成したフィルタを適用してぼけ補正処理を実行する請求項9に記載の画像処理装置。
The blur correction processing unit
The color ratio reflecting blur correction filter and the coordinate position corresponding high pass filter are blended by applying a blend coefficient determined according to the image height and focus position information of the blur correction target pixel, and are generated by the blend processing. The image processing apparatus according to claim 9, wherein the blur correction process is executed by applying the filtered filter.
前記ぼけ補正処理部は、
前記ブレンド処理において、ぼけ補正対象画素の画素位置が、画像中心から遠く、像高が大きくなるに従って、前記座標位置対応ハイパスフィルタのブレンド率を減少させたブレンド処理を実行する請求項9に記載の画像処理装置。
The blur correction processing unit
10. The blend process according to claim 9, wherein in the blend process, a blend process is executed in which the blend rate of the high-pass filter corresponding to the coordinate position is decreased as the pixel position of the blur correction target pixel is far from the image center and the image height increases. Image processing device.
前記ぼけ補正処理部は、
予めメモリに保持されたx方向調整用ハイパスフィルタ(HPF_x)と、y方向調整用ハイパスフィルタ(HPF_y)と、画角中央位置[(x,y)=(0,0)]に対応する中心フィルタ(HPF_center)を、ぼけ補正対象画素の画素位置に応じてブレンドすることで、前記座標位置対応ハイパスフィルタを生成する請求項9に記載の画像処理装置。
The blur correction processing unit
X-direction adjusting high-pass filter (HPF_x), y-direction adjusting high-pass filter (HPF_y), and a center filter corresponding to the central position [(x, y) = (0, 0)]. The image processing apparatus according to claim 9, wherein the coordinate position corresponding high-pass filter is generated by blending (HPF_center) according to a pixel position of a blur correction target pixel.
前記ぼけ補正処理部は、
さらに、前記座標位置対応ハイパスフィルタを、ぼけ補正対象画素の像高に応じてエンハンス強度調整を実行して強度調整フィルタを生成し、該強度調整フィルタを適用したぼけ補正処理を行う請求項9に記載の画像処理装置。
The blur correction processing unit
Furthermore, the coordinate position corresponding high-pass filter performs enhancement intensity adjustment according to the image height of the blur correction target pixel to generate an intensity adjustment filter, and performs blur correction processing using the intensity adjustment filter. The image processing apparatus described.
前記ぼけ補正処理部は、
前記座標位置対応ハイパスフィルタを、直流成分と交流成分に分離し、交流成分に対して、ぼけ補正対象画素の像高に応じた強度調整パラメータを適用した調整処理を行い、調整処理を行った交流成分と前記直流成分の再合成により、前記強度調整フィルタを生成する請求項13に記載の画像処理装置。
The blur correction processing unit
The coordinate position-corresponding high-pass filter is separated into a direct current component and an alternating current component, and the alternating current component is subjected to an adjustment process in which an intensity adjustment parameter corresponding to the image height of the blur correction target pixel is applied. The image processing apparatus according to claim 13, wherein the intensity adjustment filter is generated by recombining a component and the DC component.
前記ぼけ補正処理部は、
前記座標位置対応ハイパスフィルタを、ぼけ補正対象画素の像高と、フォーカス位置情報に応じた強度調整パラメータを適用したエンハンス強度調整を実行して前記強度調整フィルタを生成する請求項13に記載の画像処理装置。
The blur correction processing unit
14. The image according to claim 13, wherein the intensity adjustment filter is generated by executing enhancement intensity adjustment using the image position of the blur correction target pixel and an intensity adjustment parameter corresponding to focus position information for the high-pass filter corresponding to the coordinate position. Processing equipment.
前記画像信号補正部は、
ぼけ補正対象画素を含む複数画素からなる局所領域に飽和画素が含まれるか否かを検出する飽和検出部を有し、
前記ぼけ補正処理部は、
前記飽和検出部からの検出情報を入力し、前記局所領域に飽和画素が含まれる場合には、前記ぼけ補正対象画素のぼけ補正を実行せず、飽和画素が含まれない場合にのみ、前記ぼけ補正対象画素のぼけ補正を実行する請求項1に記載の画像処理装置。
The image signal correction unit
A saturation detection unit that detects whether a saturated pixel is included in a local region including a plurality of pixels including a blur correction target pixel;
The blur correction processing unit
When detection information from the saturation detection unit is input and a saturated pixel is included in the local region, the blur correction of the blur correction target pixel is not performed, and the blur is only performed when the saturated pixel is not included. The image processing apparatus according to claim 1, wherein blur correction of a correction target pixel is executed.
画像処理装置において画像のぼけ補正処理を実行する画像処理方法であり、
ぼけ補正処理部が、RGB画素とW(ホワイト)画素からなるRGBW配列を有する撮像素子の出力信号に対するぼけ補正処理を行うぼけ補正処理ステップを実行し、
前記ぼけ補正処理ステップは、
W画素信号に対するぼけ補正処理に際して、補正対象のW画素信号を含む局所領域の色比率を反映した色比率反映ぼけ補正フィルタを生成し、該色比率反映フィルタを適用したぼけ補正処理を実行するステップである画像処理方法。
An image processing method for executing image blur correction processing in an image processing apparatus,
The blur correction processing unit executes a blur correction processing step for performing blur correction processing on an output signal of an image sensor having an RGBW array including RGB pixels and W (white) pixels,
The blur correction processing step includes
A step of generating a color ratio reflecting blur correction filter reflecting a color ratio of a local region including the W pixel signal to be corrected and executing the blur correction process using the color ratio reflecting filter in the blur correction processing for the W pixel signal; An image processing method.
画像処理装置において画像のぼけ補正処理を実行させるプログラムであり、
ぼけ補正処理部に、RGB画素とW(ホワイト)画素からなるRGBW配列を有する撮像素子の出力信号に対するぼけ補正処理を行わせるぼけ補正処理ステップを実行させ、
前記ぼけ補正処理ステップにおいては、
W画素信号に対するぼけ補正処理に際して、補正対象のW画素信号を含む局所領域の色比率を反映した色比率反映ぼけ補正フィルタを生成させて、該色比率反映フィルタを適用したぼけ補正処理を実行させるプログラム。
A program for executing image blur correction processing in an image processing apparatus,
Causing the blur correction processing unit to execute a blur correction processing step for performing blur correction processing on an output signal of an image sensor having an RGBW array including RGB pixels and W (white) pixels;
In the blur correction processing step,
When blur correction processing is performed on a W pixel signal, a color ratio reflecting blur correction filter that reflects the color ratio of the local region including the W pixel signal to be corrected is generated, and blur correction processing using the color ratio reflecting filter is executed. program.
画像処理装置において画像のぼけ補正処理を実行させるプログラムを記録した記録媒体であり、
ぼけ補正処理部に、RGB画素とW(ホワイト)画素からなるRGBW配列を有する撮像素子の出力信号に対するぼけ補正処理を行わせるぼけ補正処理ステップを実行させ、
前記ぼけ補正処理ステップにおいては、
W画素信号に対するぼけ補正処理に際して、補正対象のW画素信号を含む局所領域の色比率を反映した色比率反映ぼけ補正フィルタを生成させて、該色比率反映フィルタを適用したぼけ補正処理を実行させるプログラムを記録した記録媒体。
A recording medium that records a program for executing image blur correction processing in an image processing apparatus,
Causing the blur correction processing unit to execute a blur correction processing step for performing blur correction processing on an output signal of an image sensor having an RGBW array including RGB pixels and W (white) pixels;
In the blur correction processing step,
When blur correction processing is performed on a W pixel signal, a color ratio reflecting blur correction filter that reflects the color ratio of the local region including the W pixel signal to be corrected is generated, and blur correction processing using the color ratio reflecting filter is executed. A recording medium that records the program.
JP2011194418A 2011-09-06 2011-09-06 Image processing apparatus, image processing method, information recording medium, and program Abandoned JP2013055623A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011194418A JP2013055623A (en) 2011-09-06 2011-09-06 Image processing apparatus, image processing method, information recording medium, and program
US13/565,264 US8837853B2 (en) 2011-09-06 2012-08-02 Image processing apparatus, image processing method, information recording medium, and program providing image blur correction
CN2012103231390A CN102984527A (en) 2011-09-06 2012-08-30 Image processing apparatus, image processing method, information recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011194418A JP2013055623A (en) 2011-09-06 2011-09-06 Image processing apparatus, image processing method, information recording medium, and program

Publications (1)

Publication Number Publication Date
JP2013055623A true JP2013055623A (en) 2013-03-21

Family

ID=48132210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011194418A Abandoned JP2013055623A (en) 2011-09-06 2011-09-06 Image processing apparatus, image processing method, information recording medium, and program

Country Status (1)

Country Link
JP (1) JP2013055623A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101516757B1 (en) * 2013-11-05 2015-05-06 에스케이텔레콤 주식회사 Image interpolation apparatus and control method thereof
WO2015174257A1 (en) * 2014-05-13 2015-11-19 ソニー株式会社 Image-processing device, image-processing method, imaging device, electronic instrument, and program
JP2016219977A (en) * 2015-05-19 2016-12-22 キヤノン株式会社 Imaging device, imaging system and image processing system
JP2017188718A (en) * 2016-04-01 2017-10-12 キヤノン株式会社 Image processing apparatus, control method therefor, and control program
CN113660415A (en) * 2021-08-09 2021-11-16 Oppo广东移动通信有限公司 Focus control method, device, imaging apparatus, electronic apparatus, and computer-readable storage medium
CN113676617A (en) * 2021-08-12 2021-11-19 Oppo广东移动通信有限公司 Motion detection method, motion detection device, electronic equipment and computer-readable storage medium
CN113840124A (en) * 2021-10-12 2021-12-24 锐芯微电子股份有限公司 Image processing method and system
CN115526809A (en) * 2022-11-04 2022-12-27 山东捷瑞数字科技股份有限公司 Image processing method and device, electronic equipment and storage medium

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101516757B1 (en) * 2013-11-05 2015-05-06 에스케이텔레콤 주식회사 Image interpolation apparatus and control method thereof
WO2015174257A1 (en) * 2014-05-13 2015-11-19 ソニー株式会社 Image-processing device, image-processing method, imaging device, electronic instrument, and program
JP2016219977A (en) * 2015-05-19 2016-12-22 キヤノン株式会社 Imaging device, imaging system and image processing system
JP2017188718A (en) * 2016-04-01 2017-10-12 キヤノン株式会社 Image processing apparatus, control method therefor, and control program
WO2023016144A1 (en) * 2021-08-09 2023-02-16 Oppo广东移动通信有限公司 Focusing control method and apparatus, imaging device, electronic device, and computer readable storage medium
CN113660415A (en) * 2021-08-09 2021-11-16 Oppo广东移动通信有限公司 Focus control method, device, imaging apparatus, electronic apparatus, and computer-readable storage medium
WO2023016183A1 (en) * 2021-08-12 2023-02-16 Oppo广东移动通信有限公司 Motion detection method and apparatus, electronic device, and computer-readable storage medium
CN113676617A (en) * 2021-08-12 2021-11-19 Oppo广东移动通信有限公司 Motion detection method, motion detection device, electronic equipment and computer-readable storage medium
CN113676617B (en) * 2021-08-12 2023-08-18 Oppo广东移动通信有限公司 Motion detection method, motion detection device, electronic device and computer-readable storage medium
CN113840124A (en) * 2021-10-12 2021-12-24 锐芯微电子股份有限公司 Image processing method and system
CN113840124B (en) * 2021-10-12 2023-08-18 锐芯微电子股份有限公司 Image processing method and system
CN115526809A (en) * 2022-11-04 2022-12-27 山东捷瑞数字科技股份有限公司 Image processing method and device, electronic equipment and storage medium
CN115526809B (en) * 2022-11-04 2023-03-10 山东捷瑞数字科技股份有限公司 Image processing method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
US8837853B2 (en) Image processing apparatus, image processing method, information recording medium, and program providing image blur correction
JP5546229B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP5326943B2 (en) Image processing apparatus, image processing method, and program
JP5284537B2 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus using the same
JP5188651B2 (en) Image processing apparatus and imaging apparatus using the same
US9179113B2 (en) Image processing device, and image processing method, and program
JP5441652B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP6525718B2 (en) Image processing apparatus, control method therefor, and control program
TWI516132B (en) An image processing apparatus, an image processing method, and a program
JP5574615B2 (en) Image processing apparatus, control method thereof, and program
JP2013055623A (en) Image processing apparatus, image processing method, information recording medium, and program
JP5235642B2 (en) Image processing apparatus and method
JP2011123589A5 (en)
JP2011124692A5 (en)
JP2011091483A (en) Image processor, image processing method, and program
KR20090087811A (en) Imaging device, image processing device, image processing method, program for image processing method, and recording medium having program for image processing method recorded thereon
JP2007259401A (en) Noise reduction apparatus, method and program for controlling same, image sensor and digital camera
KR20130033304A (en) Image processing apparatus and method
JP2013066157A (en) Image processing apparatus, image processing method, and program
JP5771677B2 (en) Image processing apparatus, imaging apparatus, program, and image processing method
US8629917B2 (en) Image processing apparatus, method, and recording medium
JP5268321B2 (en) Image processing apparatus, image processing method, and image processing program
JP2013055622A (en) Image processing apparatus, image processing method, information recording medium, and program
JP5919086B2 (en) Image processing apparatus, control method therefor, and program
KR101327790B1 (en) Image interpolation method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140827

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20150401