JP2015109562A - Image processing device, imaging device, control method, and program - Google Patents

Image processing device, imaging device, control method, and program Download PDF

Info

Publication number
JP2015109562A
JP2015109562A JP2013251413A JP2013251413A JP2015109562A JP 2015109562 A JP2015109562 A JP 2015109562A JP 2013251413 A JP2013251413 A JP 2013251413A JP 2013251413 A JP2013251413 A JP 2013251413A JP 2015109562 A JP2015109562 A JP 2015109562A
Authority
JP
Japan
Prior art keywords
image
recovery process
recovery
imaging
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013251413A
Other languages
Japanese (ja)
Inventor
前田 浩二
Koji Maeda
浩二 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013251413A priority Critical patent/JP2015109562A/en
Publication of JP2015109562A publication Critical patent/JP2015109562A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To suitably correct a blur of an image while reducing amplification of noise.SOLUTION: An image processing device applies a recovery process for recovering an influence of aberrations of an imaging optical system to respective pixels of an image including the influence of aberrations of the imaging optical system. Further, the image processing device estimates a noise increment resulting from the application of the recovery process for each of the pixels of the image to which the recovery process is applied based upon frequency characteristics of the image before the recovery process is applied and frequency characteristics of the recovery process. Then noise of the image to which the recovery process is applied is reduced based upon estimated noise increments.

Description

本発明は、画像処理装置、撮像装置、制御方法、及びプログラムに関し、特に画質向上に係る画像処理技術に関する。   The present invention relates to an image processing apparatus, an imaging apparatus, a control method, and a program, and more particularly to an image processing technique for improving image quality.

デジタルカメラ等の撮像装置による撮像で得られた画像の画質低下の1つに、鮮明度に係る劣化である所謂ボケがある。画像におけるボケは、撮像光学系の球面収差、コマ収差、像面湾曲、及び非点収差等に起因する。このような収差により、例えばコマ収差のような非対称のボケや、色成分ごとにボケが異なることによる色滲み等が撮像画像に含まれる。   One of the deteriorations in image quality of an image obtained by imaging with an imaging device such as a digital camera is so-called blur, which is degradation related to sharpness. The blur in the image is caused by spherical aberration, coma aberration, field curvature, astigmatism, and the like of the imaging optical system. Due to such aberrations, for example, asymmetric blur such as coma aberration, color blur due to different blur for each color component, and the like are included in the captured image.

収差は、点像分布関数(PSF:Point Spread Function)として表される。また該関数をフーリエ変換することで、収差を周波数空間における光学伝達関数(OTF:Optic Transfer Function)として表すことができる。OTFは複素数で表すことができ、絶対値である振幅成分がMTF(Modulation Transfer Function)を示し、偏角である位相成分がPTF(Phase Transfer Function)を示す。つまり、画像におけるボケは、撮像光学系の光学伝達関数により像の振幅成分及び位相成分により及ぼされた影響によって生じる。また色成分ごとにPSFは異なるため、色滲みの原因となる色成分ごとに異なるボケが生じる。   The aberration is expressed as a point spread function (PSF). Further, by performing Fourier transform on the function, the aberration can be expressed as an optical transfer function (OTF) in the frequency space. OTF can be represented by a complex number, an amplitude component that is an absolute value indicates MTF (Modulation Transfer Function), and a phase component that is a declination indicates PTF (Phase Transfer Function). That is, the blur in the image is caused by the influence exerted by the amplitude component and the phase component of the image by the optical transfer function of the imaging optical system. In addition, since the PSF is different for each color component, a different blur occurs for each color component that causes color bleeding.

画像に生じた収差によるボケは、撮像光学系のOTFに基づく回復フィルタを撮像画像に適用することで回復(補正、復元)されている。しかしながら、このような回復処理の過程において、収差の影響の補正により画像の鮮明度が向上される一方で、画像に含まれるノイズは増幅される。このため、回復処理におけるノイズの増幅を低減する技術が開示されている。特許文献1には、ノイズ量が許容範囲外である場合に、回復処理において適用される回復フィルタのゲインを弱め、ノイズが許容範囲内に収まるような回復処理を実行する方法が開示されている。また特許文献2には、複数の回復フィルタを予め用意しておき、最もノイズが増幅されないフィルタを適応的に適用する方法が開示されている。   The blur caused by the aberration generated in the image is recovered (corrected or restored) by applying a recovery filter based on the OTF of the imaging optical system to the captured image. However, in the process of such recovery processing, the sharpness of the image is improved by correcting the influence of the aberration, while noise included in the image is amplified. For this reason, a technique for reducing noise amplification in the recovery process is disclosed. Patent Document 1 discloses a method for executing a recovery process in which the gain of a recovery filter applied in the recovery process is weakened and the noise falls within the allowable range when the amount of noise is outside the allowable range. . Further, Patent Document 2 discloses a method of preparing a plurality of recovery filters in advance and adaptively applying a filter with the least noise amplification.

特開2007−299068号公報JP 2007-299068 A 特開2011−120309号公報JP 2011-120309 A

しかしながら、特許文献1及び2のような方法ではノイズの増幅は抑制できるが、その反面、ボケの回復効果も低減してしまうため、補正後の画像においてボケが好適に補正されていない可能性があった。   However, in the methods such as Patent Documents 1 and 2, noise amplification can be suppressed, but on the other hand, the blur recovery effect is also reduced, and thus there is a possibility that the blur is not suitably corrected in the corrected image. there were.

特に特許文献1のように画像の局所的あるいは全体的なノイズ量が許容範囲に収まるように適用ゲインを一律で低減させる場合、従来の手法で好適にボケが補正されていた領域についても回復効果が低減する可能性があった。収差の特性上、画像の領域ごとにボケの強度が異なるため、撮像光学系のOTFによる影響をキャンセル(完全回復)するゲインも領域ごとに異なる。従来の手法では、回復処理の強度が設定されたことに応じて適用ゲインが決定されるが、完全回復に必要なゲインを決定したゲインが超える場合は完全回復に必要なゲインが画像の領域について適用されていた。即ち、領域ごとに完全回復ゲインか決定した適用ゲインのいずれかが適用されるため、補正後の画像には完全回復している領域としていない領域とが混在していた。しかしながら、特許文献1のように一律で適用ゲインを低減させる場合は、完全回復するはずの領域の回復効果を低減してしまう可能性があった。その結果、完全回復した場合にノイズの影響が無視できるような領域であっても、好適な補正が行われない可能性があった。   In particular, when the applied gain is uniformly reduced so that the local or overall noise amount of the image falls within the allowable range as in Patent Document 1, the recovery effect can be obtained even in the region where the blur is suitably corrected by the conventional method. There was a possibility of reduction. Because of the aberration characteristics, the blur intensity differs for each area of the image. Therefore, the gain for canceling (completely recovering) the influence of the OTF of the imaging optical system also differs for each area. In the conventional method, the applied gain is determined according to the setting of the strength of the recovery process, but if the gain that determines the gain required for complete recovery exceeds the gain, the gain required for complete recovery is determined for the image area. Had been applied. That is, since any one of the applied gains determined as the complete recovery gain is applied for each region, the corrected image includes a region that is not a completely recovered region. However, when the applied gain is reduced uniformly as in Patent Document 1, there is a possibility that the recovery effect of the region that should be completely recovered may be reduced. As a result, there is a possibility that suitable correction may not be performed even in a region where the influence of noise can be ignored when it is completely recovered.

本発明は、上述の問題点に鑑みてなされたものであり、ノイズの増幅を低減しつつ、画像のボケを好適に補正する画像処理装置、撮像装置、制御方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and provides an image processing apparatus, an imaging apparatus, a control method, and a program that appropriately correct blur of an image while reducing noise amplification. Objective.

前述の目的を達成するために、本発明の画像処理装置は、以下の構成を備えることを特徴とする。具体的には画像処理装置は、撮像光学系の収差による影響を含む画像を取得する取得手段と、取得手段により取得された画像の各画素に、撮像光学系の収差による影響を回復する回復処理を適用する回復手段と、回復処理が適用された画像の各画素について、取得手段によって取得された画像の周波数特性と回復処理の周波数特性に基づいて回復処理の適用によるノイズ増加量を推定する推定手段と、推定手段により推定されたノイズ増加量に基づいて、回復処理が適用された画像のノイズを低減する低減手段と、を有することを特徴とする。   In order to achieve the above object, an image processing apparatus of the present invention is characterized by having the following configuration. Specifically, the image processing apparatus includes an acquisition unit that acquires an image including the influence of the aberration of the imaging optical system, and a recovery process that recovers the influence of the aberration of the imaging optical system on each pixel of the image acquired by the acquisition unit. For each pixel of the image to which the recovery process is applied, and to estimate the amount of noise increase due to the application of the recovery process based on the frequency characteristics of the image acquired by the acquisition means and the frequency characteristics of the recovery process And a reduction means for reducing noise of the image to which the recovery processing is applied based on the noise increase amount estimated by the estimation means.

このような構成により本発明によれば、ノイズの増幅を低減しつつ、画像のボケを好適に補正することが可能となる。   With such a configuration, according to the present invention, it is possible to suitably correct image blur while reducing noise amplification.

本発明の実施形態に係るデジタルカメラ100の機能構成を示したブロック図1 is a block diagram showing a functional configuration of a digital camera 100 according to an embodiment of the present invention. 本発明の実施形態に係る画像処理部107の内部構成を示したブロック図The block diagram which showed the internal structure of the image process part 107 which concerns on embodiment of this invention. 本発明の実施形態に係るデジタルカメラ100において実行される回復処理を例示したフローチャートThe flowchart which illustrated the recovery process performed in the digital camera 100 which concerns on embodiment of this invention. 本発明の実施形態に係るフィルタ生成部201において実行されるフィルタ生成処理を例示したフローチャートThe flowchart which illustrated the filter production | generation process performed in the filter production | generation part 201 which concerns on embodiment of this invention 本発明の実施形態に係る回復フィルタの生成を説明するための図The figure for demonstrating the production | generation of the recovery filter which concerns on embodiment of this invention 本発明の実施形態に係る入力ゲインと完全回復ゲインとの関係を説明するための図The figure for demonstrating the relationship between the input gain which concerns on embodiment of this invention, and a perfect recovery gain 本発明の実施形態に係る緩和処理における処理関数を説明するための図The figure for demonstrating the processing function in the relaxation process which concerns on embodiment of this invention 本発明の実施形態に係る緩和係数決定部204において実行される係数決定処理を例示したフローチャートThe flowchart which illustrated the coefficient determination process performed in the relaxation coefficient determination part 204 which concerns on embodiment of this invention

[実施形態]
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下に説明する一実施形態は、画像処理装置の一例としての、撮像光学系により画像に生じたボケの影響を補正可能なデジタルカメラに、本発明を適用した例を説明する。しかし、本発明は、撮像光学系により画像に生じたボケの影響を補正することが可能な任意の機器に適用可能である。
[Embodiment]
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following embodiment, an example in which the present invention is applied to a digital camera capable of correcting the influence of blur generated in an image by an imaging optical system as an example of an image processing apparatus will be described. However, the present invention can be applied to any device capable of correcting the influence of blur generated on an image by the imaging optical system.

《デジタルカメラ100の構成》
図1は、本発明の実施形態に係るデジタルカメラ100の機能構成を示すブロック図である。
<< Configuration of Digital Camera 100 >>
FIG. 1 is a block diagram showing a functional configuration of a digital camera 100 according to an embodiment of the present invention.

システム制御部101は、例えばCPUである。システム制御部101は、デジタルカメラ100が有する各ブロックの動作を制御する。具体的にはシステム制御部101は、不図示のROMに記憶されている各ブロックの動作プログラムを読み出し、例えば後述のメモリ106に展開して実行することで、各ブロックの動作を制御する。   The system control unit 101 is, for example, a CPU. The system control unit 101 controls the operation of each block included in the digital camera 100. Specifically, the system control unit 101 controls the operation of each block by reading an operation program for each block stored in a ROM (not shown) and developing the program in, for example, a memory 106 described later.

撮像部103は、例えばCCDやCMOSセンサ等の撮像素子である。撮像部103は、撮像光学系102により撮像面に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部104に出力する。撮像光学系102はデジタルカメラ100に着脱可能なレンズユニット(以下、レンズという)内に配置されたものであり、このレンズは別のデジタルカメラ100にも装着することができる。   The imaging unit 103 is an imaging element such as a CCD or a CMOS sensor. The imaging unit 103 photoelectrically converts the optical image formed on the imaging surface by the imaging optical system 102 and outputs the obtained analog image signal to the A / D conversion unit 104. The imaging optical system 102 is disposed in a lens unit (hereinafter referred to as a lens) that can be attached to and detached from the digital camera 100, and this lens can be attached to another digital camera 100.

A/D変換部104は、入力されたアナログ画像信号に対してA/D変換処理を適用してデジタル画像データ(以下、単に画像データ)に変換し、出力する。A/D変換部104により出力された画像データは、画像処理部107及びメモリ制御部105を介して、あるいは直接メモリ制御部105を介して、メモリ106または画像表示メモリ110に書き込まれる。   The A / D converter 104 applies A / D conversion processing to the input analog image signal to convert it into digital image data (hereinafter simply referred to as image data), and outputs it. The image data output by the A / D conversion unit 104 is written into the memory 106 or the image display memory 110 via the image processing unit 107 and the memory control unit 105 or directly via the memory control unit 105.

メモリ制御部105は、揮発性メモリであるメモリ106へのデータの書き込み、及びメモリ106からのデータの読み出しを制御する。メモリ106は、例えば画像処理部107における画像処理の処理メモリとして使用されてもよい。   The memory control unit 105 controls data writing to the memory 106 that is a volatile memory and data reading from the memory 106. The memory 106 may be used as a processing memory for image processing in the image processing unit 107, for example.

画像処理部107は、入力された画像データに対して、デモザイク処理(現像処理)や色変換処理等の種々の画像処理を適用する。本実施形態では画像処理部107は、撮像光学系102の光学伝達関数(OTF)によって撮像画像に生じた影響をキャンセルする後述の回復処理を実行する。また本実施形態の画像処理部107では、回復処理が適用された画像に対して、ノイズを低減する後述の緩和処理を実行する。   The image processing unit 107 applies various image processing such as demosaic processing (development processing) and color conversion processing to the input image data. In the present embodiment, the image processing unit 107 executes a later-described recovery process that cancels the influence generated on the captured image by the optical transfer function (OTF) of the imaging optical system 102. In addition, the image processing unit 107 of the present embodiment executes a later-described mitigation process for reducing noise on the image to which the recovery process is applied.

〈画像処理部107の内部構成〉
ここで、本実施形態の画像処理部107の回復処理に係る内部構成について、図2を参照して説明する。
<Internal Configuration of Image Processing Unit 107>
Here, an internal configuration related to the recovery processing of the image processing unit 107 of the present embodiment will be described with reference to FIG.

まず、回復処理の対象である画像データは、回復処理部202及び特徴量算出部203に入力される。また画像処理部107には、撮像光学系102を備えたレンズの種類を示す識別情報に基づき、回復処理に用いられる撮像光学系102のOTFを示す情報であるOTFデータが、例えばメモリ106から読み出されて入力される。   First, the image data that is the target of the recovery process is input to the recovery processing unit 202 and the feature amount calculation unit 203. The image processing unit 107 also reads OTF data, which is information indicating the OTF of the imaging optical system 102 used for the recovery process, from the memory 106 based on the identification information indicating the type of lens including the imaging optical system 102, for example. It is issued and input.

フィルタ生成部201は、OTFデータに基づいてOTFにより生じる影響を補正する回復フィルタを生成する。フィルタ生成部201は、フィルタ適用対象の画像データを撮影した際のレンズの種類、ズーム位置、絞り、被写体距離、及び撮影モード等の情報に基づき、回復フィルタを生成する。   The filter generation unit 201 generates a recovery filter that corrects the influence caused by the OTF based on the OTF data. The filter generation unit 201 generates a recovery filter based on information such as a lens type, a zoom position, a diaphragm, a subject distance, and a shooting mode when image data to be filtered is captured.

回復処理部202は、フィルタ生成部201により生成された回復フィルタを入力された画像データに適用し、撮像光学系102のOTFにより生じた影響を補正する回復処理を実行する。   The recovery processing unit 202 applies the recovery filter generated by the filter generation unit 201 to the input image data, and executes a recovery process for correcting the influence caused by the OTF of the imaging optical system 102.

また、本実施形態の画像処理部107では、回復処理の過程で生じるノイズの増幅を低減(緩和)するために、特徴量算出部203、緩和係数決定部204、及び緩和処理部205を用いて緩和処理を実行する。   In addition, the image processing unit 107 of the present embodiment uses the feature amount calculation unit 203, the relaxation coefficient determination unit 204, and the relaxation processing unit 205 in order to reduce (relieve) noise amplification that occurs during the recovery process. Execute mitigation processing.

特徴量算出部203は、入力された画像データの局所領域の各々について、その周波数特性(周波数分布)を特徴量として算出する。該特徴量は、回復フィルタを用いた回復処理が適用された際のノイズ増加量の推定に参照される。   The feature amount calculation unit 203 calculates the frequency characteristic (frequency distribution) as a feature amount for each local region of the input image data. The feature amount is referred to when estimating the amount of noise increase when the recovery process using the recovery filter is applied.

緩和係数決定部204は、特徴量算出部203において算出された画像データの各領域の特徴量に基づいて、回復後のノイズ増加量を推定する。そして緩和係数決定部204は、推定した各領域のノイズ増加量に基づき、緩和処理で使用する各領域の緩和係数を決定する。   The relaxation coefficient determination unit 204 estimates the amount of noise increase after recovery based on the feature amount of each area of the image data calculated by the feature amount calculation unit 203. Then, the relaxation coefficient determination unit 204 determines the relaxation coefficient of each region used in the relaxation processing based on the estimated noise increase amount of each region.

緩和処理部205は、回復処理部202において回復処理が実行された画像データに対し、緩和係数決定部204で決定した各領域の緩和係数を用いた緩和処理を実行する。緩和処理部205は、回復処理により増幅されたノイズを領域ごとに決定した緩和係数に基づいて補正した画像データを生成する。   The relaxation processing unit 205 performs a relaxation process using the relaxation coefficient of each region determined by the relaxation coefficient determination unit 204 on the image data that has been subjected to the recovery process by the recovery processing unit 202. The relaxation processing unit 205 generates image data in which the noise amplified by the recovery process is corrected based on the relaxation coefficient determined for each region.

出力部206は、緩和処理部205において緩和処理が実行された画像データに対して圧縮処理等の符号化処理を適用して出力する。また出力部206は、必要に応じて色処理やガンマ処理等の画像処理を画像データに対して適用する。   The output unit 206 applies an encoding process such as a compression process to the image data that has been subjected to the relaxation process in the relaxation processing unit 205 and outputs the image data. The output unit 206 applies image processing such as color processing and gamma processing to the image data as necessary.

また記録媒体108は、例えばデジタルカメラ100が有する内蔵メモリや、メモリカードやHDDのような記録装置である。撮影指示に応じて撮影された画像データは、画像処理部107において記録用の画像処理が適用された後、記録媒体108に記録される。   The recording medium 108 is a recording device such as a built-in memory of the digital camera 100, a memory card, or an HDD. The image data photographed in response to the photographing instruction is recorded on the recording medium 108 after image processing for recording is applied in the image processing unit 107.

表示部109は、例えばLCD等の、デジタルカメラ100が有する表示装置である。表示部109は、撮像部103により撮像されてメモリ制御部105により画像表示メモリ110に格納された撮像画像データが表示されることで、電子ビューファインダとして機能する。具体的には画像表示メモリ110から読み出された撮像画像データは、D/A変換部111によりアナログ画像信号に変換されて表示部109に入力されることでスルー画像として表示される(ライブビュー)。   The display unit 109 is a display device that the digital camera 100 has, such as an LCD. The display unit 109 functions as an electronic viewfinder by displaying captured image data captured by the imaging unit 103 and stored in the image display memory 110 by the memory control unit 105. Specifically, the captured image data read from the image display memory 110 is converted into an analog image signal by the D / A conversion unit 111 and input to the display unit 109 to be displayed as a through image (live view). ).

操作入力部112は、例えばシャッタスイッチやメニューボタン等のデジタルカメラ100が有するユーザインタフェースである。操作入力部112は、ユーザインタフェースに対する操作入力がなされたことを検出すると、なされた操作に対応する制御信号をシステム制御部101に出力する。例えば操作入力部112は、シャッタスイッチが半押し状態になされたことを検出すると、SW1信号をシステム制御部101に出力する。このときシステム制御部101は、SW1信号の受信に応じて、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始するように各ブロックを制御する。   The operation input unit 112 is a user interface of the digital camera 100 such as a shutter switch or a menu button. When the operation input unit 112 detects that an operation input to the user interface has been performed, the operation input unit 112 outputs a control signal corresponding to the performed operation to the system control unit 101. For example, when the operation input unit 112 detects that the shutter switch is half-pressed, the operation input unit 112 outputs the SW1 signal to the system control unit 101. At this time, the system control unit 101 starts operations such as AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, and EF (flash pre-flash) processing in response to the reception of the SW1 signal. Control each block to

《回復フィルタの原理》
まず、画像処理部107のフィルタ生成部201において生成される回復フィルタについて、その原理を説明する。
《Recovery filter principle》
First, the principle of the recovery filter generated by the filter generation unit 201 of the image processing unit 107 will be described.

上述したように、撮像光学系102の収差により、撮影される光学像において、被写体像は本来結像されるべき位置から移動されて結像される。収差は点像分布関数(PSF)として表現できるため、本来結像されるべき光学像をf(x,y)、実際に結像された光学像をg(x,y)、PSFをh(x,y)として関数表現した場合、各関数の関係は
として表すことができる。ここで、*はコンボリューション(畳み込み積分、積和)を示しており、(x,y)は例えば撮像素子上における2次元座標を示している。
As described above, due to the aberration of the imaging optical system 102, the subject image is moved from the position where it should originally be formed in the optical image to be imaged. Since the aberration can be expressed as a point spread function (PSF), the optical image to be originally formed is f (x, y), the actually formed optical image is g (x, y), and the PSF is h ( When the function is expressed as x, y), the relationship between the functions is
Can be expressed as Here, * indicates convolution (convolution integration, product sum), and (x, y) indicates, for example, two-dimensional coordinates on the image sensor.

点像分布関数(PSF)は、周波数領域に変換することで光学伝達関数(OTF)として表現されるため、式(1)をフーリエ変換により周波数領域に変換することでコンボリューションを除外した
として表現することができる。ここで、H(u,v)は点像分布関数h(x,y)をフーリエ変換した光学伝達関数である。またG(u,v)、F(u,v)はそれぞれg(x,y)、f(x,y)をフーリエ変換したものである。なお、(u,v)は2次元周波数領域(複素平面)における周波数成分及び位相成分(座標)を示している。
Since the point spread function (PSF) is expressed as an optical transfer function (OTF) by converting to the frequency domain, the convolution is excluded by converting the equation (1) to the frequency domain by Fourier transform.
Can be expressed as Here, H (u, v) is an optical transfer function obtained by Fourier transform of the point spread function h (x, y). G (u, v) and F (u, v) are obtained by Fourier transform of g (x, y) and f (x, y), respectively. Note that (u, v) indicates frequency components and phase components (coordinates) in the two-dimensional frequency domain (complex plane).

即ち、撮像により得られた画像データから収差による影響を除去するためには、式(2)の両辺をOTFで除した上で逆フーリエ変換することで、
のように画像データに対してR(x,y)の回復フィルタを適用すればよい。即ち、撮像された画像データに対して回復フィルタを適用することで、本来結像されるべき光学像に対応した画像データを得ることができる。ここで、R(x,y)は1/H(u,v)を逆フーリエ変換したものを示している。即ち、該回復フィルタはOTFに基づいて規定されているため、画像データにおいて生じている振幅成分及び位相成分の影響を補正することができる。
That is, in order to remove the influence of the aberration from the image data obtained by imaging, by dividing both sides of Equation (2) by OTF and performing inverse Fourier transform,
As described above, a recovery filter of R (x, y) may be applied to the image data. That is, by applying a recovery filter to the captured image data, it is possible to obtain image data corresponding to an optical image that should be originally formed. Here, R (x, y) represents the inverse Fourier transform of 1 / H (u, v). That is, since the recovery filter is defined based on OTF, it is possible to correct the influence of the amplitude component and the phase component generated in the image data.

なお、回復フィルタは、OTFを基準に生成されるため、画像データの領域ごとに異なる特性を示す。これにより、画像データの領域ごとに、好適な補正が適切なゲインで実行可能である。   Note that the recovery filter is generated based on the OTF, and thus exhibits different characteristics for each area of the image data. Thereby, suitable correction can be executed with an appropriate gain for each area of the image data.

また、回復フィルタやOTFの情報量は膨大になりうる。例えば1画素の補正において周囲300画素を参照する必要がある場合、単純計算で処理対象の画像データの画素数に対してその数百倍のデータ量が必要になる。またOTFは、採用されるレンズの種類に限らず、絞りやズーム位置等の撮影条件に応じても変化するため、撮像光学系102の種類及び撮影条件の各々の組み合わせについてOTFデータを記憶領域に保持することは現実的でない。   Also, the amount of information in the recovery filter and OTF can be enormous. For example, when it is necessary to refer to the surrounding 300 pixels in the correction of one pixel, a data amount that is several hundred times that of the number of pixels of the image data to be processed is required by simple calculation. The OTF is not limited to the type of lens employed, and changes depending on the shooting conditions such as the aperture and zoom position. Therefore, the OTF data is stored in the storage area for each combination of the type of the imaging optical system 102 and the shooting conditions. It is not realistic to keep it.

このため本実施形態では、OTFデータは、撮像光学系102のOTF(光学伝達関数)を多項式近似し、該多項式の係数を、像高及び偏角(円周方向及び対角方向の情報)のそれぞれについて有するデータであるものとして説明する。具体的にはOTFデータは、撮影条件ごとに、撮像光学系102のレンズに関する設計値から算出したOTFを特定の周波数の範囲で抽出して離散化したものを多項式近似することで得られる。   For this reason, in the present embodiment, the OTF data approximates the OTF (optical transfer function) of the imaging optical system 102 by a polynomial, and the coefficients of the polynomial are used for image height and declination (information in the circumferential direction and diagonal direction). The description will be made assuming that the data is included in each. Specifically, the OTF data is obtained by polynomial approximation of an OTF calculated from a design value related to the lens of the imaging optical system 102 for each imaging condition and discretized in a specific frequency range.

なお、レンズの種類が同一であっても、装着対象となるデジタルカメラの撮像素子の画素ピッチが異なれば、必要とされるOTFの周波数帯域も異なる。そのため、OTFデータを生成する際の元となるデータを、複数のデジタルカメラで共有できるようにするためには、様々な画素ピッチに対応できるデータを用意する必要がある。そこで、抽出する周波数の最大値は、様々なデジタルカメラに柔軟に対応できるよう、十分大きく設定されている。つまり、OTFデータは後述の処理において、例えば撮影時のデジタルカメラ100の特性であるナイキスト周波数等に応じて必要な周波数帯が抽出可能に構成されているものとする。しかしながら、OTFデータの記録形式はこれに限られるものではなく、例えばOTFを離散的にサンプリングしたテーブル等、回復フィルタやOTFの情報を情報量を削減する目的で変換あるいは生成された形式であってよい。   Even if the lens type is the same, if the pixel pitch of the image sensor of the digital camera to be mounted is different, the required OTF frequency band is different. For this reason, in order to be able to share data that is the basis for generating OTF data among a plurality of digital cameras, it is necessary to prepare data that can be used for various pixel pitches. Therefore, the maximum value of the frequency to be extracted is set sufficiently large so that it can be flexibly adapted to various digital cameras. That is, it is assumed that the OTF data can be extracted in a later-described process according to, for example, a Nyquist frequency that is a characteristic of the digital camera 100 at the time of shooting. However, the recording format of the OTF data is not limited to this, and is a format in which the information of the recovery filter and the OTF is converted or generated for the purpose of reducing the amount of information, such as a table in which the OTF is discretely sampled. Good.

《回復処理》
このような構成をもつ本実施形態のデジタルカメラ100で実行される回復処理について、図3のフローチャートを用いて具体的な処理を説明する。なお、本回復処理は、例えばユーザによる撮影指示に応じて撮影処理がなされ、回復処理の適用対象である画像データが生成された際に開始されるものとして説明する。
《Recovery processing》
A specific process of the recovery process executed by the digital camera 100 of the present embodiment having such a configuration will be described with reference to the flowchart of FIG. This recovery process will be described as being started when, for example, a shooting process is performed in response to a shooting instruction from the user and image data to which the recovery process is applied is generated.

S301で、システム制御部101は、回復処理の適用量を示す情報を参照し、適用対象である画像データ(対象画像データ)に対して回復処理を適用するか否かを判断する。具体的にはシステム制御部101は、回復処理の適用量が0である否かに応じて本ステップの判断を行う。システム制御部101は、対象画像データに対して回復処理を適用すると判断した場合は処理をS302に移し、適用しないと判断した場合は処理をS306に移す。   In step S301, the system control unit 101 refers to information indicating the application amount of the recovery process, and determines whether or not to apply the recovery process to the image data (target image data) that is the application target. Specifically, the system control unit 101 makes the determination in this step according to whether or not the application amount of the recovery process is zero. If the system control unit 101 determines that the recovery process is to be applied to the target image data, it moves the process to S302. If it determines that the recovery process is not to be applied, it moves the process to S306.

なお、回復処理の適用量(適用度合い)は、例えばスライダ等のGUIを用いてユーザにより設定されるものであってよい。また、回復処理の適用量は、画像全体に対して一律に設定されるものであってもよいし、領域ごとに設定可能であってもよい。なお、本実施形態では回復処理の適用量は、回復処理部202における回復処理で使用される、ユーザにより全領域について一律に設定された回復ゲイン(入力ゲイン)を示すものとする。ここで、「ゲイン」とは収差による影響を補正するため、適用対象画像のMTF(振幅成分)に対して乗じる値(増幅率)である。即ち、ゲインの周波数特性が、回復処理において適用される回復フィルタを周波数領域に変換したものに相当する。なお、厳密に完全回復するゲインの周波数特性が、撮像光学系102のOTFの逆特性と一致する。   Note that the application amount (application degree) of the recovery process may be set by the user using a GUI such as a slider. Also, the application amount of the recovery process may be set uniformly for the entire image, or may be set for each region. In the present embodiment, the recovery processing application amount is assumed to indicate a recovery gain (input gain) that is uniformly set for the entire region by the user and used in the recovery processing in the recovery processing unit 202. Here, the “gain” is a value (amplification factor) by which the MTF (amplitude component) of the application target image is multiplied in order to correct the influence of the aberration. That is, the frequency characteristic of the gain corresponds to the frequency filter converted from the recovery filter applied in the recovery process. Note that the frequency characteristic of the gain that completely recovers exactly matches the inverse characteristic of the OTF of the imaging optical system 102.

S302で、メモリ制御部105は、対象画像データと、対象画像データを撮影時の撮影条件に対応する撮像光学系102のOTFデータとを、例えばメモリ106から読み出して画像処理部107に入力する。またメモリ制御部105は、回復処理の入力ゲインを示す情報を取得し、画像処理部107に伝送する。   In S <b> 302, the memory control unit 105 reads the target image data and the OTF data of the imaging optical system 102 corresponding to the shooting conditions at the time of shooting the target image data from, for example, the memory 106 and inputs them to the image processing unit 107. Further, the memory control unit 105 acquires information indicating the input gain of the recovery process and transmits the information to the image processing unit 107.

S303で、フィルタ生成部201は、OTFデータに基づいて、対象画像データの回復処理に用いる回復フィルタを生成するフィルタ生成処理を実行する。   In step S303, the filter generation unit 201 executes filter generation processing for generating a recovery filter used for target image data recovery processing based on the OTF data.

〈フィルタ生成処理〉
ここで、フィルタ生成部201において実行されるフィルタ生成処理について、図4のフローチャートを用いて詳細を説明する。なお、本フィルタ生成処理では、対象画像データの各画素について収差による影響を低減する回復フィルタを生成する。しかしながら、全画素の各々についての補正情報を有する回復フィルタを生成することはデータ量及び演算量の観点で現実的でない。よって、本実施形態では回復フィルタは対象画像データについて離散的に設定されたサンプリング点ごとの補正情報を有する構成で生成するものとする。この場合、生成される回復フィルタに補正情報が含まれないサンプリング点以外の画素については、近傍のサンプリング点についての補正情報を補間する等により生成された補正情報に基づいて回復処理が行われるものとする。
<Filter generation processing>
Here, the filter generation process executed in the filter generation unit 201 will be described in detail using the flowchart of FIG. In this filter generation process, a recovery filter that reduces the influence of aberration is generated for each pixel of the target image data. However, generating a recovery filter having correction information for each of all pixels is not practical from the viewpoint of the amount of data and the amount of calculation. Therefore, in this embodiment, the recovery filter is generated with a configuration having correction information for each sampling point set discretely with respect to the target image data. In this case, for the pixels other than the sampling points whose correction information is not included in the generated recovery filter, the recovery processing is performed based on the correction information generated by interpolating the correction information about the neighboring sampling points. And

S401で、フィルタ生成部201は、撮影条件に対応するOTFデータに基づいて、対象画像データの光学中心から垂直下方向に設定した所定の数のサンプリング点の各々についてのOTFを生成する。本実施形態では、図5(a)に示されるようにサンプリング点の数は10とし、対象画像データの光学中心から最大像高までを等分割するようにサンプリング点が設定されるものとする。   In step S401, the filter generation unit 201 generates an OTF for each of a predetermined number of sampling points set vertically downward from the optical center of the target image data based on the OTF data corresponding to the shooting conditions. In the present embodiment, as shown in FIG. 5A, the number of sampling points is 10, and the sampling points are set so as to equally divide the target image data from the optical center to the maximum image height.

S402で、フィルタ生成部201は、各サンプリング点を光学中心を中心として反時計回りに90度まで回転させて展開し、図5(b)に示されるような対象画像データの1/4の領域内の所定のサンプリング点についてのOTFを生成する。上述したように、OTFはMTFとPTFとで構成されるため、S401において生成された各サンプリング点についてのOTFを回転させることで、PTFを異ならせたOTFを容易に生成することが容易に可能である。   In step S402, the filter generation unit 201 expands each sampling point by rotating it 90 degrees counterclockwise around the optical center, and ¼ region of the target image data as shown in FIG. 5B. An OTF for a given sampling point is generated. As described above, since the OTF is composed of the MTF and the PTF, it is possible to easily generate an OTF with different PTFs by rotating the OTF for each sampling point generated in S401. It is.

なお、本実施形態では対象画像データについて設定した基準のサンプリング点のOTFを回転させることで、所定のサンプリング点におけるOTFに展開するものとして説明するが、本発明の実施はこれに限られない。即ち、本実施形態では便宜上、基準となるサンプリング点を対象画像データの光学中心から垂直下方向に設定したが、他の位置についてサンプリング点を設定してもよいことは理解されよう。また、本実施形態では演算量を低下させるために基準となるサンプリング点についてOTFを生成した後に、該サンプリング点を回転させて展開するものとして説明した。しかしながら、演算能力が十分である場合は、図5(b)のような2次元配置されたサンプリング点全てについてOTFデータに基づいてOTFを生成する構成であってもよい。   In the present embodiment, the OTF at the reference sampling point set for the target image data is rotated to be developed into an OTF at a predetermined sampling point. However, the present invention is not limited to this. That is, in this embodiment, for convenience, the reference sampling point is set vertically downward from the optical center of the target image data, but it will be understood that sampling points may be set for other positions. Further, in the present embodiment, the OTF is generated for the reference sampling point in order to reduce the calculation amount, and then the sampling point is rotated and developed. However, when the computing capability is sufficient, the configuration may be such that OTF is generated based on the OTF data for all the two-dimensionally arranged sampling points as shown in FIG.

S403で、フィルタ生成部201は、撮像部103が有する撮像素子の画素ピッチから算出されるナイキスト周波数に応じて、2次元配置された各サンプリング点についてのOTFから必要な周波数帯の情報を抽出する。   In step S <b> 403, the filter generation unit 201 extracts information on a necessary frequency band from the OTF for each sampling point arranged two-dimensionally according to the Nyquist frequency calculated from the pixel pitch of the imaging element included in the imaging unit 103. .

S404で、フィルタ生成部201は、必要な周波数帯が抽出された各サンプリング点のOTFに対して、光学ローパスフィルタや開口劣化特性の補正係数を適用し、よりデジタルカメラ100の特性を考慮したOTFに変換する。   In step S404, the filter generation unit 201 applies an optical low-pass filter or an aperture deterioration characteristic correction coefficient to the OTF at each sampling point from which a necessary frequency band is extracted, and further considers the characteristics of the digital camera 100. Convert to

S405で、フィルタ生成部201は、各サンプリング点のOTFと入力ゲインとから、各サンプリング点について適用される適用ゲインを決定する。具体的にはフィルタ生成部201は、まず各サンプリング点のOTFについて該点の画像を完全回復状態にする完全回復ゲインを決定する。OTFのMTFは空間周波数に応じて変化するため、本実施形態では画素ピッチから算出されるナイキスト周波数の1/2の周波数についてのMTFを完全回復する(MTFを1にする)ゲインを各サンプリング点についての完全回復ゲインとして決定する。そしてフィルタ生成部201は、このように決定した完全回復ゲインと入力ゲインとから、各サンプリング点のOTF全体に乗じる最大のゲインである適用ゲインを決定する。このとき、フィルタ生成部201は、各サンプリング点について入力ゲインと完全回復ゲインとを大小比較し、完全回復ゲインが入力ゲインを越えない場合は、完全回復ゲインを適用ゲインに決定する。即ち、入力ゲインが完全回復ゲイン以上となるため、入力ゲインの適用による過補正を回避するため、適用ゲインは完全回復ゲインに設定される。またフィルタ生成部201は、入力ゲインが完全回復ゲインを下回る場合は、入力ゲインを適用ゲインに決定する。このように、本ステップにおいて各サンプリング点について決定される適用ゲインは、サンプリング点ごとに異なることになる。   In step S405, the filter generation unit 201 determines an applied gain to be applied to each sampling point from the OTF and the input gain at each sampling point. Specifically, the filter generation unit 201 first determines a complete recovery gain for bringing the image at the point into a complete recovery state for the OTF at each sampling point. Since the MTF of the OTF changes according to the spatial frequency, in this embodiment, the MTF for a frequency that is half the Nyquist frequency calculated from the pixel pitch is completely recovered (MTF is set to 1). Determine as the full recovery gain. Then, the filter generation unit 201 determines an applied gain that is the maximum gain multiplied by the entire OTF at each sampling point from the complete recovery gain and the input gain determined as described above. At this time, the filter generation unit 201 compares the input gain with the complete recovery gain for each sampling point, and determines that the complete recovery gain is the applied gain if the complete recovery gain does not exceed the input gain. That is, since the input gain is equal to or greater than the complete recovery gain, the applied gain is set to the complete recovery gain in order to avoid overcorrection due to the application of the input gain. In addition, when the input gain is less than the complete recovery gain, the filter generation unit 201 determines the input gain as the applied gain. Thus, the applied gain determined for each sampling point in this step differs for each sampling point.

対象画像データの1/4の領域について48のサンプリング点を設定した場合、像高が高い位置のサンプリング点ほど収差による結像位置変化の影響が大きくなっている。入力ゲインが比較的低い値に設定されると(例えば5)、例えば図6(a)に示されるように光学中心付近に設定された4点のみで完全回復ゲインが適用ゲインとなる。そして、それ以外の像高が高い位置に存在するサンプリング点については入力ゲインが適用ゲインとなる。また入力ゲインが比較的高い値に設定されると(例えば10)、例えば図6(b)に示されるように完全回復ゲインが適用ゲインとなるサンプリング点は増えることになる。図6(a)及び(b)からわかるように、設定される入力ゲインが高くなるほど、各サンプリング点について決定される適用ゲインの分布は広くなる。   When 48 sampling points are set for a quarter region of the target image data, the influence of the change in the imaging position due to the aberration increases as the sampling point has a higher image height. When the input gain is set to a relatively low value (for example, 5), for example, as shown in FIG. 6A, only four points set near the optical center are used as the applied gain. Then, the input gain is the applied gain for the sampling points that exist at other positions where the image height is high. When the input gain is set to a relatively high value (for example, 10), for example, as shown in FIG. 6B, the sampling points at which the complete recovery gain becomes the applied gain increases. As can be seen from FIGS. 6A and 6B, the higher the input gain that is set, the wider the distribution of the applied gain determined for each sampling point.

S406で、フィルタ生成部201は、撮像光学系102のOTFの逆特性に相当する、対象画像データの1/4領域に係る回復フィルタを生成する。具体的にはフィルタ生成部201は、適用ゲインを適用後のOTFと適用前のOTFの逆特性を逆フーリエ変換することで、サンプリング点における回復フィルタを生成する。   In step S <b> 406, the filter generation unit 201 generates a recovery filter related to a ¼ region of the target image data, which corresponds to the inverse characteristic of the OTF of the imaging optical system 102. Specifically, the filter generation unit 201 generates a recovery filter at a sampling point by performing inverse Fourier transform on the inverse characteristics of the OTF after application of the applied gain and the OTF before application.

S407で、フィルタ生成部201は、対象画像データの1/4領域について設定したサンプリング点についての回復フィルタを、対称関係にある対応位置のサンプリング点に複製し、対象画像データの全体に対応する回復フィルタを生成する。具体的には、図5(c)及び5(d)に示されるように、フィルタ生成部201は1/4領域の回復フィルタについて水平方向及び垂直方向の少なくともいずれかの位置関係を反転させて、対象画像データ全体に係る回復フィルタを生成する。   In step S <b> 407, the filter generation unit 201 duplicates the recovery filter for the sampling point set for the ¼ region of the target image data to the sampling point at the corresponding position in the symmetrical relationship, and recovers corresponding to the entire target image data. Generate a filter. Specifically, as shown in FIGS. 5C and 5D, the filter generation unit 201 reverses the positional relationship in at least one of the horizontal direction and the vertical direction for the recovery filter of the ¼ area. Then, a recovery filter relating to the entire target image data is generated.

このように、本フィルタ生成処理により、位相情報も含む複素数データであるOTFの二次元分布(サンプリング点)から、実数データの二次元回復フィルタを生成することができる。   As described above, this filter generation process can generate a two-dimensional recovery filter of real number data from a two-dimensional distribution (sampling points) of OTF which is complex number data including phase information.

回復フィルタの生成後、回復処理部202は回復処理のS304で、対象画像データの各画素に対して回復フィルタを適用し、回復処理を行った回復画像データを生成する。回復フィルタは、1つのサンプリング点について、幅と高さを有する回復用の二次元データ配列となっている。サンプリング点に対応する対象画素に対して回復フィルタを適用する場合、対象画素を含み、二次元データ配列に対応する領域の画素に対してフィルタの係数が乗じられて加算され、これにより回復処理後の対象画素の画素値が得られる。また、サンプリング点に対応しない画素については、近傍のサンプリング点から補間して生成した回復用の2次元データを適用することで回復処理を行う。   After the recovery filter is generated, the recovery processing unit 202 applies the recovery filter to each pixel of the target image data in S304 of the recovery process, and generates recovered image data subjected to the recovery process. The recovery filter is a recovery two-dimensional data array having a width and a height for one sampling point. When the recovery filter is applied to the target pixel corresponding to the sampling point, the pixel of the area including the target pixel and corresponding to the two-dimensional data array is multiplied by the filter coefficient and added. The pixel value of the target pixel is obtained. For pixels that do not correspond to sampling points, recovery processing is performed by applying recovery two-dimensional data generated by interpolation from nearby sampling points.

S305で、緩和係数決定部204は、フィルタ生成部201において生成された回復フィルタと、対象画像データの各領域の周波数特性(特徴量)とから、緩和処理に用いる緩和係数を決定する係数決定処理を実行する。   In S <b> 305, the relaxation coefficient determination unit 204 determines a relaxation coefficient to be used for the relaxation process from the recovery filter generated by the filter generation unit 201 and the frequency characteristics (features) of each region of the target image data. Execute.

本実施形態の緩和処理部205によってS306において行われる後述の緩和処理は、回復画像データの各局所領域における閾値以下の振幅を有するランダムノイズを除去する。該緩和処理において、緩和対象である回復画像データX(n)(nは領域あるいは画素位置)と緩和処理後の補正画像Y(n)の関係は
として表される。ここで、Kは例えばK=1の定数、M及びNは領域あるいは画素を特定する数値である。またFは、図7に示されるような、絶対値がε以下に抑えられる特性を示す非線形関数である。本ステップの係数決定処理では、関数Fの絶対値の最大値であるεを緩和係数として決定する。
The below-described relaxation processing performed in S306 by the relaxation processing unit 205 of the present embodiment removes random noise having an amplitude equal to or smaller than a threshold in each local region of the recovered image data. In the relaxation process, the relationship between the restored image data X (n) (n is a region or a pixel position) to be relaxed and the corrected image Y (n) after the relaxation process is
Represented as: Here, for example, K is a constant of K = 1, and M and N are numerical values for specifying a region or a pixel. Further, F is a non-linear function indicating the characteristic that the absolute value is suppressed to ε or less as shown in FIG. In the coefficient determination process in this step, ε, which is the maximum absolute value of the function F, is determined as a relaxation coefficient.

なお、係数決定処理に用いられる対象画像データの各領域の周波数特性の情報は、画像処理部107に対象画像データが入力された後に特徴量算出部203によって生成されているものとする。具体的には特徴量算出部203は、例えば回復フィルタに係るサンプリング点に対応する各領域の画像に対してフーリエ変換を適用して周波数空間に変換することで、該領域の周波数特性の情報を生成する。なお、本実施形態では緩和係数を決定する領域を、回復フィルタのサンプリング点に対応させて設けるものとして説明したが、本発明の実施はこれに限られるものではない。即ち、回復フィルタのサンプリング点と緩和係数を決定する領域とは、同数でなく、位置が対応付けられるものでなくてもよい。   Note that the frequency characteristic information of each region of the target image data used for the coefficient determination process is generated by the feature amount calculation unit 203 after the target image data is input to the image processing unit 107. Specifically, the feature value calculation unit 203 applies, for example, Fourier transform to the image of each region corresponding to the sampling point related to the recovery filter and converts it to the frequency space, thereby obtaining the frequency characteristic information of the region. Generate. In the present embodiment, the region for determining the relaxation coefficient is described as being provided corresponding to the sampling point of the recovery filter, but the embodiment of the present invention is not limited to this. That is, the sampling points of the recovery filter and the area for determining the relaxation coefficient are not the same number, and the positions may not be associated with each other.

〈係数決定処理〉
ここで、本実施形態の緩和係数決定部204で実行される係数決定処理の詳細について、図8のフローチャートを用いて詳細を説明する。
<Coefficient determination process>
Here, details of the coefficient determination process executed by the relaxation coefficient determination unit 204 of the present embodiment will be described in detail with reference to the flowchart of FIG.

S801で、緩和係数決定部204は、対象画像データについて特徴量算出部203により設定された領域のうち、緩和係数の決定がなされていない領域(対象領域)を選択する。   In step S <b> 801, the relaxation coefficient determination unit 204 selects a region (target region) for which the relaxation coefficient has not been determined from the regions set by the feature amount calculation unit 203 for the target image data.

S802で、緩和係数決定部204は、対象領域に対応するサンプリング点の回復フィルタをフーリエ変換し、回復フィルタの周波数特性を算出する。この回復フィルタの周波数特性は周波数毎の信号の増幅率を示している。   In S802, the relaxation coefficient determination unit 204 performs Fourier transform on the recovery filter at the sampling point corresponding to the target region, and calculates the frequency characteristic of the recovery filter. The frequency characteristic of the recovery filter indicates the signal amplification factor for each frequency.

S803で、緩和係数決定部204は、図9に示すグラフに従い、対象領域における回復フィルタの周波数特性から周波数毎のノイズ増幅率を求める。   In step S803, the relaxation coefficient determination unit 204 obtains a noise amplification factor for each frequency from the frequency characteristics of the recovery filter in the target region according to the graph shown in FIG.

S804で、緩和係数決定部204は、回復フィルタ適用前の対象領域の画像データをフーリエ変換し、対象領域における画像データの周波数特性を算出する。緩和係数決定部204は、この画像データの周波数特性にノイズ増幅率を掛けた結果を積分することで、ノイズ増加量を算出する。このとき、全ての周波数帯域ではなく、ノイズの影響が目立ちやすい特定の周波数帯域において、画像データの周波数特性にノイズ増幅率を掛けた結果を積分するようにすることで、ノイズ増加量を算出するようにしてもよい。あるいは、最もノイズの影響が目立ちやすい周波数のみに着目して、ノイズ増加量を算出するようにしてもよい。緩和係数決定部204は、対象領域におけるノイズ増加量に基づいて、緩和処理に用いる対象領域に係る緩和係数を決定する。ノイズ増加量は統計的に1.0〜3.0の間の値を示し、本実施形態では該ノイズ増加量に対して10を乗じたものを緩和係数とする。   In S804, the relaxation coefficient determination unit 204 performs Fourier transform on the image data of the target region before applying the recovery filter, and calculates the frequency characteristics of the image data in the target region. The relaxation coefficient determination unit 204 calculates a noise increase amount by integrating the result obtained by multiplying the frequency characteristic of the image data by the noise amplification factor. At this time, the noise increase amount is calculated by integrating the result obtained by multiplying the frequency characteristics of the image data by the noise amplification factor in a specific frequency band in which the influence of noise is conspicuous, not in all frequency bands. You may do it. Alternatively, the amount of increase in noise may be calculated by focusing on only the frequency at which the influence of noise is most noticeable. The relaxation coefficient determination unit 204 determines a relaxation coefficient related to the target region used for the relaxation processing based on the amount of noise increase in the target region. The noise increase amount statistically shows a value between 1.0 and 3.0, and in this embodiment, the noise increase amount multiplied by 10 is used as a relaxation coefficient.

S805で、緩和係数決定部204は、緩和係数の決定がなされていない領域が対象画像データに存在するか否かを判断する。緩和係数決定部204は、緩和係数の決定がなされていない領域が存在すると判断した場合は処理をS801に戻し、存在しないと判断した場合は本係数決定処理を完了する。   In step S <b> 805, the relaxation coefficient determination unit 204 determines whether there is a region in the target image data where the relaxation coefficient has not been determined. The relaxation coefficient determination unit 204 returns the process to S801 if it is determined that there is a region where the relaxation coefficient has not been determined, and completes this coefficient determination process if it determines that there is no region.

係数決定処理により対象画像データの各領域に係る緩和係数が決定した後、緩和処理部205はS306で、該緩和係数に基づいて回復画像データの各領域について緩和処理を実行する。なお、S301において対象画像データに対して回復処理を適用しないと判断された場合は、緩和処理部205は本ステップで、規定値の緩和係数に基づいて、対象画像データの緩和処理を実行する。   After the relaxation coefficient related to each area of the target image data is determined by the coefficient determination process, the relaxation processing unit 205 executes the relaxation process for each area of the recovered image data based on the relaxation coefficient in S306. If it is determined in S301 that the restoration process is not applied to the target image data, the mitigation processing unit 205 executes the mitigation process of the target image data based on the mitigation coefficient of the specified value in this step.

なお、S306で行われる緩和処理は上述の方法に限定されるものではない。例えば、緩和処理部205は、回復画像データの着目画素を中心として所定サイズ(11×11画素)の周辺領域を設定し、この周辺領域に含まれる画素の中から、着目画素との信号のレベル差が閾値以内となる画素を抽出する。そして、緩和処理部205は、抽出した画素と着目画素の信号レベルの平均値を求め、この平均値を緩和処理後の着目画素の信号とする。これを各領域の各画素について実行することで、緩和処理後の補正画像を得ることができる。そして、レベル差を比較するための閾値をεとし、このεを緩和係数として上述の方法で変更するようにしてもよい。   Note that the mitigation process performed in S306 is not limited to the above-described method. For example, the relaxation processing unit 205 sets a peripheral area of a predetermined size (11 × 11 pixels) around the target pixel of the recovered image data, and the signal level with the target pixel is selected from the pixels included in the peripheral area. Pixels whose difference is within the threshold are extracted. Then, the relaxation processing unit 205 obtains an average value of the signal levels of the extracted pixel and the target pixel, and uses this average value as a signal of the target pixel after the relaxation process. By executing this for each pixel in each region, a corrected image after relaxation processing can be obtained. Then, the threshold for comparing the level difference may be set to ε, and this ε may be changed as the relaxation coefficient by the above method.

S307で、出力部206は、緩和処理が適用された回復画像データに対して色処理、ガンマ処理、符号化処理を実行し、記録形式に変換した画像データを出力する。そしてシステム制御部101は、出力された画像データを記録媒体108に伝送し、記録させる。   In step S307, the output unit 206 performs color processing, gamma processing, and encoding processing on the recovered image data to which the relaxation processing is applied, and outputs the image data converted into the recording format. Then, the system control unit 101 transmits the output image data to the recording medium 108 for recording.

このように、本実施形態の回復処理では、回復処理の適用により画像に発生するノイズの増加量が、該処理において各画素に適用されたゲインの周波数特性に基づいて推定される。そして、回復処理後の画像の各画素について、推定されたノイズの増加量に応じたノイズ緩和処理が実行可能であるため、回復処理の効果を維持しつつ、ノイズを低減した画像を得ることができる。   As described above, in the recovery process of the present embodiment, the amount of increase in noise generated in the image due to the application of the recovery process is estimated based on the frequency characteristic of the gain applied to each pixel in the process. Then, noise reduction processing corresponding to the estimated increase in noise can be performed for each pixel of the image after the recovery processing, so that it is possible to obtain an image with reduced noise while maintaining the effect of the recovery processing. it can.

なお、本実施形態では図7に示されるような関数の緩和処理によりノイズの低減がなされるものとして説明したが、ノイズ緩和に係る処理はこれに限られるものではない。ノイズ緩和に係る処理は、画素あるいは領域ごとに、回復処理後の画像における対応部位のノイズの増加量を推定した値に基づいて、該ノイズを低減するように行われるものであればよい。   Although the present embodiment has been described on the assumption that noise is reduced by the function relaxation processing as shown in FIG. 7, the processing related to noise reduction is not limited to this. The process related to noise mitigation may be performed for each pixel or region so as to reduce the noise based on a value obtained by estimating the amount of increase in noise of the corresponding part in the image after the restoration process.

以上説明したように、本実施形態の画像処理装置は、ノイズの増幅を低減しつつ、画像のボケを好適に補正することができる。具体的には画像処理装置は、撮像光学系の収差による影響を含む画像の各画素に、撮像光学系の収差による影響を回復する回復処理を適用する。また画像処理装置は、回復処理を適用した画像の各画素について、回復処理を適用する前の画像の周波数特性と回復処理の周波数特性に基づいて回復処理の適用によるノイズ増加量を推定する。そして推定したノイズ増加量に基づいて、回復処理を適用した画像のノイズを低減する。   As described above, the image processing apparatus according to the present embodiment can appropriately correct blurring of an image while reducing noise amplification. Specifically, the image processing apparatus applies a recovery process for recovering the influence of the aberration of the imaging optical system to each pixel of the image including the influence of the aberration of the imaging optical system. Further, the image processing apparatus estimates, for each pixel of the image to which the recovery process is applied, an increase in noise due to the application of the recovery process based on the frequency characteristics of the image before the recovery process is applied and the frequency characteristics of the recovery process. Then, the noise of the image to which the recovery process is applied is reduced based on the estimated noise increase amount.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (8)

撮像光学系の収差による影響を含む画像を取得する取得手段と、
前記取得手段により取得された画像の各画素に、前記撮像光学系の収差による影響を回復する回復処理を適用する回復手段と、
前記回復処理が適用された画像の各画素について、前記取得手段によって取得された画像の周波数特性と前記回復処理の周波数特性に基づいて前記回復処理の適用によるノイズ増加量を推定する推定手段と、
前記推定手段により推定された前記ノイズ増加量に基づいて、前記回復処理が適用された画像のノイズを低減する低減手段と、を有する
ことを特徴とする画像処理装置。
An acquisition means for acquiring an image including the influence of aberration of the imaging optical system;
Recovery means for applying a recovery process for recovering the influence of the aberration of the imaging optical system to each pixel of the image acquired by the acquisition means;
For each pixel of the image to which the recovery process has been applied, an estimation unit that estimates the amount of noise increase due to the application of the recovery process based on the frequency characteristic of the image acquired by the acquisition unit and the frequency characteristic of the recovery process;
An image processing apparatus comprising: a reduction unit configured to reduce noise of an image to which the recovery process is applied based on the noise increase amount estimated by the estimation unit.
前記推定手段は、前記取得手段により取得された画像について設定された領域の振幅成分の周波数分布と、前記設定された領域に対応する画素についての前記回復処理における振幅成分の増幅率の周波数分布とに基づいて、前記ノイズ増加量を推定する
ことを特徴とする請求項1に記載の画像処理装置。
The estimation means includes a frequency distribution of the amplitude component of the area set for the image acquired by the acquisition means, and a frequency distribution of the amplification factor of the amplitude component in the recovery process for the pixel corresponding to the set area. The image processing apparatus according to claim 1, wherein the noise increase amount is estimated on the basis of the image quality.
前記回復処理における振幅成分の増幅率は、前記撮像光学系の光学伝達関数に基づいて決定されることを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein an amplification factor of the amplitude component in the recovery process is determined based on an optical transfer function of the imaging optical system. 前記回復処理における振幅成分の増幅率の最大値を設定する設定手段をさらに有することを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, further comprising a setting unit that sets a maximum value of an amplification factor of the amplitude component in the recovery process. 撮像光学系と、
前記撮像光学系により結像された光学像を光電変換し、前記撮像光学系の収差による影響を含む画像を撮像する撮像手段と、
前記撮像手段により撮像された画像の各画素に、前記撮像光学系の収差による影響を回復する回復処理を適用する回復手段と、
前記回復処理が適用された画像の各画素について、前記撮像手段によって撮像された画像の周波数特性と前記回復処理の周波数特性に基づいて前記回復処理の適用によるノイズ増加量を推定する推定手段と、
前記推定手段により推定された前記ノイズ増加量に基づいて、前記回復処理が適用された画像のノイズを低減する低減手段と、を有する
ことを特徴とする撮像装置。
An imaging optical system;
An image pickup unit that photoelectrically converts an optical image formed by the image pickup optical system and picks up an image including an influence of aberration of the image pickup optical system;
Recovery means for applying a recovery process for recovering the influence of the aberration of the imaging optical system to each pixel of the image imaged by the imaging means;
For each pixel of the image to which the recovery process has been applied, an estimation unit that estimates the amount of noise increase due to the application of the recovery process based on the frequency characteristic of the image captured by the imaging unit and the frequency characteristic of the recovery process;
An image pickup apparatus comprising: a reduction unit configured to reduce noise of an image to which the recovery process is applied based on the noise increase amount estimated by the estimation unit.
画像処理装置の取得手段が、撮像光学系の収差による影響を含む画像を取得する取得工程と、
前記画像処理装置の回復手段が、前記取得工程において取得された画像の各画素に、前記撮像光学系の収差による影響を回復する回復処理を適用する回復工程と、
前記画像処理装置の推定手段が、前記回復処理が適用された画像の各画素について、前記取得工程において取得された画像の周波数特性と前記回復処理の周波数特性に基づいて前記回復処理の適用によるノイズ増加量を推定する推定工程と、
前記画像処理装置の低減手段が、前記推定工程において推定された前記ノイズ増加量に基づいて、前記回復処理が適用された画像のノイズを低減する低減工程と、を有する
ことを特徴とする画像処理装置の制御方法。
An acquisition step of the image processing apparatus for acquiring an image including the influence of the aberration of the imaging optical system;
A recovery step in which the recovery means of the image processing apparatus applies a recovery process to recover the influence of the aberration of the imaging optical system to each pixel of the image acquired in the acquisition step;
The estimation means of the image processing apparatus, for each pixel of the image to which the recovery process is applied, noise due to the application of the recovery process based on the frequency characteristic of the image acquired in the acquisition step and the frequency characteristic of the recovery process An estimation process for estimating the increase amount;
The image processing apparatus includes: a reduction step in which the reduction unit of the image processing apparatus includes a reduction step of reducing noise of the image to which the recovery processing is applied based on the noise increase amount estimated in the estimation step. Control method of the device.
撮像光学系を有する撮像装置の制御方法であって、
前記撮像装置の撮像手段が、前記撮像光学系により結像された光学像を光電変換し、前記撮像光学系の収差による影響を含む画像を撮像する撮像工程と、
前記撮像装置の回復手段が、前記撮像工程において撮像された画像の各画素に、前記撮像光学系の収差による影響を回復する回復処理を適用する回復工程と、
前記撮像装置の推定手段が、前記回復処理が適用された画像の各画素について、前記撮像工程において撮像された画像の周波数特性と前記回復処理の周波数特性に基づいて前記回復処理の適用によるノイズ増加量を推定する推定工程と、
前記撮像装置の低減手段が、前記推定工程において推定された前記ノイズ増加量に基づいて、前記回復処理が適用された画像のノイズを低減する低減工程と、を有する
ことを特徴とする撮像装置の制御方法。
A method for controlling an imaging apparatus having an imaging optical system,
An imaging step in which an imaging unit of the imaging apparatus photoelectrically converts an optical image formed by the imaging optical system and captures an image including an influence of aberration of the imaging optical system;
A recovery step in which the recovery means of the imaging apparatus applies a recovery process that recovers the influence of the aberration of the imaging optical system to each pixel of the image captured in the imaging step;
The estimation unit of the imaging apparatus increases noise due to the application of the recovery process based on the frequency characteristics of the image captured in the imaging process and the frequency characteristics of the recovery process for each pixel of the image to which the recovery process is applied. An estimation step for estimating the quantity;
An image pickup apparatus comprising: a reduction step for reducing noise of an image to which the restoration process is applied, based on the noise increase amount estimated in the estimation step. Control method.
コンピュータを、請求項1乃至4のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 4.
JP2013251413A 2013-12-04 2013-12-04 Image processing device, imaging device, control method, and program Pending JP2015109562A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013251413A JP2015109562A (en) 2013-12-04 2013-12-04 Image processing device, imaging device, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013251413A JP2015109562A (en) 2013-12-04 2013-12-04 Image processing device, imaging device, control method, and program

Publications (1)

Publication Number Publication Date
JP2015109562A true JP2015109562A (en) 2015-06-11

Family

ID=53439623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013251413A Pending JP2015109562A (en) 2013-12-04 2013-12-04 Image processing device, imaging device, control method, and program

Country Status (1)

Country Link
JP (1) JP2015109562A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10699385B2 (en) 2017-05-24 2020-06-30 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10699385B2 (en) 2017-05-24 2020-06-30 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Similar Documents

Publication Publication Date Title
JP5709911B2 (en) Image processing method, image processing apparatus, image processing program, and imaging apparatus
JP4931266B2 (en) Image processing method, image processing apparatus, and image processing program
US8982234B2 (en) Information processing apparatus and method
JP6603493B2 (en) Imaging apparatus, image processing apparatus, imaging method executed by imaging apparatus, image processing method executed by image processing apparatus, and program
JP5615393B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP6308748B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US20130050539A1 (en) Image processing program, image processing method, image processing apparatus, and image pickup apparatus
US8648936B2 (en) Image processing apparatus and image processing method
US20150161771A1 (en) Image processing method, image processing apparatus, image capturing apparatus and non-transitory computer-readable storage medium
US20160284061A1 (en) Image processing apparatus, image capturing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2010061440A (en) Image processor
WO2011132279A1 (en) Image processing device, method, and recording medium
US10062150B2 (en) Image processing apparatus, image capturing apparatus, and storage medium
CN115496673A (en) Image processing method, image processing apparatus, image processing system, and storage medium
JP2015109562A (en) Image processing device, imaging device, control method, and program
JP6333076B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6537228B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP2011193276A (en) Imaging device, method for controlling the same, and program
JP2016005246A (en) Image processing apparatus, image display apparatus, image processing method, program, and storage medium
JP2015138470A (en) Image processor, imaging device, method for controlling image processor, and program
JP2010239493A (en) Image pickup apparatus, and method of correcting video signal
JP2015109681A (en) Image processing method, image processing apparatus, image processing program, and imaging apparatus
JP7207893B2 (en) Imaging device, lens device
JP2016001782A (en) Image processing system, imaging device, image processing method, program, and storage medium
JP2017108243A (en) Image processing device and image processing method