JP5611439B2 - Image processing method, image processing apparatus, imaging apparatus, and image processing program - Google Patents

Image processing method, image processing apparatus, imaging apparatus, and image processing program Download PDF

Info

Publication number
JP5611439B2
JP5611439B2 JP2013234528A JP2013234528A JP5611439B2 JP 5611439 B2 JP5611439 B2 JP 5611439B2 JP 2013234528 A JP2013234528 A JP 2013234528A JP 2013234528 A JP2013234528 A JP 2013234528A JP 5611439 B2 JP5611439 B2 JP 5611439B2
Authority
JP
Japan
Prior art keywords
image
transfer function
optical transfer
optical
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013234528A
Other languages
Japanese (ja)
Other versions
JP2014064304A (en
Inventor
弘至 畠山
弘至 畠山
武史 渡邉
武史 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013234528A priority Critical patent/JP5611439B2/en
Publication of JP2014064304A publication Critical patent/JP2014064304A/en
Application granted granted Critical
Publication of JP5611439B2 publication Critical patent/JP5611439B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、撮影画像の画像回復処理を行う画像処理方法に関する。   The present invention relates to an image processing method for performing image restoration processing of a captured image.

撮像装置により得られた撮影画像は、撮像光学系の球面収差、コマ収差、像面湾曲、非点収差等の各収差の影響によりぼけ成分を含み、劣化している。このような収差による画像のぼけ成分は、無収差で回折の影響もない場合に、被写体の一点から発した光束が撮像面上で再度一点に集まるべきものが広がっていることを意味しており、点像分布関数PSF(Point Spread Function)で表される。   A captured image obtained by the imaging apparatus includes a blur component and is deteriorated due to the influence of each aberration such as spherical aberration, coma aberration, field curvature, astigmatism, and the like of the imaging optical system. The blur component of the image due to such aberrations means that when there is no aberration and there is no influence of diffraction, the light beam emitted from one point of the subject spreads out on the imaging surface and should be collected again at one point. It is expressed by a point spread function PSF (Point Spread Function).

点像分布関数PSFをフーリエ変換して得られる光学伝達関数OTF(Optical Transfer Function)は、収差の周波数成分情報であり、複素数で表される。光学伝達関数OTFの絶対値、すなわち振幅成分をMTF(Modulation Transfer Function)と呼び、位相成分をPTF(Phase Transfer Function)と呼ぶ。振幅成分MTFおよび位相成分PTFはそれぞれ、収差による画像劣化の振幅成分および位相成分の周波数特性であり、位相成分を位相角として以下の式で表される。   An optical transfer function OTF (Optical Transfer Function) obtained by Fourier transforming the point spread function PSF is frequency component information of aberration and is represented by a complex number. The absolute value of the optical transfer function OTF, that is, the amplitude component is referred to as MTF (Modulation Transfer Function), and the phase component is referred to as PTF (Phase Transfer Function). The amplitude component MTF and the phase component PTF are the frequency characteristics of the amplitude component and the phase component, respectively, of image degradation due to aberration, and are expressed by the following equations with the phase component as the phase angle.

PTF=tan−1(Im(OTF)/Re(OTF))
ここで、Re(OTF)およびIm(OTF)はそれぞれ、光学伝達関数OTFの実部および虚部を表す。このように、撮像光学系の光学伝達関数OTFは、画像の振幅成分MTFと位相成分PTFに劣化を与えるため、劣化画像は被写体の各点がコマ収差のように非対称にぼけた状態になっている。また倍率色収差は、光の波長ごとの結像倍率の相違により結像位置がずれ、これを撮像装置の分光特性に応じて例えばRGBの色成分として取得することで発生する。従って、RGB間で結像位置がずれ、各色成分内にも波長ごとの結像位置のずれ、すなわち位相ずれによる像の広がりが発生する。
PTF = tan −1 (Im (OTF) / Re (OTF))
Here, Re (OTF) and Im (OTF) represent the real part and the imaginary part of the optical transfer function OTF, respectively. As described above, since the optical transfer function OTF of the imaging optical system deteriorates the amplitude component MTF and the phase component PTF of the image, the deteriorated image is in a state where each point of the subject is asymmetrically blurred like coma. Yes. Further, the chromatic aberration of magnification is generated by shifting the imaging position due to the difference in imaging magnification for each wavelength of light, and acquiring this as, for example, RGB color components according to the spectral characteristics of the imaging device. Accordingly, the image formation position is shifted between RGB, and the image formation position shift for each wavelength, that is, the spread of the image due to the phase shift also occurs in each color component.

振幅成分MTFおよび位相成分PTFの劣化を補正する方法として、撮像光学系の光学伝達関数OTFの情報を用いて補正するものが知られている。この方法は、画像回復や画像復元という言葉で呼ばれており、以下、撮像光学系の光学伝達関数(OTF)の情報を用いて撮影画像の劣化を補正する処理を画像回復処理という。詳細は後述するが、画像回復の方法のひとつとして、光学伝達関数(OTF)の逆特性を有する画像回復フィルタを入力画像に対して畳み込む(コンボリューション)方法が知られている。   As a method for correcting the deterioration of the amplitude component MTF and the phase component PTF, a method of correcting using the information of the optical transfer function OTF of the imaging optical system is known. This method is called “image restoration” or “image restoration”. Hereinafter, processing for correcting deterioration of a captured image using information of an optical transfer function (OTF) of the imaging optical system is referred to as image restoration processing. Although details will be described later, as one of image restoration methods, there is known a method that convolves an input image with an image restoration filter having an inverse characteristic of an optical transfer function (OTF).

画像回復を効果的に用いるためには、撮像光学系のより正確なOTF情報を得る必要がある。一般的な撮像光学系のOTFは、像高(画像の位置)によって大きく変動する。また光学伝達関数OTFは2次元データであり、複素数であるため実部と虚部を有する。また、RGBの3つの色成分を有するカラー画像を対象とした画像回復処理を行う場合、一つの像高のOTFデータは、縦方向のタップ数×横方向のタップ数×2(実部、虚部)×3(RGB)となる。ここで、タップ数とはOTFデータの縦横のサイズである。これらを、像高、Fナンバー(絞り値)、ズーム(焦点距離)、撮影距離など全ての撮影条件について保持すると、膨大なデータ量となる。   In order to effectively use image restoration, it is necessary to obtain more accurate OTF information of the imaging optical system. The OTF of a general imaging optical system varies greatly depending on the image height (image position). The optical transfer function OTF is two-dimensional data and is a complex number, and thus has a real part and an imaginary part. In addition, when performing image restoration processing for a color image having three color components of RGB, OTF data of one image height includes the number of vertical taps × the number of horizontal taps × 2 (real part, imaginary part). Part) × 3 (RGB). Here, the number of taps is the vertical and horizontal size of the OTF data. If these are held for all shooting conditions such as image height, F number (aperture value), zoom (focal length), and shooting distance, a huge amount of data is required.

特許文献1には、撮影画像の劣化を補正するためのフィルタ係数を保持して画像処理を行う技術が開示されている。ところが、画面内の位置に応じた回復フィルタを必要とするため、データ量が膨大になる。特許文献2には、画像回復の技術ではないが、倍率色収差を補正するために光学中心からの距離を求め、これを3次関数に代入することでRおよびB成分の補正移動量を算出して、画面内の位置に応じた補正量を決定する方法が開示されている。   Patent Document 1 discloses a technique for performing image processing while retaining a filter coefficient for correcting deterioration of a captured image. However, since a recovery filter corresponding to the position in the screen is required, the amount of data becomes enormous. In Patent Document 2, although it is not an image restoration technique, the distance from the optical center is obtained in order to correct lateral chromatic aberration, and this is substituted into a cubic function to calculate the correction movement amounts of the R and B components. Thus, a method for determining a correction amount according to the position in the screen is disclosed.

特開2010−56992号公報JP 2010-56992 A 特開2004−241991号公報JP 2004-241991 A

しかしながら、画像回復フィルタは2次元データであるため、画像の位置に応じた画像回復フィルタは、光学中心(撮影画像の中心または撮像光学系の光軸)からの距離だけでは決定されず、回転を必要とする。そのため、特許文献2の方法を画像回復処理に適用することはできない。また、画像回復フィルタの係数はタップ間で細かく変動しているため、画像の位置に応じた回転を行うと、フィルタ係数の値が大きく崩れ、画像回復処理の効果が得られない。   However, since the image restoration filter is two-dimensional data, the image restoration filter corresponding to the position of the image is not determined only by the distance from the optical center (the center of the captured image or the optical axis of the imaging optical system). I need. Therefore, the method of Patent Document 2 cannot be applied to image restoration processing. Further, since the coefficient of the image restoration filter varies finely between taps, if the rotation according to the position of the image is performed, the value of the filter coefficient is greatly collapsed, and the effect of the image restoration process cannot be obtained.

そこで本発明は、画像回復処理に必要な情報量を低減しつつ、高精度な画像回復処理を実行可能な画像処理方法、画像処理装置、撮像装置、および、画像処理プログラムを提供する。   Therefore, the present invention provides an image processing method, an image processing apparatus, an imaging apparatus, and an image processing program capable of executing a highly accurate image restoration process while reducing the amount of information necessary for the image restoration process.

本発明の一側面としての画像処理方法は、撮影画像の画像回復処理を行う画像処理方法であって、前記撮影画像の撮影条件に応じた係数データを用いて、前記撮影画像の位置に応じた複数の撮像光学系の第1の光学伝達関数を生成する工程と、前記第1の光学伝達関数を前記撮影画像の中心または前記撮像光学系の光軸の周りに回転させて複数の第2の光学伝達関数を生成する工程と、前記第1の光学伝達関数および前記第2の光学伝達関数に基づいて画像回復フィルタを生成する工程と、前記画像回復フィルタを用いて前記撮影画像の画像回復処理を行う工程とを有する。   An image processing method according to one aspect of the present invention is an image processing method for performing image restoration processing of a captured image, and uses coefficient data corresponding to a shooting condition of the captured image according to a position of the captured image. Generating a first optical transfer function of a plurality of imaging optical systems; and rotating the first optical transfer function around the center of the captured image or the optical axis of the imaging optical system to generate a plurality of second optical transfer functions. Generating an optical transfer function; generating an image restoration filter based on the first optical transfer function and the second optical transfer function; and image restoration processing of the captured image using the image restoration filter The process of performing.

本発明の他の側面としての画像処理装置は、撮影画像の画像回復処理を行う画像処理装置であって、前記撮影画像の撮影条件に応じた係数データを用いて、前記撮影画像の位置に応じた複数の撮像光学系の第1の光学伝達関数を生成する第1の光学伝達関数生成手段と、前記第1の光学伝達関数を前記撮影画像の中心または前記撮像光学系の光軸の周りに回転させて複数の第2の光学伝達関数を生成する第2の光学伝達関数生成手段と、前記第1の光学伝達関数および前記第2の光学伝達関数に基づいて画像回復フィルタを生成する画像回復フィルタ生成手段と、前記画像回復フィルタを用いて前記撮影画像の画像回復処理を行う画像回復手段とを有する。   An image processing apparatus according to another aspect of the present invention is an image processing apparatus that performs image restoration processing of a captured image, and uses coefficient data corresponding to a capturing condition of the captured image according to a position of the captured image. First optical transfer function generating means for generating a first optical transfer function of a plurality of imaging optical systems, and the first optical transfer function around the center of the captured image or the optical axis of the imaging optical system Second optical transfer function generating means for generating a plurality of second optical transfer functions by rotating, and image recovery for generating an image recovery filter based on the first optical transfer function and the second optical transfer function A filter generation unit; and an image restoration unit that performs an image restoration process on the captured image using the image restoration filter.

本発明の他の側面としての撮像装置は、撮影画像の画像回復処理を行う撮像装置であって、前記撮影画像の撮影条件に応じた係数データを用いて、前記撮影画像の位置に応じた複数の撮像光学系の第1の光学伝達関数を生成する第1の光学伝達関数生成手段と、前記第1の光学伝達関数を前記撮影画像の中心または前記撮像光学系の光軸の周りに回転させて複数の第2の光学伝達関数を生成する第2の光学伝達関数生成手段と、前記第1の光学伝達関数および前記第2の光学伝達関数に基づいて画像回復フィルタを生成する画像回復フィルタ生成手段と、前記画像回復フィルタを用いて前記撮影画像の画像回復処理を行う画像回復手段とを有する。   An imaging apparatus according to another aspect of the present invention is an imaging apparatus that performs image restoration processing of a captured image, and uses a plurality of coefficient data according to the shooting conditions of the captured image, and a plurality of images according to the position of the captured image. First optical transfer function generating means for generating a first optical transfer function of the imaging optical system, and rotating the first optical transfer function around the center of the captured image or the optical axis of the imaging optical system Second optical transfer function generating means for generating a plurality of second optical transfer functions, and image recovery filter generation for generating an image recovery filter based on the first optical transfer function and the second optical transfer function And image recovery means for performing image recovery processing of the captured image using the image recovery filter.

本発明の他の側面としての画像処理プログラムは、撮影画像の画像回復処理を行う画像処理プログラムであって、前記撮影画像の撮影条件に応じた係数データを用いて、前記撮影画像の位置に応じた複数の撮像光学系の第1の光学伝達関数を生成する工程と、前記第1の光学伝達関数を前記撮影画像の中心または前記撮像光学系の光軸の周りに回転させて複数の第2の光学伝達関数を生成する工程と、前記第1の光学伝達関数および前記第2の光学伝達関数に基づいて画像回復フィルタを生成する工程と、前記画像回復フィルタを用いて前記撮影画像の画像回復処理を行う工程とを情報処理装置に実行させる。   An image processing program according to another aspect of the present invention is an image processing program for performing image restoration processing of a captured image, and uses coefficient data corresponding to the capturing condition of the captured image according to the position of the captured image. Generating a first optical transfer function of a plurality of imaging optical systems; and rotating the first optical transfer function around the center of the captured image or the optical axis of the imaging optical system to generate a plurality of second optical transfer functions. Generating an optical transfer function of the image, generating an image restoration filter based on the first optical transfer function and the second optical transfer function, and image restoration of the captured image using the image restoration filter And causing the information processing device to execute the process.

本発明の他の目的及び特徴は、以下の実施例において説明される。   Other objects and features of the present invention are illustrated in the following examples.

本発明によれば、画像回復処理に必要な情報量を低減しつつ、高精度な画像回復処理を実行可能な画像処理方法、画像処理装置、撮像装置、および、画像処理プログラムを提供することができる。   According to the present invention, it is possible to provide an image processing method, an image processing apparatus, an imaging apparatus, and an image processing program capable of executing a highly accurate image recovery process while reducing the amount of information necessary for the image recovery process. it can.

実施例1における画像処理方法のフローチャートである。3 is a flowchart of an image processing method in Embodiment 1. 本実施例における画像回復フィルタの説明図である。It is explanatory drawing of the image restoration filter in a present Example. 本実施例における画像回復フィルタの説明図である。It is explanatory drawing of the image restoration filter in a present Example. 本実施例における点像分布関数PSFの説明図である。It is explanatory drawing of the point spread function PSF in a present Example. 本実施例における光学伝達関数の振幅成分MTFと位相成分PTFの説明図である。It is explanatory drawing of the amplitude component MTF and phase component PTF of the optical transfer function in a present Example. 実施例1における画像回復フィルタの生成方法を示す図である。6 is a diagram illustrating a method for generating an image restoration filter in Embodiment 1. FIG. 実施例1における画像処理システムの説明図である。1 is an explanatory diagram of an image processing system in Embodiment 1. FIG. 実施例1における係数算出装置の説明図である。It is explanatory drawing of the coefficient calculation apparatus in Example 1. FIG. 実施例1における係数データの説明図である。It is explanatory drawing of the coefficient data in Example 1. FIG. 実施例1におけるタップ数と周波数ピッチの説明図である。It is explanatory drawing of the tap number and frequency pitch in Example 1. FIG. 実施例1におけるタップ数と周波数ピッチの説明図である。It is explanatory drawing of the tap number and frequency pitch in Example 1. FIG. 実施例1におけるOTF再構成部の説明図である。It is explanatory drawing of the OTF reconstruction part in Example 1. FIG. 実施例1における再構成OTFの説明図である。It is explanatory drawing of the reconfiguration | reconstruction OTF in Example 1. FIG. 実施例1における別の画像処理方法のフローチャートである。6 is a flowchart of another image processing method according to the first exemplary embodiment. 実施例2における撮像装置の構成図である。FIG. 6 is a configuration diagram of an imaging apparatus in Embodiment 2. 実施例3における画像処理システムの構成図である。FIG. 10 is a configuration diagram of an image processing system in Embodiment 3. 実施例3における情報セットの説明図である。It is explanatory drawing of the information set in Example 3. FIG.

以下、本発明の実施例について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In each figure, the same members are denoted by the same reference numerals, and redundant description is omitted.

まず、本実施例で説明される用語の定義および画像回復処理(画像処理方法)について説明する。ここで説明される画像処理方法は、後述の各実施例において適宜用いられる。
[入力画像]
入力画像は、撮像光学系を介して撮像素子で受光することで得られたデジタル画像(撮影画像)であり、レンズと各種の光学フィルタ類を含む撮像光学系の収差による光学伝達関数OTFにより劣化している。撮像光学系は、レンズだけでなく曲率を有するミラー(反射面)を用いて構成することもできる。
First, definitions of terms and image restoration processing (image processing method) described in this embodiment will be described. The image processing method described here is appropriately used in each embodiment described later.
[Input image]
The input image is a digital image (photographed image) obtained by receiving light with an image pickup device via an image pickup optical system, and is deteriorated by an optical transfer function OTF due to aberration of the image pickup optical system including a lens and various optical filters. doing. The imaging optical system can be configured using not only a lens but also a mirror (reflection surface) having a curvature.

入力画像の色成分は、例えばRGB色成分の情報を有する。色成分としては、これ以外にもLCHで表現される明度、色相、彩度や、YCbCrで表現される輝度、色差信号など一般に用いられている色空間を選択して用いることができる。その他の色空間として、XYZ、Lab、Yuv、JChを用いることが可能である。更に、色温度を用いてもよい。   The color component of the input image has information on RGB color components, for example. As the color component, other commonly used color spaces such as brightness, hue, and saturation expressed in LCH, luminance expressed in YCbCr, and color difference signals can be selected and used. As other color spaces, XYZ, Lab, Yuv, and JCh can be used. Further, a color temperature may be used.

入力画像や出力画像には、レンズの焦点距離、絞り値、撮影距離などの撮影条件や、この画像を補正するための各種の補正情報を付帯することができる。撮像装置から別の画像処理装置に画像を受け渡して補正処理を行う場合、上述のように撮影画像に撮影条件や補正に関する情報を付帯することが好ましい。撮影条件や補正に関する情報の他の受け渡し方法として、撮像装置と画像処理装置を直接または間接的に接続して受け渡すようにしてもよい。
[画像回復処理]
続いて、画像回復処理の概要について説明する。撮影画像(劣化画像)をg(x,y)、もとの画像をf(x,y)、光学伝達関数OTFのフーリエペアである点像分布関数PSFをh(x,y)としたとき、以下の式(1)が成立する。
The input image and the output image can be accompanied by shooting conditions such as the focal length of the lens, aperture value, shooting distance, and various correction information for correcting this image. When the image is transferred from the imaging apparatus to another image processing apparatus and correction processing is performed, it is preferable to add information regarding shooting conditions and correction to the captured image as described above. As another delivery method of information regarding imaging conditions and correction, the imaging apparatus and the image processing apparatus may be directly or indirectly connected to be delivered.
[Image recovery processing]
Next, an outline of the image restoration process will be described. When the captured image (degraded image) is g (x, y), the original image is f (x, y), and the point spread function PSF that is a Fourier pair of the optical transfer function OTF is h (x, y). The following formula (1) is established.

g(x,y)=h(x,y)*f(x,y) … (1)
ここで、*はコンボリューション(畳み込み積分、積和)、(x,y)は撮影画像上の座標である。
g (x, y) = h (x, y) * f (x, y) (1)
Here, * is convolution (convolution integration, sum of products), and (x, y) are coordinates on the captured image.

また、式(1)をフーリエ変換して周波数面での表示形式に変換すると、周波数ごとの積で表される式(2)が得られる。   Moreover, if Formula (1) is Fourier-transformed and converted into a display format on the frequency plane, Formula (2) represented by the product for each frequency is obtained.

G(u,v)=H(u,v)・F(u,v) … (2)
ここで、Hは点像分布関数PSF(h)をフーリエ変換することにより得られた光学伝達関数OTFであり、G,Fはそれぞれ劣化した画像g、もとの画像fをフーリエ変換して得られた関数である。(u,v)は2次元周波数面での座標、すなわち周波数である。
G (u, v) = H (u, v) .F (u, v) (2)
Here, H is an optical transfer function OTF obtained by Fourier transforming the point spread function PSF (h), and G and F are obtained by Fourier transforming the degraded image g and the original image f, respectively. Function. (U, v) is a coordinate on a two-dimensional frequency plane, that is, a frequency.

撮影された劣化画像gからもとの画像fを得るには、以下の式(3)のように両辺を光学伝達関数Hで除算すればよい。   In order to obtain the original image f from the photographed degraded image g, both sides may be divided by the optical transfer function H as shown in the following equation (3).

G(u,v)/H(u,v)=F(u,v) … (3)
そして、F(u,v)、すなわちG(u,v)/H(u,v)を逆フーリエ変換して実面に戻すことにより、もとの画像f(x,y)が回復画像として得られる。
G (u, v) / H (u, v) = F (u, v) (3)
Then, F (u, v), that is, G (u, v) / H (u, v) is subjected to inverse Fourier transform to return to the actual surface, whereby the original image f (x, y) is obtained as a restored image. can get.

−1を逆フーリエ変換したものをRとすると、以下の式(4)のように実面での画像に対するコンボリューション処理を行うことで、同様にもとの画像f(x,y)を得ることができる。 When R is the result of inverse Fourier transform of H− 1 , the original image f (x, y) is similarly obtained by performing convolution processing on the actual image as in the following equation (4). Can be obtained.

g(x,y)*R(x,y)=f(x,y) … (4)
ここで、R(x,y)は画像回復フィルタと呼ばれる。画像が2次元画像である場合、一般的に、画像回復フィルタRも画像の各画素に対応したタップ(セル)を有する2次元フィルタとなる。また、画像回復フィルタRのタップ数(セルの数)は、一般的に多いほど回復精度が向上する。このため、要求画質、画像処理能力、収差の特性等に応じて実現可能なタップ数が設定される。画像回復フィルタRは、少なくとも収差の特性を反映している必要があるため、従来の水平垂直各3タップ程度のエッジ強調フィルタ(ハイパスフィルタ)などとは異なる。画像回復フィルタRは光学伝達関数OTFに基づいて設定されるため、振幅成分および位相成分の劣化の両方を高精度に補正することができる。
g (x, y) * R (x, y) = f (x, y) (4)
Here, R (x, y) is called an image restoration filter. When the image is a two-dimensional image, generally, the image restoration filter R is also a two-dimensional filter having taps (cells) corresponding to each pixel of the image. In general, the greater the number of taps (number of cells) of the image recovery filter R, the higher the recovery accuracy. Therefore, the number of taps that can be realized is set according to the required image quality, image processing capability, aberration characteristics, and the like. Since the image restoration filter R needs to reflect at least aberration characteristics, it is different from a conventional edge enhancement filter (high-pass filter) of about 3 taps each in horizontal and vertical directions. Since the image restoration filter R is set based on the optical transfer function OTF, it is possible to correct both the amplitude component and the deterioration of the phase component with high accuracy.

また、実際の画像にはノイズ成分が含まれるため、上記のように光学伝達関数OTFの完全な逆数をとって作成した画像回復フィルタRを用いると、劣化画像の回復とともにノイズ成分が大幅に増幅されてしまう。これは、画像の振幅成分にノイズの振幅が付加されている状態に対して、光学系のMTF(振幅成分)を全周波数に渡って1に戻すようにMTFを持ち上げるためである。光学系による振幅劣化であるMTFは1に戻るが、同時にノイズのパワースペクトルも持ち上がってしまい、結果的にMTFを持ち上げる度合(回復ゲイン)に応じてノイズが増幅されてしまう。   In addition, since an actual image contains a noise component, using the image restoration filter R created by taking the complete inverse of the optical transfer function OTF as described above, the noise component is greatly amplified along with the restoration of the deteriorated image. Will be. This is because the MTF is raised so that the MTF (amplitude component) of the optical system is returned to 1 over the entire frequency in a state where the amplitude of noise is added to the amplitude component of the image. The MTF, which is amplitude degradation due to the optical system, returns to 1, but at the same time, the noise power spectrum also rises. As a result, the noise is amplified according to the degree to which the MTF is raised (recovery gain).

したがって、ノイズが含まれる場合には、鑑賞用画像としては良好な画像は得られない。このことは、以下の式(5−1)、(5−2)で表される。   Therefore, when noise is included, a good image cannot be obtained as a viewing image. This is expressed by the following formulas (5-1) and (5-2).

G(u,v)=H(u,v)・F(u,v)+N(u,v) … (5−1)
G(u,v)/H(u,v)=F(u,v)+N(u,v)/H(u,v) … (5−2)
ここで、Nはノイズ成分である。
G (u, v) = H (u, v) .F (u, v) + N (u, v) (5-1)
G (u, v) / H (u, v) = F (u, v) + N (u, v) / H (u, v) (5-2)
Here, N is a noise component.

ノイズ成分が含まれる画像に関しては、例えば以下の式(6)で表されるウィナーフィルタのように、画像信号とノイズ信号の強度比SNRに応じて回復度合を制御する方法がある。   For an image including a noise component, there is a method of controlling the degree of recovery according to the intensity ratio SNR between the image signal and the noise signal, for example, as in the Wiener filter expressed by the following formula (6).

ここで、M(u,v)はウィナーフィルタの周波数特性、|H(u,v)|は光学伝達関数OTFの絶対値(MTF)である。この方法では、周波数ごとに、MTFが小さいほど回復ゲイン(回復度合)を小さくし、MTFが大きいほど回復ゲインを大きくする。一般的に、撮像光学系のMTFは低周波側が高く高周波側が低くなるため、この方法では、実質的に画像の高周波側の回復ゲインを低減することになる。 Here, M (u, v) is the frequency characteristic of the Wiener filter, and | H (u, v) | is the absolute value (MTF) of the optical transfer function OTF. In this method, for each frequency, the smaller the MTF, the smaller the recovery gain (degree of recovery), and the larger the MTF, the larger the recovery gain. In general, since the MTF of the imaging optical system is high on the low frequency side and low on the high frequency side, this method substantially reduces the recovery gain on the high frequency side of the image.

続いて、図2および図3を参照して、画像回復フィルタについて説明する。画像回復フィルタは、撮像光学系の収差特性や要求される回復精度に応じてそのタップ数が決定される。図2の画像回復フィルタは、一例として、11×11タップの2次元フィルタである。また図2では、各タップ内の値(係数)を省略しているが、この画像回復フィルタの一断面を図3に示す。画像回復フィルタの各タップの値(係数値)の分布は、収差により空間的に広がった信号値(PSF)を、理想的には元の1点に戻す機能を有する。   Next, the image restoration filter will be described with reference to FIGS. The number of taps of the image restoration filter is determined according to the aberration characteristics of the imaging optical system and the required restoration accuracy. The image restoration filter in FIG. 2 is an 11 × 11 tap two-dimensional filter as an example. In FIG. 2, values (coefficients) in each tap are omitted. FIG. 3 shows a cross section of this image restoration filter. The distribution of the values (coefficient values) of each tap of the image restoration filter has a function of returning the signal value (PSF) spatially spread due to aberration to the original one point ideally.

画像回復フィルタの各タップは、画像の各画素に対応して画像回復処理の工程でコンボリューション処理(畳み込み積分、積和)される。コンボリューション処理では、所定の画素の信号値を改善するために、その画素を画像回復フィルタの中心と一致させる。そして、画像と画像回復フィルタの対応画素ごとに画像の信号値とフィルタの係数値の積をとり、その総和を中心画素の信号値として置き換える。   Each tap of the image restoration filter is subjected to convolution processing (convolution integration, product sum) in the image restoration processing corresponding to each pixel of the image. In the convolution process, in order to improve the signal value of a predetermined pixel, the pixel is matched with the center of the image restoration filter. Then, the product of the signal value of the image and the coefficient value of the filter is taken for each corresponding pixel of the image and the image restoration filter, and the sum is replaced with the signal value of the central pixel.

続いて、図4および図5を参照して、画像回復の実空間と周波数空間での特性について説明する。図4は、点像分布関数PSFの説明図であり、図4(a)は画像回復前の点像分布関数PSF、図4(b)は画像回復後の点像分布関数PSFを示している。図5は、光学伝達関数OTFの振幅成分MTF(図5(a))と位相成分PTF(図5(b))の説明図である。図5(a)中の破線(A)は画像回復前のMTF、一点鎖線(B)は画像回復後のMTFを示す。また図5(b)中の破線(A)は画像回復前のPTF、一点鎖線(B)は画像回復後のPTFを示す。図4(a)に示されるように、画像回復前の点像分布関数PSFは、非対称な広がりを有し、この非対称性により位相成分PTFは周波数に対して非直線的な値を有する。画像回復処理は、振幅成分MTFを増幅し、位相成分PTFがゼロになるように補正するため、画像回復後の点像分布関数PSFは対称で先鋭な形状になる。   Next, with reference to FIGS. 4 and 5, the characteristics of the image restoration in the real space and the frequency space will be described. 4A and 4B are explanatory diagrams of the point spread function PSF. FIG. 4A shows the point spread function PSF before image restoration, and FIG. 4B shows the point spread function PSF after image restoration. . FIG. 5 is an explanatory diagram of the amplitude component MTF (FIG. 5A) and the phase component PTF (FIG. 5B) of the optical transfer function OTF. In FIG. 5A, the broken line (A) indicates the MTF before image recovery, and the alternate long and short dash line (B) indicates the MTF after image recovery. In FIG. 5B, the broken line (A) indicates the PTF before image recovery, and the alternate long and short dash line (B) indicates the PTF after image recovery. As shown in FIG. 4A, the point spread function PSF before image restoration has an asymmetric spread, and the phase component PTF has a non-linear value with respect to the frequency due to this asymmetry. Since the image restoration process amplifies the amplitude component MTF and corrects the phase component PTF to be zero, the point spread function PSF after the image restoration has a symmetrical and sharp shape.

このように画像回復フィルタは、撮像光学系の光学伝達関数OTFの逆関数に基づいて設計された関数を逆フーリエ変換して得ることができる。本実施例で用いられる画像回復フィルタは適宜変更可能であり、例えば上述のようなウィナーフィルタを用いることができる。ウィナーフィルタを用いる場合、式(6)を逆フーリエ変換することで、実際に画像に畳み込む実空間の画像回復フィルタを作成することが可能である。また、光学伝達関数OTFは1つの撮影状態においても撮像光学系の像高(画像の位置)に応じて変化する。このため、画像回復フィルタは像高に応じて変更して用いられる。   As described above, the image restoration filter can be obtained by performing inverse Fourier transform on a function designed based on the inverse function of the optical transfer function OTF of the imaging optical system. The image restoration filter used in this embodiment can be appropriately changed. For example, the above-described Wiener filter can be used. When using the Wiener filter, it is possible to create an image restoration filter in real space that is actually convolved with the image by performing inverse Fourier transform on Equation (6). In addition, the optical transfer function OTF changes according to the image height (image position) of the imaging optical system even in one shooting state. For this reason, the image restoration filter is changed and used according to the image height.

次に、図1を参照して、本発明の実施例1における画像処理方法について説明する。図1は、本実施例における画像処理方法(画像処理プログラム)のフローチャートである。図1のフローチャートは、後述の画像処理装置の指令に基づいて実行される。   Next, an image processing method according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a flowchart of an image processing method (image processing program) in this embodiment. The flowchart in FIG. 1 is executed based on a command from an image processing apparatus described later.

まずステップS11において、撮影画像を入力画像として取得する。撮影画像は、撮像装置と画像処理装置を有線または無線で接続して取得することができる。また撮影画像は、記憶媒体を介して取得することもできる。続いてステップS12において、撮影条件を取得する。撮影条件は、焦点距離、絞り値、および、撮影距離等である。また、レンズがカメラ本体に交換可能に装着される撮像装置の場合、撮像条件は更にレンズIDやカメラIDを含む。撮影条件に関する情報は、撮像装置から直接取得することができる。またこの情報は、画像に付帯された情報から取得することもできる。   First, in step S11, a captured image is acquired as an input image. The captured image can be acquired by connecting the imaging device and the image processing device by wire or wirelessly. The captured image can also be acquired via a storage medium. Subsequently, in step S12, photographing conditions are acquired. The shooting conditions are a focal length, an aperture value, a shooting distance, and the like. Further, in the case of an imaging apparatus in which a lens is replaceably attached to the camera body, the imaging conditions further include a lens ID and a camera ID. Information regarding the imaging conditions can be obtained directly from the imaging apparatus. This information can also be acquired from information attached to the image.

次にステップS13において、撮影条件に適した係数データを取得する。係数データは、光学伝達関数OTFを再構成するためのデータであり、例えば、撮影条件に応じて予め保持された複数の係数データから所望の係数データが選択される。また、絞り、撮影距離、および、ズームレンズの焦点距離などの撮影条件が特定の撮影条件の場合、その撮影条件に対応する係数データを、予め保持されている他の撮影条件の係数データから補間処理により生成することもできる。この場合、保持する画像回復フィルタのデータ量を低減することが可能である。補間処理としては、例えばバイリニア補間(線形補間)やバイキュービック補間等が用いられるが、これに限定されるものではない。続いてステップS14において、係数データから光学伝達関数OTFを再構成する。すなわち、撮影画像の撮影条件に応じた係数データを用いて、撮影画像の位置に応じた複数の撮像光学系の第1の光学伝達関数を生成する。第1の光学伝達関数の生成は、第1の光学伝達関数生成手段により行われる。なお、撮像光学系は、撮像素子や光学ローパスフィルタなどを含んでもよい。光学伝達関数OTFの再構成の詳細については後述する。   Next, in step S13, coefficient data suitable for the shooting conditions is acquired. The coefficient data is data for reconstructing the optical transfer function OTF. For example, desired coefficient data is selected from a plurality of coefficient data held in advance according to the imaging conditions. In addition, when the shooting conditions such as the aperture, shooting distance, and focal length of the zoom lens are specific shooting conditions, the coefficient data corresponding to the shooting conditions is interpolated from the coefficient data of other shooting conditions held in advance. It can also be generated by processing. In this case, it is possible to reduce the amount of data stored in the image restoration filter. As the interpolation processing, for example, bilinear interpolation (linear interpolation), bicubic interpolation, or the like is used, but is not limited thereto. In step S14, the optical transfer function OTF is reconstructed from the coefficient data. That is, the first optical transfer function of the plurality of imaging optical systems corresponding to the position of the captured image is generated using coefficient data corresponding to the captured condition of the captured image. The first optical transfer function is generated by first optical transfer function generation means. Note that the imaging optical system may include an imaging element, an optical low-pass filter, and the like. Details of the reconstruction of the optical transfer function OTF will be described later.

次にステップS15において、再構成された光学伝達関数OTFを画面中心(撮影画像の中心)または撮像光学系の光軸の周りに回転させて光学伝達関数OTFを展開する(第2の光学伝達関数生成手段)。具体的には、画素配列に対応して光学伝達関数OTFを補間することで、光学伝達関数OTFを撮影画像内の複数の位置に離散的に配置する。次にステップS16において、光学伝達関数OTFを画像回復フィルタに変換する、すなわち展開された光学伝達関数OTFを用いて画像回復フィルタを生成する(画像回復フィルタ生成手段)。画像回復フィルタは、光学伝達関数OTFに基づいて周波数空間での回復フィルタ特性を作成し、逆フーリエ変換により実空間のフィルタ(画像回復フィルタ)に変換することにより生成される。   In step S15, the reconstructed optical transfer function OTF is rotated around the center of the screen (the center of the captured image) or the optical axis of the imaging optical system to develop the optical transfer function OTF (second optical transfer function). Generating means). Specifically, by interpolating the optical transfer function OTF corresponding to the pixel arrangement, the optical transfer function OTF is discretely arranged at a plurality of positions in the captured image. In step S16, the optical transfer function OTF is converted into an image restoration filter, that is, an image restoration filter is generated using the developed optical transfer function OTF (image restoration filter generation means). The image restoration filter is generated by creating a restoration filter characteristic in the frequency space based on the optical transfer function OTF and converting it into a real space filter (image restoration filter) by inverse Fourier transform.

ここで図6(a)〜(e)を参照して、ステップS15、S16について詳述する。図6(a)〜(e)は、画像回復フィルタの生成方法を示す図である。図6(a)に示されるように、再構成された光学伝達関数OTFは、画面中心(撮影画像の中心)または撮像光学系の光軸を通る一方向(垂直方向)に、画像の外接円の領域(撮像領域)に配置されている。   Here, with reference to FIG. 6 (a)-(e), step S15, S16 is explained in full detail. 6A to 6E are diagrams illustrating a method for generating an image restoration filter. As shown in FIG. 6A, the reconstructed optical transfer function OTF is a circumscribed circle of the image in one direction (vertical direction) passing through the center of the screen (center of the captured image) or the optical axis of the imaging optical system. Are arranged in the area (imaging area).

本実施例においては、ステップS14において、図6(a)に示すように、直線上に光学伝達関数を展開したがこれに限られない。例えば、撮影画像面内において、撮影画像の中心を通り互いに直交する直線を第1の直線(図6(a)のy)と第2の直線(図6(a)のx)とする。このとき、ステップS14において生成された光学伝達関数のうち少なくとも2つの光学伝達関数が、第1の直線の直線上の位置(像高)に対応する光学伝達関数であればよい。即ち、再構成された光学伝達関数OTFは、画面中心または撮像光学系の光軸から所定の方向に互いに異なる距離で配列された複数の位置(撮影画像内の複数の位置)に配置されていれば、一方向に直線的に配列されていなくてもよい。なお、撮影画像の中心を含む画素がない場合、即ち、画素と画素の間に撮影画像の中心がある場合、ステップS14において生成される光学伝達関数は、第1の直線を挟む画素の位置(像高)に対応する光学伝達関数であればよい。   In the present embodiment, as shown in FIG. 6A, the optical transfer function is developed on a straight line in step S14, but the present invention is not limited to this. For example, in the captured image plane, straight lines that pass through the center of the captured image and are orthogonal to each other are defined as a first straight line (y in FIG. 6A) and a second straight line (x in FIG. 6A). At this time, at least two of the optical transfer functions generated in step S14 may be optical transfer functions corresponding to the position (image height) on the straight line of the first straight line. That is, the reconstructed optical transfer function OTF is arranged at a plurality of positions (a plurality of positions in the captured image) arranged at different distances in the predetermined direction from the center of the screen or the optical axis of the imaging optical system. For example, it may not be arranged linearly in one direction. When there is no pixel including the center of the captured image, that is, when the center of the captured image is between the pixels, the optical transfer function generated in step S14 is the position of the pixel across the first straight line ( Any optical transfer function corresponding to (image height) may be used.

また、光学伝達関数OTFを一方向に配列する場合には、垂直方向に限定されるものではなく水平方向など他の方向に配列してもよい。光学伝達関数OTFを垂直方向または水平方向のいずれかに直線的に配列すると、本実施例の画像処理がより容易に行えるため、より好ましい。   Further, when the optical transfer functions OTF are arranged in one direction, the optical transfer function OTF is not limited to the vertical direction but may be arranged in another direction such as a horizontal direction. It is more preferable to linearly arrange the optical transfer functions OTF in either the vertical direction or the horizontal direction because the image processing of this embodiment can be performed more easily.

続いて、再構成された光学伝達関数OTFを回転させ、必要に応じて補間処理(回転後の画素配列に応じた各種処理)を行い、図6(b)に示されるように光学伝達関数OTFを再配置する。補間処理は、放射方向の補間処理と回転に伴う補間処理を含み、光学伝達関数OTFを任意の位置に再配置することができる。次に、各位置の光学伝達関数OTFについて、例えば式(6)のように画像回復フィルタの周波数特性を計算して逆フーリエ変換を行うことで、図6(c)に示されるように実空間の画像回復フィルタへの変換を行う。   Subsequently, the reconstructed optical transfer function OTF is rotated, and interpolation processing (various processes corresponding to the rotated pixel array) is performed as necessary. As shown in FIG. 6B, the optical transfer function OTF is performed. Rearrange. The interpolation process includes an interpolation process in the radial direction and an interpolation process accompanying rotation, and the optical transfer function OTF can be rearranged at an arbitrary position. Next, with respect to the optical transfer function OTF at each position, the frequency characteristics of the image restoration filter are calculated as shown in, for example, Expression (6), and inverse Fourier transform is performed, so that the real space is obtained as shown in FIG. Is converted to an image restoration filter.

本実施例の撮像光学系は回転対称の光学系である。このため、その対称性を利用し、光学伝達関数OTFを図6(d)に示されるように反転して、画面全域(光学伝達関数の定義域全体)に展開することができる。即ち、撮影画像において、撮影画像の中心を通り互いに直交する直線を第1の直線(図6(a)中のy)と第2の直線(図6(a)中のx)とする。撮影画像の中心または撮像光学系の光軸に対して、撮影画像の第1領域(図6(c)中の63)と点対称な領域を第2領域(図6(c)中の61)、第1の領域と第1の直線に対して線対称な領域を第3領域(図6(c)の62)とする。このとき、第1領域の光学伝達関数を用いて、第2領域または第3領域の光学伝達関数を生成する。これにより、フーリエ変換処理が最終的に再配置する位置の略1/4に低減される。また、図6(b)の光学伝達関数OTFおよび図6(c)の画像回復フィルタを図6(e)に示されるように回転および補間処理により再配置し、その対称性を用いて図6(d)に示されるように展開すれば、さらにフーリエ変換処理を低減することができる。なお、図6(a)〜(e)に示される配置(回復フィルタの配置密度)は一例であり、撮像光学系の光学伝達関数OTFの変動に応じて配置間隔を任意に設定することができる。   The imaging optical system of the present embodiment is a rotationally symmetric optical system. Therefore, by utilizing the symmetry, the optical transfer function OTF can be inverted as shown in FIG. 6D and developed over the entire screen (the entire domain of the optical transfer function). That is, in the captured image, straight lines that pass through the center of the captured image and are orthogonal to each other are defined as a first straight line (y in FIG. 6A) and a second straight line (x in FIG. 6A). The second region (61 in FIG. 6C) is a point-symmetric region with respect to the first region (63 in FIG. 6C) of the captured image with respect to the center of the captured image or the optical axis of the imaging optical system. A region that is line-symmetric with respect to the first region and the first straight line is defined as a third region (62 in FIG. 6C). At this time, the optical transfer function of the second region or the third region is generated using the optical transfer function of the first region. As a result, the Fourier transform process is reduced to approximately ¼ of the position where the rearrangement is finally performed. Further, the optical transfer function OTF in FIG. 6B and the image restoration filter in FIG. 6C are rearranged by rotation and interpolation processing as shown in FIG. If development is performed as shown in (d), the Fourier transform processing can be further reduced. Note that the arrangements (recovery filter arrangement densities) shown in FIGS. 6A to 6E are merely examples, and the arrangement interval can be arbitrarily set according to fluctuations in the optical transfer function OTF of the imaging optical system. .

次に、図1中のステップS17において、ステップS16で生成された画像回復フィルタを用いて撮影画像の画像回復処理を行う(画像回復手段)。すなわち、撮影画像に画像回復フィルタをコンボリューション(畳み込み)することで、撮影画像の画像回復処理を行う。そしてステップS18において、ステップS17での画像回復処理の結果から、回復画像を取得する。   Next, in step S17 in FIG. 1, image recovery processing of the captured image is performed using the image recovery filter generated in step S16 (image recovery means). In other words, the image restoration process of the photographed image is performed by convolving the image restoration filter with the photographed image. In step S18, a recovered image is acquired from the result of the image recovery process in step S17.

なお、画像回復フィルタのコンボリューションの際に、図6(d)の画像回復フィルタが配置されている位置以外の画素は、近傍に配置された複数のフィルタを用いて補間生成することもできる。このとき、画像回復フィルタは、撮影画像の第1の位置における第1の画像回復フィルタ、および、撮影画像の第2の位置における第2の画像回復フィルタを有する。第1の画像回復フィルタは、展開された光学伝達関数を用いて生成される。第2の画像回復フィルタは、第1の画像回復フィルタを用いて補間することにより生成される。このような補間処理を行うことで、例えば1画素ごとに画像回復フィルタを変更することが可能となる。   It should be noted that during convolution of the image restoration filter, pixels other than the position where the image restoration filter of FIG. 6D is arranged can be interpolated using a plurality of filters arranged in the vicinity. At this time, the image restoration filter includes a first image restoration filter at the first position of the photographed image and a second image restoration filter at the second position of the photographed image. The first image restoration filter is generated using the developed optical transfer function. The second image restoration filter is generated by interpolating using the first image restoration filter. By performing such interpolation processing, for example, it is possible to change the image restoration filter for each pixel.

次に、図7を参照して、上述の画像処理方法を行う画像処理装置を備えた画像処理システムについて説明する。図7は、本実施例における画像処理システム100の説明図である。画像処理システム100は、係数算出装置101、カメラ110(撮像装置)、および、画像回復処理装置120(画像処理装置)を備えて構成される。   Next, an image processing system including an image processing apparatus that performs the above-described image processing method will be described with reference to FIG. FIG. 7 is an explanatory diagram of the image processing system 100 in the present embodiment. The image processing system 100 includes a coefficient calculation device 101, a camera 110 (imaging device), and an image restoration processing device 120 (image processing device).

係数算出装置101は、撮影画像の撮影条件に応じて、光学伝達関数OTFを再構成するための係数データを算出する。係数算出装置101は、撮像光学系の設計値または測定値から光学伝達関数OTFを算出する処理を行う。係数算出装置101は、光学伝達関数OTFを係数に変換し、その必要精度に応じて後に光学伝達関数OTFの再構成に用いられる係数の次数を決定する。係数算出装置101は、点像分布関数PSFの空間的分布の大きさから光学伝達関数OTFを再現する際に必要な像高ごとのタップ数を決定する。係数算出装置101は、種々の撮像レンズとカメラの撮像素子との組み合わせについて、必要次数までの係数データとタップ数に関する情報を算出して出力する。カメラ110は、撮像素子111および撮像レンズ112を有する。カメラ110は、撮像レンズ112で撮像された画像に、撮像レンズ112のレンズIDと撮影条件に関する情報(絞り、ズーム、撮影距離等)、および、撮像素子111のナイキスト周波数を付加して出力する。   The coefficient calculation device 101 calculates coefficient data for reconstructing the optical transfer function OTF according to the shooting condition of the shot image. The coefficient calculation apparatus 101 performs a process of calculating the optical transfer function OTF from the design value or measurement value of the imaging optical system. The coefficient calculation device 101 converts the optical transfer function OTF into a coefficient, and determines the order of the coefficient used for the reconstruction of the optical transfer function OTF later according to the required accuracy. The coefficient calculation apparatus 101 determines the number of taps for each image height necessary for reproducing the optical transfer function OTF from the size of the spatial distribution of the point spread function PSF. The coefficient calculation device 101 calculates and outputs coefficient data up to a required order and information regarding the number of taps for combinations of various imaging lenses and camera imaging elements. The camera 110 has an image sensor 111 and an imaging lens 112. The camera 110 outputs the image captured by the imaging lens 112 with the lens ID of the imaging lens 112 and information on the imaging conditions (aperture, zoom, imaging distance, etc.) and the Nyquist frequency of the imaging element 111 added.

画像回復処理装置120(画像処理装置)は、画像回復情報保持部121、OTF再構成部122、および、フィルタ処理部123(生成手段)を備えて構成される。画像回復処理装置120は、係数算出装置101およびカメラ110から出力された情報を保持し、これらの情報を用いて撮像レンズ112で撮影された劣化画像を補正する(撮影画像の画像回復処理を行う)。   The image restoration processing device 120 (image processing device) includes an image restoration information holding unit 121, an OTF reconstruction unit 122, and a filter processing unit 123 (generation unit). The image restoration processing device 120 holds information output from the coefficient calculation device 101 and the camera 110, and corrects a deteriorated image photographed by the imaging lens 112 using the information (performs image restoration processing of the photographed image). ).

画像回復情報保持部121は、係数算出装置101によって算出された種々の撮像レンズ112と撮像素子111の組み合わせのそれぞれについて、係数データ、タップ数、レンズID、撮影条件、撮像素子のナイキスト周波数の各情報を記憶する。このように画像回復情報保持部121は、撮影画像の撮影条件に応じた係数データを記憶する記憶手段である。   The image restoration information holding unit 121 includes coefficient data, the number of taps, a lens ID, shooting conditions, and the Nyquist frequency of the image sensor for each of the various combinations of the image pickup lens 112 and the image sensor 111 calculated by the coefficient calculator 101. Store information. As described above, the image restoration information holding unit 121 is a storage unit that stores coefficient data corresponding to the shooting conditions of a shot image.

OTF再構成部122は、カメラ110より撮像素子111の撮像素子のナイキスト周波数情報と撮影画像を取得し、撮像レンズ112のレンズIDと撮影条件に関する情報を取得する。OTF再構成部122は、撮影者が撮影した際に用いたカメラ110のレンズIDと撮影条件から、画像回復情報保持部121内に保存されている係数データとタップ数をサーチして、対応する係数データとタップ数を取得する。OTF再構成部122は、カメラ110の撮像素子のナイキスト周波数までの空間周波数領域において、フィルタ処理部123により用いられる光学伝達関数OTFを再構成する。すなわち、取得した係数データとタップ数を用いて、撮影画像の位置に応じた撮像光学系(撮像レンズ112)の光学伝達関数OTFを再構成する。このようにOTF再構成部122は、係数データを用いて撮影画像の位置に応じた撮像光学系の光学伝達関数OTFを再構成する再構成手段である。またOTF再構成部122は、光学伝達関数OTFを撮影画像の中心または撮像光学系の光軸の周りに回転させて光学伝達関数OTFを展開する展開手段である。以降、OTF再構成部122で再構成された光学伝達関数OTFを再構成OTFと称する。   The OTF reconstruction unit 122 acquires Nyquist frequency information and a captured image of the image sensor of the image sensor 111 from the camera 110, and acquires information regarding the lens ID of the image pickup lens 112 and the shooting conditions. The OTF reconstruction unit 122 searches the coefficient data and the number of taps stored in the image recovery information holding unit 121 from the lens ID of the camera 110 used when the photographer took a picture and the shooting conditions, and responds accordingly. Get coefficient data and number of taps. The OTF reconstruction unit 122 reconstructs the optical transfer function OTF used by the filter processing unit 123 in the spatial frequency region up to the Nyquist frequency of the image sensor of the camera 110. That is, using the acquired coefficient data and the number of taps, the optical transfer function OTF of the imaging optical system (imaging lens 112) corresponding to the position of the captured image is reconstructed. As described above, the OTF reconstruction unit 122 is a reconstruction unit that reconstructs the optical transfer function OTF of the imaging optical system according to the position of the captured image using the coefficient data. The OTF reconstruction unit 122 is a developing unit that expands the optical transfer function OTF by rotating the optical transfer function OTF around the center of the captured image or the optical axis of the imaging optical system. Hereinafter, the optical transfer function OTF reconstructed by the OTF reconstruction unit 122 is referred to as a reconstructed OTF.

フィルタ処理部123は、OTF再構成部122で作成した再構成OTFを用いて、撮影画像の劣化を補正する画像回復フィルタを作成し、画像の劣化を補正する。すなわちフィルタ処理部123は、展開された光学伝達関数OTFを用いて画像回復フィルタを生成する生成手段である。またフィルタ処理部123は、画像回復フィルタを用いて撮影画像に対する画像回復処理を行う処理手段である。ここで、係数算出装置101で予め算出した係数データやタップ数を画像回復情報保持部121に保持しておけば、係数算出装置101をユーザ(撮影者)に提供する必要はない。また、ユーザはネットワークや各種の記憶媒体を通して係数データなどの画像回復処理に必要な情報をダウンロードして用いることもできる。   The filter processing unit 123 uses the reconstruction OTF created by the OTF reconstruction unit 122 to create an image restoration filter that corrects the degradation of the captured image, and corrects the degradation of the image. That is, the filter processing unit 123 is a generation unit that generates an image restoration filter using the developed optical transfer function OTF. The filter processing unit 123 is a processing unit that performs image restoration processing on a captured image using an image restoration filter. Here, if the coefficient data and the number of taps calculated in advance by the coefficient calculation device 101 are held in the image restoration information holding unit 121, it is not necessary to provide the coefficient calculation device 101 to the user (photographer). The user can also download and use information necessary for image restoration processing such as coefficient data through a network or various storage media.

次に、係数算出装置101での係数算出方法について詳述する。本実施例において、係数算出装置101は、撮像光学系(撮像レンズ112)の光学伝達関数OTFの設計値または測定値を所定の関数でフィッティングすることにより係数データを生成する。すなわち係数算出装置101は、撮像光学系の光学伝達関数OTFを所定の関数へのフィッティングによって近似することで係数データを生成する。本実施例では、Legendre多項式を用いてフィッティングを行う。ただし本実施例はこれに限定されるものではなく、Chebushev多項式など他の関数を用いてフィッティングすることもできる。Legendre多項式は、式(7)で表される。   Next, a coefficient calculation method in the coefficient calculation apparatus 101 will be described in detail. In this embodiment, the coefficient calculation apparatus 101 generates coefficient data by fitting a design value or a measured value of the optical transfer function OTF of the imaging optical system (imaging lens 112) with a predetermined function. That is, the coefficient calculation apparatus 101 generates coefficient data by approximating the optical transfer function OTF of the imaging optical system by fitting to a predetermined function. In the present embodiment, fitting is performed using a Legendre polynomial. However, the present embodiment is not limited to this, and fitting can be performed using other functions such as a Chebuschev polynomial. The Legendre polynomial is expressed by Equation (7).

ここで、[x]はxを超えない最大の整数である。 Here, [x] is a maximum integer not exceeding x.

また、OTFはz=f(x,y)の形で表されるため、式(8)の係数aijを算出する必要がある。 Further, since OTF is expressed in the form of z = f (x, y), it is necessary to calculate the coefficient a ij in Expression (8).

式(8)は直交関数であり、aijの値はフィッティング時の次数に依存せずに決定される。式(8)の直交関数の性質を利用することにより、光学伝達関数OTFのフィッティングが低次数でも十分高精度に行うことが可能な場合、装置内に保持すべき係数データに関する情報量を低減させることができる。 Equation (8) is an orthogonal function, and the value of a ij is determined without depending on the order at the time of fitting. By utilizing the property of the orthogonal function of Expression (8), when the fitting of the optical transfer function OTF can be performed with sufficiently high accuracy even at a low order, the amount of information related to coefficient data to be held in the apparatus is reduced. be able to.

続いて、図8を参照して、係数算出装置101について詳述する。図8は、係数算出装置101の説明図であり、式(7)、(8)を用いて光学伝達関数OTFをフィッティングする具体的な方法を示している。図8に示されるfum、fvmはそれぞれ、光学伝達関数OTFのmeridional、sagittal方向のナイキスト周波数である。また、Nx、Nyはそれぞれ、光学伝達関数OTFのmeridional、sagittal方向の奇数のタップ数である。係数算出装置101では、光学伝達関数OTFの実部および虚部のそれぞれに対し、上述のフィッティングを行って係数データを算出する。   Next, the coefficient calculation apparatus 101 will be described in detail with reference to FIG. FIG. 8 is an explanatory diagram of the coefficient calculation apparatus 101 and shows a specific method for fitting the optical transfer function OTF using the equations (7) and (8). Fum and fvm shown in FIG. 8 are Nyquist frequencies in the meridional and sagittal directions of the optical transfer function OTF, respectively. Nx and Ny are odd tap numbers in the meridional and sagittal directions of the optical transfer function OTF, respectively. The coefficient calculation apparatus 101 calculates coefficient data by performing the above-described fitting on each of the real part and the imaginary part of the optical transfer function OTF.

光学伝達関数OTFの実部は、meridional方向とsagittal方向に対称である。光学伝達関数OTFの虚部はmeridional方向に正負逆になるが対称であり、また、sagittal方向に対称である。このような対称性を利用すると、フィッティング対象とする光学伝達関数OTFのデータとして、定義域全体の1/4領域(定義域の一部)の情報があれば必要かつ十分である。すなわち、光学伝達関数OTFは、画面中心または撮像光学系の光軸に対する対称性を利用して定義域全体に展開することが可能である。上記理由により、本実施例では光学伝達関数OTFを高精度にフィッティングするため、光学伝達関数OTFから実部および虚部ともに定義域全体の1/4の領域をDC成分が含まれるように切り出してフィッティングを行う。本実施例では、光学伝達関数OTFのデータがNx(行)×Ny(列)タップの場合について説明しており、このデータから1〜[Nx/2]+1行、1〜[Ny/2]+1列のデータを切り出しているが、これに限定されるものではない。   The real part of the optical transfer function OTF is symmetric in the meridional direction and the sagittal direction. The imaginary part of the optical transfer function OTF is symmetric in the meridional direction but is symmetric, and is symmetric in the sagittal direction. When such symmetry is used, it is necessary and sufficient if there is information on a quarter region (a part of the defined region) of the entire defined region as data of the optical transfer function OTF to be fitted. That is, the optical transfer function OTF can be developed over the entire domain using the symmetry with respect to the center of the screen or the optical axis of the imaging optical system. For the above reason, in this embodiment, in order to fit the optical transfer function OTF with high accuracy, a quarter of the entire domain is cut out from the optical transfer function OTF so that the DC component is included in both the real part and the imaginary part. Perform fitting. In this embodiment, the case where the data of the optical transfer function OTF is Nx (row) × Ny (column) tap has been described. From this data, 1 to [Nx / 2] +1 row, 1 to [Ny / 2]. Although +1 column data is cut out, the present invention is not limited to this.

図9は、上述の方法により算出された係数データの説明図である。図9では、各像高別に光学伝達関数OTFの実部および虚部の係数をxyともに10次まで算出した場合の例を示している。像高別の係数群に、レンズID、絞り、ズーム、および、被写体距離情報を付加することで、1つの係数データ(係数情報)が完成する。本実施例では一例として、レンズID:No123、絞り:F2.8、ズーム:WIDE、撮影距離:至近、の撮影条件における10像高分の係数情報を示している。この10像高分の係数情報は、図6(a)中の10箇所の光学伝達関数OTFを再構成するために用いられる。また、上述のように作成した係数データを次数別に像高間でさらに関数化してもよい。係数算出装置101は、この情報を全てのレンズID、絞り、ズーム、撮影距離情報の組み合わせに対して作成して、画像回復処理装置120に出力する。   FIG. 9 is an explanatory diagram of coefficient data calculated by the above-described method. FIG. 9 shows an example in which the real part and imaginary part coefficients of the optical transfer function OTF are calculated up to the 10th order for each image height. One coefficient data (coefficient information) is completed by adding the lens ID, aperture, zoom, and subject distance information to the coefficient group for each image height. In the present embodiment, as an example, coefficient information for 10 image heights in imaging conditions of lens ID: No123, aperture: F2.8, zoom: WIDE, and imaging distance: close is shown. The coefficient information for the 10 image heights is used to reconstruct the 10 optical transfer functions OTF in FIG. In addition, the coefficient data created as described above may be further converted into a function between image heights for each order. The coefficient calculation apparatus 101 creates this information for all combinations of lens ID, aperture, zoom, and shooting distance information, and outputs the information to the image restoration processing apparatus 120.

次に、再構成OTFのタップ数の決定方法について詳述する。画像にフィルタ処理を行う際、処理時間はそのフィルタのタップ数に大きく依存する。このため、フィルタ処理を行う際に所望の画像回復の効果が得られ、リンギング等の弊害が生じなければ、フィルタのタップ数は小さいほうが好ましい。   Next, a method for determining the number of taps of the reconstructed OTF will be described in detail. When filtering an image, the processing time greatly depends on the number of taps of the filter. For this reason, it is preferable that the number of taps of the filter is small as long as a desired image restoration effect can be obtained when the filter processing is performed and no adverse effects such as ringing occur.

画像回復処理装置120のフィルタ処理部123で用いられる画像回復フィルタは、実空間のフィルタである。従って、実空間でフィルタに必要なタップ数を決定すればよい。画像回復フィルタは、点像分布関数PSFによる画像劣化を補正するフィルタであるから、点像分布関数PSFが実空間上で分布している領域と同程度の領域を確保できればよい。すなわち、画像回復フィルタに必要なタップ数は、上述の領域におけるタップ数である。実空間と周波数空間は互いに逆数の関係にあるため、実空間で決定したタップ数を周波数空間で用いることができる。   The image restoration filter used in the filter processing unit 123 of the image restoration processing apparatus 120 is a real space filter. Therefore, the number of taps necessary for the filter may be determined in real space. Since the image restoration filter is a filter that corrects image degradation due to the point spread function PSF, it is sufficient that an area equivalent to the area where the point spread function PSF is distributed in real space can be secured. That is, the number of taps necessary for the image restoration filter is the number of taps in the above-described region. Since the real space and the frequency space are reciprocal, the number of taps determined in the real space can be used in the frequency space.

図10および図11は、タップ数と周波数ピッチの説明図である。図10は、タップ数を点像分布関数PSFの空間分布に比べて十分大きい領域でとった場合を示している。図11は、図10の場合と同一の点像分布関数PSFに対して、タップ数を点像分布関数PSFの空間分布とほぼ同等の領域でとった場合を示している。図10では、実空間でのタップ数は周波数空間での最小周波数ピッチに対応している。図11に示されるように実空間のタップ数を小さくすることは、周波数空間を粗くサンプリングすることを意味し、最小周波数ピッチが大きくなることを示している。このとき、周波数空間でのナイキスト周波数の値は変化しない。   10 and 11 are explanatory diagrams of the number of taps and the frequency pitch. FIG. 10 shows a case where the number of taps is taken in an area that is sufficiently larger than the spatial distribution of the point spread function PSF. FIG. 11 shows a case where the number of taps is taken in a region substantially equivalent to the spatial distribution of the point spread function PSF with respect to the same point spread function PSF as in FIG. In FIG. 10, the number of taps in the real space corresponds to the minimum frequency pitch in the frequency space. As shown in FIG. 11, reducing the number of taps in the real space means that the frequency space is roughly sampled, and indicates that the minimum frequency pitch is increased. At this time, the value of the Nyquist frequency in the frequency space does not change.

画像回復情報保持部121には、係数算出装置101から出力された係数情報(係数データ)、タップ数情報、レンズID、撮影条件、および、撮像素子のナイキスト周波数情報が記憶される。OTF再構成部122は、カメラ110から撮影時のレンズID、撮影条件、および、撮像素子のナイキスト周波数情報を取得する。そして、画像回復情報保持部121から上述の各条件に対応するタップ数情報、レンズID、撮影条件、および、撮像素子のナイキスト周波数情報を読み出し、これらの情報を用いて画像回復フィルタを作成するために用いられる再構成OTFを生成する。   The image recovery information holding unit 121 stores coefficient information (coefficient data) output from the coefficient calculation apparatus 101, tap number information, lens ID, shooting conditions, and Nyquist frequency information of the image sensor. The OTF reconstruction unit 122 acquires from the camera 110 the lens ID at the time of shooting, shooting conditions, and Nyquist frequency information of the image sensor. In order to read out the tap number information, the lens ID, the imaging conditions, and the Nyquist frequency information of the image sensor corresponding to each of the above conditions from the image recovery information holding unit 121, and to create an image recovery filter using these information A reconstructed OTF used in the above is generated.

次に、図12を参照して、再構成OTFの作成方法について詳述する。図12は、OTF再構成部122の説明図である。図12において、再構成OTFの作成に必要なmeridional、sagittal方向のナイキスト周波数をfuc_rm、fvc_imとし、またmeridional、sagittal方向のタップ数をMx,Myとする。ただし、fum,fvmに対して0<fum_n≦fum、0<fvm_n≦fvm、0<Mx≦Nx、0<My≦Nyであり、Mx,Myは奇数である。   Next, a method for creating the reconstructed OTF will be described in detail with reference to FIG. FIG. 12 is an explanatory diagram of the OTF reconstruction unit 122. In FIG. 12, it is assumed that the Nyquist frequencies in the meridional and sagittal directions necessary for creating the reconstructed OTF are fuc_rm and fvc_im, and the tap numbers in the meridional and sagittal directions are Mx and My. However, 0 <fum_n ≦ fum, 0 <fvm_n ≦ fvm, 0 <Mx ≦ Nx, 0 <My ≦ Ny with respect to fum and fvm, and Mx and My are odd numbers.

ここで、式(7)、(8)中のx、yをu、mに置き換え、−fum_n/fum≦u≦1、−fvm_n/fvm≦v≦1の定義域を[Mx/2]+1、[My/2]+1タップでサンプリングする。そして、前記係数を式(8)に代入すると、再構成OTFの1/4の領域が作成される。上述の手順は再構成OTFの実部122−1−1および虚部122−2−1の両方について行われる。   Here, x and y in formulas (7) and (8) are replaced with u and m, and the domain of −fum_n / fum ≦ u ≦ 1 and −fvm_n / fvm ≦ v ≦ 1 is set to [Mx / 2] +1 , [My / 2] + 1 tap sampling. Then, when the coefficient is substituted into equation (8), a quarter region of the reconstructed OTF is created. The above procedure is performed for both the real part 122-1-1 and the imaginary part 122-2-1 of the reconstructed OTF.

次に、上述の方法により作成された実部および虚部の1/4領域の再構成OTFから、定義域が−fum_n/fum≦u≦fum_n/fum、−fvm_n/fvm≦v≦fvm_n/fvmであり、タップ数がMx、Myである再構成OTFを作成する。   Next, from the reconstructed OTF of the ¼ area of the real part and the imaginary part created by the above method, the definition areas are −fum_n / fum ≦ u ≦ fum_n / fum, −fvm_n / fvm ≦ v ≦ fvm_n / fvm A reconstructed OTF having tap numbers Mx and My is created.

まず、再構成OTFの実部作成方法について説明する。再構成OTFの実部を、再構成OTFの実部122−1−1を用いて、1〜[Mx/2]+1行、1〜[My/2]列の領域と、1〜[Mx/2]+1行、[My/2]+1列の領域に分離する。次に、実部122−1−2のように、1〜[Mx/2]+1行、1〜[My/2]列の領域の数値データを1〜[Mx/2]+1行、[My/2]+1列の領域に対して線対称になるように、1〜[Mx/2]+1行、[My/2]+2〜My列の領域に代入する。   First, the real part creation method of the reconstructed OTF will be described. Using the real part 122-1-1 of the reconstructed OTF, the real part of the reconstructed OTF is converted into an area of 1 to [Mx / 2] +1 rows and 1 to [My / 2] columns, and 1 to [Mx / 2] The area is divided into +1 row and [My / 2] +1 column. Next, as in the real part 122-1-2, the numerical data in the region of 1 to [Mx / 2] +1 rows and 1 to [My / 2] columns is changed to 1 to [Mx / 2] +1 rows, [My / 2] is substituted into the region of 1 to [Mx / 2] +1 rows and [My / 2] +2 to My columns so as to be line symmetric with respect to the region of +1 column.

さらに実部122−1−3のように、実部122−1−2で作成した1/2領域の再構成OTFを1〜[Mx/2]行、1〜My列の領域と、[Mx/2]+1行、1〜My列の領域に分離する。そして、1〜[Mx/2]行、1〜My列の領域の数値データを、[Mx/2]+1行、1〜My列の領域に対して線対称になるように[Mx/2]+2行、1〜My列の領域に代入する。再構成OTFの虚部は、実部と同様の方法で作成可能であるが、虚部122−2−3において、正負を入れ替えて代入する必要がある。上記のような作成方法が可能なのは、光学伝達関数OTFの特徴による。   Further, like the real part 122-1-3, the reconstructed OTF of the ½ area created by the real part 122-1-2 is 1 to [Mx / 2] rows, 1 to My column area, and [Mx / 2] The area is divided into +1 row and 1 to My columns. Then, the numerical data of the area of 1 to [Mx / 2] rows and 1 to My columns is [Mx / 2] so as to be symmetrical with respect to the area of [Mx / 2] +1 rows and 1 to My columns. Substitute in the area of +2 rows and 1 to My columns. The imaginary part of the reconstructed OTF can be created in the same way as the real part. However, in the imaginary part 122-2-3, it is necessary to replace the positive and negative values. The creation method as described above is possible due to the characteristics of the optical transfer function OTF.

図13は、再構成OTFのナイキスト周波数とタップ数の関係図(再構成OTF)である。上述のように、ナイキスト周波数は撮像素子111の空間分解能から決定されるパラメータであり、タップ数は撮像レンズ112の点像分布関数PSFに依存するパラメータである。これら2つのパラメータと上述の係数データを用いて所望の再構成OTFを生成する。図13において、ナイキスト周波数はf_nyq1>f_nyq2、タップ数はN>M1>M2であり、図13に示されるようにナイキスト周波数とタップ数を所望の値に制御することが可能である。   FIG. 13 is a relationship diagram (reconstruction OTF) between the Nyquist frequency of the reconfiguration OTF and the number of taps. As described above, the Nyquist frequency is a parameter determined from the spatial resolution of the image sensor 111, and the number of taps is a parameter that depends on the point spread function PSF of the imaging lens 112. A desired reconstructed OTF is generated using these two parameters and the coefficient data described above. In FIG. 13, the Nyquist frequency is f_nyq1> f_nyq2, and the number of taps is N> M1> M2. As shown in FIG. 13, the Nyquist frequency and the number of taps can be controlled to desired values.

以上のとおり、撮像素子とレンズの組合せ、および撮影条件に応じた光学伝達関数OTFを係数データ化し、画像回復処理装置120に記憶しておくことで、撮影時の撮影条件に応じた画像回復処理が可能になる。また図6に示されるように、少量の係数データから画像全域のデータを適切なタップ数で回復することができるため、保持データ量を低減することができる。   As described above, the optical transfer function OTF corresponding to the combination of the imaging element and the lens and the imaging condition is converted into coefficient data and stored in the image recovery processing device 120, whereby the image recovery process corresponding to the imaging condition at the time of imaging is performed. Is possible. Further, as shown in FIG. 6, since the data of the entire image area can be recovered from a small amount of coefficient data with an appropriate number of taps, the amount of retained data can be reduced.

次に、図14を参照して、本実施例における別の画像処理方法(変形例)について説明する。図14は、本実施例における別の画像処理方法のフローチャートである。図14の画像処理方法は、ステップS26において、展開された光学伝達関数OTFに、画面中心または光軸に対して回転非対称な伝達関数を適用する工程が付加されている点で、図1の画像処理方法とは異なる。図14中のステップS21〜S25およびステップS27〜S29は、図1中のステップS11〜S18とそれぞれ同一であるため、それらの説明は省略する。   Next, another image processing method (modified example) in the present embodiment will be described with reference to FIG. FIG. 14 is a flowchart of another image processing method in this embodiment. In the image processing method of FIG. 14, in step S26, the step of applying a rotationally asymmetric transfer function with respect to the center of the screen or the optical axis is added to the developed optical transfer function OTF. It is different from the processing method. Steps S21 to S25 and steps S27 to S29 in FIG. 14 are the same as steps S11 to S18 in FIG.

図14中のステップS21〜S25の工程を経ることにより、例えば図6(b)に示されるように光学伝達関数OTFが再配置されていることになる。ここで、例えば光学ローパスフィルタの伝達関数や、撮像素子111の画素開口形状の伝達関数のように、回転非対称な伝達関数を考慮する場合、図6(b)の状態で各光学伝達関数OTFに回転非対称な伝達関数を適用する(付加する)。また、図6(b)では、光学伝達関数OTFを画像の1/4の領域に展開しているが、伝達関数の対称性に応じて、例えば、光学伝達関数OTFを画像全域に展開してから適用してもよい。図14に示されるように、本実施例では、回転非対称な伝達関数が適用された光学伝達関数OTFを用いて画像回復フィルタを生成することもできる。   Through the steps S21 to S25 in FIG. 14, for example, the optical transfer function OTF is rearranged as shown in FIG. 6B. Here, when considering a rotationally asymmetric transfer function such as a transfer function of an optical low-pass filter or a transfer function of a pixel aperture shape of the image sensor 111, each optical transfer function OTF in the state of FIG. Apply (add) a rotationally asymmetric transfer function. Further, in FIG. 6B, the optical transfer function OTF is developed in a quarter region of the image. However, for example, the optical transfer function OTF is developed over the entire image according to the symmetry of the transfer function. You may apply from. As shown in FIG. 14, in this embodiment, an image restoration filter can be generated using an optical transfer function OTF to which a rotationally asymmetric transfer function is applied.

次に、図15を参照して、本発明の実施例2における撮像装置について説明する。図15は、本実施例における撮像装置200の構成図である。撮像装置200には、撮影画像の画像回復処理(実施例1と同様の画像処理方法)を行う画像処理プログラムがインストールされており、この画像回復処理は撮像装置200の内部の画像処理部204(画像処理装置)により実行される。   Next, with reference to FIG. 15, an imaging apparatus according to the second embodiment of the present invention will be described. FIG. 15 is a configuration diagram of the imaging apparatus 200 in the present embodiment. The image capturing apparatus 200 is installed with an image processing program for performing image restoration processing of the captured image (an image processing method similar to that in the first embodiment). This image restoration processing is performed by the image processing unit 204 (inside the image capturing apparatus 200). Executed by an image processing apparatus).

撮像装置200は、撮像光学系201(レンズ)および撮像装置本体(カメラ本体)を備えて構成されている。撮像光学系201は、絞り201aおよびフォーカスレンズ201bを備え、撮像装置本体(カメラ本体)と一体的に構成されている。ただし本実施例はこれに限定されるものではなく、撮像光学系201が撮像装置本体に対して交換可能に装着される撮像装置にも適用可能である。   The imaging apparatus 200 includes an imaging optical system 201 (lens) and an imaging apparatus main body (camera main body). The imaging optical system 201 includes a diaphragm 201a and a focus lens 201b, and is configured integrally with an imaging apparatus main body (camera main body). However, the present embodiment is not limited to this, and can also be applied to an imaging apparatus in which the imaging optical system 201 is attached to the imaging apparatus body in a replaceable manner.

撮像素子202は、撮像光学系201を介して得られた被写体像(結像光)を光電変換して撮影画像を生成する。すなわち被写体像は、撮像素子202により光電変換が行われてアナログ信号(電気信号)に変換される。そして、このアナログ信号はA/Dコンバータ203によりデジタル信号に変換され、このデジタル信号は画像処理部204に入力される。   The image sensor 202 photoelectrically converts a subject image (imaging light) obtained via the imaging optical system 201 to generate a captured image. That is, the subject image is photoelectrically converted by the image sensor 202 and converted into an analog signal (electric signal). The analog signal is converted into a digital signal by the A / D converter 203, and the digital signal is input to the image processing unit 204.

画像処理部204(画像処理装置)は、このデジタル信号に対して所定の処理を行うとともに、上述の画像回復処理を行う。まず画像処理部204は、状態検知部207から撮像装置の撮像条件情報を取得する。撮像条件情報とは、絞り、撮影距離、または、ズームレンズの焦点距離等に関する情報である。状態検知部207は、システムコントローラ210から直接に撮像条件情報を取得することができるが、これに限定されるものではない。例えば撮像光学系201に関する撮像条件情報は、撮像光学系制御部206から取得することもできる。本実施例の画像回復処理の処理フロー(画像処理方法)は、図1または図14を参照して説明した実施例1と同様であるため、その説明は省略する。   The image processing unit 204 (image processing apparatus) performs predetermined processing on the digital signal and performs the above-described image restoration processing. First, the image processing unit 204 acquires imaging condition information of the imaging apparatus from the state detection unit 207. The imaging condition information is information related to an aperture, a shooting distance, a focal length of a zoom lens, and the like. The state detection unit 207 can acquire the imaging condition information directly from the system controller 210, but is not limited to this. For example, the imaging condition information regarding the imaging optical system 201 can be acquired from the imaging optical system control unit 206. The processing flow (image processing method) of the image restoration process of the present embodiment is the same as that of Embodiment 1 described with reference to FIG. 1 or FIG.

再構成OTFを生成するための係数データは、記憶部208に保持されている。画像処理部204で処理した出力画像は、画像記録媒体209に所定のフォーマットで保存される。表示部205には、本実施例の画像回復処理を行った画像に表示用の所定の処理を行った画像が表示される。ただしこれに限定されるものではなく、高速表示のために簡易処理を行った画像を表示部205に表示するように構成してもよい。   Coefficient data for generating the reconstructed OTF is held in the storage unit 208. The output image processed by the image processing unit 204 is stored in the image recording medium 209 in a predetermined format. The display unit 205 displays an image obtained by performing a predetermined display process on the image that has been subjected to the image restoration process of the present embodiment. However, the present invention is not limited to this, and an image that has been subjected to simple processing for high-speed display may be displayed on the display unit 205.

本実施例における一連の制御はシステムコントローラ210により行われ、撮像光学系201の機械的な駆動はシステムコントローラ210の指示に基づいて撮像光学系制御部206により行われる。撮像光学系制御部206は、Fナンバーの撮影状態設定として、絞り201aの開口径を制御する。また撮像光学系制御部206は、被写体距離に応じてピント調整を行うため、不図示のオートフォーカス(AF)機構や手動のマニュアルフォーカス機構により、フォーカスレンズ201bの位置を制御する。なお、絞り201aの開口径制御やマニュアルフォーカスなどの機能は、撮像装置200の仕様に応じて実行しなくてもよい。   A series of controls in this embodiment is performed by the system controller 210, and mechanical driving of the imaging optical system 201 is performed by the imaging optical system control unit 206 based on an instruction from the system controller 210. The imaging optical system control unit 206 controls the aperture diameter of the aperture 201a as the F number imaging state setting. In addition, the imaging optical system control unit 206 controls the position of the focus lens 201b by an unillustrated autofocus (AF) mechanism or manual manual focus mechanism in order to perform focus adjustment according to the subject distance. Note that functions such as aperture diameter control and manual focus of the aperture 201a may not be executed according to the specifications of the imaging apparatus 200.

撮像光学系201には、ローパスフィルタや赤外線カットフィルタ等の光学素子を入れても構わないが、ローパスフィルタ等の光学伝達関数(OTF)の特性に影響を与える素子を用いる場合、画像回復フィルタを作成する時点での考慮が必要になる場合がある。赤外カットフィルタに関しても、分光波長の点像分布関数(PSF)の積分値であるRGBチャンネルの各PSF、特にRチャンネルのPSFに影響するため、画像回復フィルタを作成する時点での考慮が必要になる場合がある。この場合、図14を参照して説明したように、光学伝達関数(OTF)を再配置した後に回転非対称な伝達関数を付加する。   The imaging optical system 201 may include an optical element such as a low-pass filter or an infrared cut filter. However, when an element that affects the characteristics of an optical transfer function (OTF) such as a low-pass filter is used, an image restoration filter is used. It may be necessary to consider at the time of creation. The infrared cut filter also affects each PSF of the RGB channel, particularly the PSF of the R channel, which is the integral value of the point spread function (PSF) of the spectral wavelength, and therefore needs to be considered at the time of creating the image restoration filter. It may become. In this case, as described with reference to FIG. 14, a rotationally asymmetric transfer function is added after rearranging the optical transfer function (OTF).

本実施例においては、撮像装置の記憶部に記憶された係数データを用いたが、変形例として、例えばメモリーカード等の記憶媒体に記憶された係数データを、撮像装置が取得するように構成してもよい。   In the present embodiment, the coefficient data stored in the storage unit of the imaging apparatus is used. However, as a modification, for example, the imaging apparatus is configured to acquire coefficient data stored in a storage medium such as a memory card. May be.

次に、図16を参照して、本発明の実施例3における画像処理装置および画像処理システムについて説明する。図16は、本実施例における画像処理システム300の構成図である。なお、本実施例の画像回復処理の処理フロー(画像処理方法)は、図1または図14を参照して説明した実施例1と同様であるため、その説明は省略する。   Next, with reference to FIG. 16, an image processing apparatus and an image processing system in Embodiment 3 of the present invention will be described. FIG. 16 is a configuration diagram of an image processing system 300 in the present embodiment. Note that the processing flow (image processing method) of the image restoration processing of the present embodiment is the same as that of the first embodiment described with reference to FIG. 1 or FIG.

図16において、画像処理装置301は、本実施例の画像処理方法をコンピュータ(情報処理装置)に実行させるための画像処理ソフトウェア306を搭載したコンピュータ機器である。撮像機器302は、カメラ、顕微鏡、内視鏡、または、スキャナなどの撮像装置である。記憶媒体303は、半導体メモリ、ハードディスク、または、ネットワーク上のサーバなど、撮影画像を記憶した記憶手段である。   In FIG. 16, an image processing apparatus 301 is a computer device equipped with image processing software 306 for causing a computer (information processing apparatus) to execute the image processing method of this embodiment. The imaging device 302 is an imaging device such as a camera, a microscope, an endoscope, or a scanner. The storage medium 303 is a storage unit that stores captured images, such as a semiconductor memory, a hard disk, or a server on a network.

画像処理装置301は、撮像機器302または記憶媒体303から撮影画像データを取得し、所定の画像処理を行った画像データを出力機器305、撮像機器302、記憶媒体303のいずれか一つまたは複数に出力する。また、その出力先を画像処理装置301に内蔵された記憶部に保存することもできる。出力機器305は、例えばプリンタである。   The image processing apparatus 301 acquires captured image data from the imaging device 302 or the storage medium 303, and outputs the image data subjected to predetermined image processing to one or more of the output device 305, the imaging device 302, and the storage medium 303. Output. Further, the output destination can be stored in a storage unit built in the image processing apparatus 301. The output device 305 is a printer, for example.

画像処理装置301にはモニタである表示機器304が接続されている。このため、ユーザは表示機器304を通して画像処理作業を行うとともに、補正された画像を評価することができる。画像処理ソフトウェア306は、本実施例の画像回復処理(画像処理方法)を行うほか、必要に応じて現像やその他の画像処理を行う。   A display device 304 that is a monitor is connected to the image processing apparatus 301. Therefore, the user can perform the image processing work through the display device 304 and evaluate the corrected image. The image processing software 306 performs image restoration processing (image processing method) of the present embodiment, and performs development and other image processing as necessary.

続いて、図17を参照して、本実施例の画像処理方法を行うためのデータの内容と機器間でのデータ受け渡しについて説明する。図17は情報セット(データの内容)の説明図である。本実施例において、情報セットは以下のような情報を有する。
[補正制御情報]
補正制御情報は、画像処理装置301、撮像機器302、または、出力機器305のいずれの機器にて補正処理を行うかに関する設定情報と、これに伴い他の機器に伝送するデータの選択情報から構成される。例えば、撮像機器302内で回復画像を生成する場合、係数データを伝送する必要はない。一方、撮像機器302から補正前の画像を取得して画像処理装置301で回復画像を生成する場合、係数データ、タップ数情報、レンズID、撮像素子ナイキスト情報、および、撮影条件等を伝送する。または、撮影に使用された撮像機器302の撮像機器情報や撮像条件情報に基づいて、予め画像処理装置301に保持された係数データから選択し、必要に応じて補正して用いるように構成してもよい。
[撮像機器情報]
撮像機器情報は、撮像機器302の識別情報である。レンズがカメラ本体に対して交換可能に装着される場合、その組み合わせを含む識別情報である。例えば、上述のレンズIDがこれに相当する。
[撮像条件情報]
撮像条件情報は、撮影時の撮像機器302の状態に関する情報である。例えば、焦点距離、絞り値、撮影距離、ISO感度、または、ホワイトバランス設定などである。
[撮像機器個別情報]
撮像機器個別情報は、上述の撮像機器情報に対して、個々の撮像機器の識別情報である。製造誤差のばらつきにより撮像機器302の光学伝達関数(OTF)には個体ばらつきがある。このため、撮像機器個別情報は、個々に最適な補正パラメータを設定するために有効な情報である。補正パラメータとは、係数データや画像回復フィルタの補正係数、エッジ強調のゲイン値、歪曲補正、または、シェーディング補正などの設定値である。予め製造誤差の状態が把握されている場合、画像回復フィルタ生成に用いられる初期データを補正することで、より高精度な画像回復処理を行うことができる。
[係数データ群]
係数データ群は、位相劣化の補正に用いられる係数データのセットである。画像回復処理を行う機器が係数データを有していない場合、別の機器から係数データを伝送する必要がある。
[ユーザ設定情報]
ユーザ設定情報は、ユーザの好みに応じた先鋭度(回復の度合)に補正するための補正パラメータまたは補正パラメータの補正値である。ユーザは、補正パラメータを可変に設定可能であるが、ユーザ設定情報を用いれば常に初期値として好みの出力画像を得ることができる。またユーザ設定情報は、ユーザにより設定された補正パラメータの履歴に基づいて、学習機能を用いてユーザが最も好む先鋭度に更新されることが好ましい。さらに、撮像機器302の提供者(メーカ)がいくつかの先鋭度パターンに応じたプリセット値をネットワークや記憶媒体303を介して提供することもできる。
Next, with reference to FIG. 17, data contents for performing the image processing method of the present embodiment and data transfer between devices will be described. FIG. 17 is an explanatory diagram of an information set (data contents). In the present embodiment, the information set includes the following information.
[Correction control information]
The correction control information is composed of setting information regarding which of the image processing apparatus 301, the imaging device 302, and the output device 305 performs correction processing, and selection information of data to be transmitted to other devices along with the setting information. Is done. For example, when generating a restored image in the imaging device 302, there is no need to transmit coefficient data. On the other hand, when an image before correction is acquired from the imaging device 302 and a restored image is generated by the image processing apparatus 301, coefficient data, tap number information, lens ID, imaging element Nyquist information, imaging conditions, and the like are transmitted. Alternatively, based on the imaging device information and imaging condition information of the imaging device 302 used for shooting, the coefficient data stored in the image processing apparatus 301 is selected in advance, and corrected and used as necessary. Also good.
[Imaging equipment information]
The imaging device information is identification information of the imaging device 302. When the lens is exchangeably attached to the camera body, the identification information includes the combination. For example, the lens ID described above corresponds to this.
[Imaging condition information]
The imaging condition information is information related to the state of the imaging device 302 at the time of shooting. For example, the focal length, aperture value, shooting distance, ISO sensitivity, or white balance setting.
[Imaging device individual information]
The imaging device individual information is identification information of each imaging device with respect to the above-described imaging device information. Due to variations in manufacturing errors, there are individual variations in the optical transfer function (OTF) of the imaging device 302. For this reason, the imaging device individual information is information that is effective for setting optimum correction parameters individually. The correction parameter is a set value such as coefficient data, a correction coefficient for the image restoration filter, a gain value for edge enhancement, distortion correction, or shading correction. When the state of the manufacturing error is known in advance, more accurate image restoration processing can be performed by correcting initial data used for image restoration filter generation.
[Coefficient data group]
The coefficient data group is a set of coefficient data used for correcting phase deterioration. When a device that performs image restoration processing does not have coefficient data, it is necessary to transmit coefficient data from another device.
[User setting information]
The user setting information is a correction parameter or a correction value of the correction parameter for correcting the sharpness (the degree of recovery) according to the user's preference. Although the user can variably set the correction parameter, using the user setting information can always obtain a desired output image as an initial value. Further, the user setting information is preferably updated to the sharpness most preferred by the user using the learning function based on the correction parameter history set by the user. Further, the provider (maker) of the imaging device 302 can provide preset values corresponding to some sharpness patterns via the network or the storage medium 303.

上述の情報セットは、個々の画像データに付帯させることが好ましい。必要な補正情報を画像データに付帯させることで、本実施例の画像処理装置を搭載した機器であれば補正処理を行うことができる。また、情報セットの内容は必要に応じて、自動または手動で、適宜、取捨選択が可能である。   The information set described above is preferably attached to individual image data. By attaching necessary correction information to the image data, correction processing can be performed by any device equipped with the image processing apparatus of this embodiment. Further, the contents of the information set can be appropriately selected automatically or manually as necessary.

上記各実施例によれば、光学伝達関数の状態で画像内に再配置してから実空間の画像回復フィルタに変換するため、画像回復フィルタを回転および補間するよりも高精度に画像の位置に応じた画像回復フィルタを生成できる。また、高精度に画像回復フィルタが生成できることから、予め保持する必要のある光学伝達関数に関するデータ量を低減することができる。したがって、各実施例によれば、画像回復処理に用いられる情報量を低減しつつ、高精度に補正された回復画像の取得が可能な画像処理方法を提供することができる。   According to each of the above embodiments, the image is rearranged in the image in the state of the optical transfer function and then converted into the real space image restoration filter. A corresponding image restoration filter can be generated. In addition, since the image restoration filter can be generated with high accuracy, the amount of data related to the optical transfer function that needs to be held in advance can be reduced. Therefore, according to each embodiment, it is possible to provide an image processing method capable of acquiring a restored image corrected with high accuracy while reducing the amount of information used in the image restoration process.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

120:画像回復処理装置
121:画像回復情報保持部
122:OTF再構成部
123:フィルタ処理部
120: Image recovery processing device 121: Image recovery information holding unit 122: OTF reconstruction unit 123: Filter processing unit

Claims (12)

撮影画像の画像回復処理を行う画像処理方法であって、
前記撮影画像の撮影条件に応じた係数データを用いて、前記撮影画像の位置に応じた複数の撮像光学系の第1の光学伝達関数を生成する工程と、
前記第1の光学伝達関数を前記撮影画像の中心または前記撮像光学系の光軸の周りに回転させて複数の第2の光学伝達関数を生成する工程と、
前記第1の光学伝達関数および前記第2の光学伝達関数に基づいて画像回復フィルタを生成する工程と、
前記画像回復フィルタを用いて前記撮影画像の画像回復処理を行う工程と、を有することを特徴とする画像処理方法。
An image processing method for performing image restoration processing of a captured image,
Generating a first optical transfer function of a plurality of imaging optical systems according to the position of the captured image using coefficient data corresponding to the imaging condition of the captured image;
Rotating the first optical transfer function around the center of the captured image or the optical axis of the imaging optical system to generate a plurality of second optical transfer functions;
Generating an image restoration filter based on the first optical transfer function and the second optical transfer function;
And a step of performing image restoration processing of the photographed image using the image restoration filter.
前記第1の光学伝達関数のうち、少なくとも2つの光学伝達関数は、前記撮影画像の中心を通る直線上の位置に応じた光学伝達関数であることを特徴とする請求項1に記載の画像処理方法。   2. The image processing according to claim 1, wherein at least two of the first optical transfer functions are optical transfer functions corresponding to positions on a straight line passing through a center of the captured image. Method. 前記複数の第1の光学伝達関数のうち、すべての光学伝達関数が、前記直線上の位置に応じた光学伝達関数であることを特徴とする請求項2に記載の画像処理方法。   The image processing method according to claim 2, wherein all of the plurality of first optical transfer functions are optical transfer functions corresponding to positions on the straight line. 前記画像回復フィルタは、前記撮影画像の第1の位置における第1の画像回復フィルタ、および、該撮影画像の第2の位置における第2の画像回復フィルタを含み、
前記第1の画像回復フィルタは、前記第1と第2の光学伝達関数を用いて生成され、
前記第2の画像回復フィルタは、前記第1の画像回復フィルタに基づいて生成される、ことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理方法。
The image restoration filter includes a first image restoration filter at a first position of the photographed image, and a second image restoration filter at a second position of the photographed image;
The first image restoration filter is generated using the first and second optical transfer functions;
The image processing method according to claim 1, wherein the second image restoration filter is generated based on the first image restoration filter.
前記第2の光学伝達関数と前記撮影画像の中心または撮像光学系の光軸に対して回転非対称な伝達関数とを用いて、回転非対称な光学伝達関数を生成する工程を有し、
前記回転非対称な光学伝達関数を用いて前記画像回復フィルタを生成することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理方法。
Using the second optical transfer function and a transfer function that is rotationally asymmetric with respect to the center of the captured image or the optical axis of the imaging optical system, to generate a rotationally asymmetric optical transfer function;
The image processing method according to claim 1, wherein the image restoration filter is generated using the rotationally asymmetric optical transfer function.
前記回転非対称な伝達関数は、光学ローパスフィルタの伝達関数であることを特徴とする請求項5に記載の画像処理方法。   The image processing method according to claim 5, wherein the rotationally asymmetric transfer function is a transfer function of an optical low-pass filter. 前記回転非対称な伝達関数は、撮像素子の画素開口形状の伝達関数であることを特徴とする請求項6に記載の画像処理方法。   The image processing method according to claim 6, wherein the rotationally asymmetric transfer function is a transfer function of a pixel aperture shape of an image sensor. 前記係数データは、前記撮像光学系の光学伝達関数の設計値または測定値を近似した関数の係数のデータであることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理方法。   The image processing method according to claim 1, wherein the coefficient data is coefficient data of a function that approximates a design value or a measurement value of an optical transfer function of the imaging optical system. . 前記撮影画像において、前記撮影画像の中心または撮像光学系の光軸に対して点対称な領域を第1領域と第2領域、前記第1の領域と前記撮影画像の中心を通る直線に対して線対称な領域を第3領域とするとき、
前記第1領域の光学伝達関数を用いて、前記第2領域または前記第3領域の光学伝達関数を生成する工程を有することを特徴とすることを特徴とする請求項1乃至8のいずれか1項に記載の画像処理方法。
In the captured image, a region that is point-symmetric with respect to the center of the captured image or the optical axis of the imaging optical system is defined as a first region and a second region, and a straight line that passes through the first region and the center of the captured image. When the line-symmetric region is the third region,
9. The method according to claim 1, further comprising the step of generating an optical transfer function of the second region or the third region using an optical transfer function of the first region. The image processing method according to item.
撮影画像の画像回復処理を行う画像処理装置であって、
前記撮影画像の撮影条件に応じた係数データを用いて、前記撮影画像の位置に応じた複数の撮像光学系の第1の光学伝達関数を生成する第1の光学伝達関数生成手段と、
前記第1の光学伝達関数を前記撮影画像の中心または前記撮像光学系の光軸の周りに回転させて複数の第2の光学伝達関数を生成する第2の光学伝達関数生成手段と、
前記第1の光学伝達関数および前記第2の光学伝達関数に基づいて画像回復フィルタを生成する画像回復フィルタ生成手段と、
前記画像回復フィルタを用いて前記撮影画像の画像回復処理を行う画像回復手段と、を有することを特徴とする画像処理装置。
An image processing apparatus that performs image restoration processing of a captured image,
First optical transfer function generation means for generating first optical transfer functions of a plurality of imaging optical systems according to the positions of the captured images using coefficient data corresponding to the imaging conditions of the captured images;
Second optical transfer function generating means for generating a plurality of second optical transfer functions by rotating the first optical transfer function around the center of the captured image or the optical axis of the imaging optical system;
Image restoration filter generating means for generating an image restoration filter based on the first optical transfer function and the second optical transfer function;
And an image recovery means for performing image recovery processing of the photographed image using the image recovery filter.
撮影画像の画像回復処理を行う撮像装置であって、
前記撮影画像の撮影条件に応じた係数データを用いて、前記撮影画像の位置に応じた複数の撮像光学系の第1の光学伝達関数を生成する第1の光学伝達関数生成手段と、
前記第1の光学伝達関数を前記撮影画像の中心または前記撮像光学系の光軸の周りに回転させて複数の第2の光学伝達関数を生成する第2の光学伝達関数生成手段と、
前記第1の光学伝達関数および前記第2の光学伝達関数に基づいて画像回復フィルタを生成する画像回復フィルタ生成手段と、
前記画像回復フィルタを用いて前記撮影画像の画像回復処理を行う画像回復手段と、を有することを特徴とする撮像装置。
An imaging device that performs image restoration processing of a captured image,
First optical transfer function generation means for generating first optical transfer functions of a plurality of imaging optical systems according to the positions of the captured images using coefficient data corresponding to the imaging conditions of the captured images;
Second optical transfer function generating means for generating a plurality of second optical transfer functions by rotating the first optical transfer function around the center of the captured image or the optical axis of the imaging optical system;
Image restoration filter generating means for generating an image restoration filter based on the first optical transfer function and the second optical transfer function;
And an image recovery means for performing image recovery processing of the captured image using the image recovery filter.
撮影画像の画像回復処理を行う画像処理プログラムであって、
前記撮影画像の撮影条件に応じた係数データを用いて、前記撮影画像の位置に応じた複数の撮像光学系の第1の光学伝達関数を生成する工程と、
前記第1の光学伝達関数を前記撮影画像の中心または前記撮像光学系の光軸の周りに回転させて複数の第2の光学伝達関数を生成する工程と、
前記第1の光学伝達関数および前記第2の光学伝達関数に基づいて画像回復フィルタを生成する工程と、
前記画像回復フィルタを用いて前記撮影画像の画像回復処理を行う工程と、を情報処理装置に実行させることを特徴とする画像処理プログラム。
An image processing program for performing image restoration processing of a captured image,
Generating a first optical transfer function of a plurality of imaging optical systems according to the position of the captured image using coefficient data corresponding to the imaging condition of the captured image;
Rotating the first optical transfer function around the center of the captured image or the optical axis of the imaging optical system to generate a plurality of second optical transfer functions;
Generating an image restoration filter based on the first optical transfer function and the second optical transfer function;
An image processing program causing an information processing apparatus to execute an image restoration process of the captured image using the image restoration filter.
JP2013234528A 2013-11-13 2013-11-13 Image processing method, image processing apparatus, imaging apparatus, and image processing program Expired - Fee Related JP5611439B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013234528A JP5611439B2 (en) 2013-11-13 2013-11-13 Image processing method, image processing apparatus, imaging apparatus, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013234528A JP5611439B2 (en) 2013-11-13 2013-11-13 Image processing method, image processing apparatus, imaging apparatus, and image processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011172503A Division JP5414752B2 (en) 2011-08-08 2011-08-08 Image processing method, image processing apparatus, imaging apparatus, and image processing program

Publications (2)

Publication Number Publication Date
JP2014064304A JP2014064304A (en) 2014-04-10
JP5611439B2 true JP5611439B2 (en) 2014-10-22

Family

ID=50619103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013234528A Expired - Fee Related JP5611439B2 (en) 2013-11-13 2013-11-13 Image processing method, image processing apparatus, imaging apparatus, and image processing program

Country Status (1)

Country Link
JP (1) JP5611439B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016171090A1 (en) 2015-04-23 2016-10-27 富士フイルム株式会社 Image processing device, imaging device, image processing method, and image processing program
WO2016171087A1 (en) 2015-04-23 2016-10-27 富士フイルム株式会社 Image processing device, image capturing apparatus, image processing method and image processing program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10200710A (en) * 1997-01-13 1998-07-31 Konica Corp Image processing unit
JP4059624B2 (en) * 2000-12-27 2008-03-12 富士フイルム株式会社 How to correct captured images
JP3855079B2 (en) * 2003-08-19 2006-12-06 学校法人早稲田大学 Image modification processing method and apparatus, program, and data recording medium
JP4942216B2 (en) * 2008-09-30 2012-05-30 キヤノン株式会社 Image processing method, image processing apparatus, imaging apparatus, and program
JP5274391B2 (en) * 2009-06-29 2013-08-28 キヤノン株式会社 Interchangeable lens camera and control method thereof
JP5448715B2 (en) * 2009-10-22 2014-03-19 キヤノン株式会社 Imaging apparatus and control method thereof

Also Published As

Publication number Publication date
JP2014064304A (en) 2014-04-10

Similar Documents

Publication Publication Date Title
JP5414752B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP5264968B2 (en) Image processing apparatus, image processing method, imaging apparatus, and image processing program
JP5409589B2 (en) Image processing method, image processing program, image processing apparatus, and imaging apparatus
JP5153846B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US9424629B2 (en) Image pickup apparatus, image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP6071860B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP2013045404A (en) Image processing method, image processor, imaging apparatus and image processing program
JP5451704B2 (en) Image processing apparatus, image processing method, program, and image processing system
JP5653464B2 (en) Imaging apparatus, image processing apparatus, image processing method, image processing program, and storage medium
JP6821526B2 (en) Image processing method, image processing device, imaging device, and program
JP5730036B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program.
JP5425135B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP5541750B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP7301601B2 (en) Image processing device, imaging device, lens device, image processing system, image processing method, and program
JP5611439B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP5645981B2 (en) Imaging apparatus, image processing apparatus, image processing method, image processing program, and storage medium
JP5425136B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
US9674431B2 (en) Image pickup apparatus, image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP5344647B2 (en) Image processing method, image processing apparatus, and image processing program
JP2018107541A (en) Image processing apparatus, imaging device, image processing method, and image processing program
JP2012156714A (en) Program, image processing device, image processing method, and imaging device
JP2022129053A (en) Image processing device, imaging device, image processing method, and program
JP2023139397A (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
JP2022161527A (en) Image processing method, image processing apparatus, imaging device, and program
JP2015103902A (en) Imaging device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140902

R151 Written notification of patent or utility model registration

Ref document number: 5611439

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees