JP5769790B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP5769790B2
JP5769790B2 JP2013258691A JP2013258691A JP5769790B2 JP 5769790 B2 JP5769790 B2 JP 5769790B2 JP 2013258691 A JP2013258691 A JP 2013258691A JP 2013258691 A JP2013258691 A JP 2013258691A JP 5769790 B2 JP5769790 B2 JP 5769790B2
Authority
JP
Japan
Prior art keywords
pixel
image
interpolation
correction
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013258691A
Other languages
Japanese (ja)
Other versions
JP2014057369A (en
Inventor
見 寺澤
見 寺澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013258691A priority Critical patent/JP5769790B2/en
Publication of JP2014057369A publication Critical patent/JP2014057369A/en
Application granted granted Critical
Publication of JP5769790B2 publication Critical patent/JP5769790B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像補正技術に関する。   The present invention relates to an image correction technique.

デジタルカメラ等の撮像装置で撮像して得られた画像は、撮像レンズ等の光学系が有する倍率色収差や歪曲収差の影響を受ける。撮像された画像内の画素に着目すると、本来、着目画素に結像されるべき像は、それぞれの収差によって着目画素と画像の中心を結ぶ線上に移動されて結像されている。   An image obtained by imaging with an imaging apparatus such as a digital camera is affected by lateral chromatic aberration and distortion aberration of an optical system such as an imaging lens. When attention is focused on the pixels in the captured image, the image that should originally be focused on the target pixel is moved and formed on a line connecting the target pixel and the center of the image due to each aberration.

近年では、撮像装置において多画素の撮像素子が用いられたり、広角や高ズーム倍率の光学系が用いられたりしており、収差による画質劣化が顕在化してしまうため、撮像装置の中には画像処理によって収差による影響の補正を行うものがある。収差によって移動された画素の情報を、本来あるべき画素に補正するための補正量は、画像の中心からの距離を表す像高と、光学系の特性によって求められることが知られている。   In recent years, multi-pixel imaging devices are used in imaging devices, or optical systems with wide-angle or high zoom magnification are used, and image quality degradation due to aberrations becomes obvious. Some processes correct the influence of aberrations. It is known that the correction amount for correcting the information of the pixel moved by the aberration to the pixel that should be originally obtained is determined by the image height representing the distance from the center of the image and the characteristics of the optical system.

また、収差による像の移動は必ずしも撮像素子の画素単位ではなく、撮像素子の画素と画素の間に移動される(欠落画素)場合があり、収差による影響の補正においては補間演算が必要である。特許文献1及び特許文献2では、撮像された画像における倍率色収差や歪曲収差を補正するために、複数の画素に補間関数を乗ずることによって、補正後の着目画素の画素値を導出する技術が開示されている。   In addition, the movement of the image due to aberration is not necessarily the pixel unit of the image sensor, but may be moved between pixels of the image sensor (missing pixel), and interpolation calculation is necessary to correct the influence of aberration. . Patent Documents 1 and 2 disclose a technique for deriving a pixel value of a pixel of interest after correction by multiplying a plurality of pixels by an interpolation function in order to correct lateral chromatic aberration and distortion in a captured image. Has been.

特開2001−186533号公報JP 2001-186533 A 特開2005−057605号公報JP 2005-057605 A

しかしながら上述した技術では、収差による影響を補正する処理方法については開示されているが、補正処理を行う際の記憶領域の容量によって制限される補正限界については、これまで言及されていなかった。即ち、上述したような多画素の撮像素子を備える撮像装置では撮像して得られる画像も大容量化している。このため、得られた画像に収差による影響を補正する等の画像処理を適用するためには、画像を多数の領域に分割し、それぞれの領域を順番に記憶領域に読み出して補正処理を行う必要がある。また特に映像記録時等、撮像から記録にかかる時間を短縮化するためには重複領域の読み出しを可能な限り避ける必要があり、画像処理は1つの領域について1回の読み出しで処理を完了することが求められる。つまり、収差の補正量は記憶領域の容量によって制限されてしまうため、補正限界を考慮しつつ、好適な補正を適用する必要がある。
本発明は、上述の問題点に鑑みてなされたものであり、画質劣化を好適に補正することを目的とする。
However, in the above-described technique, a processing method for correcting the influence of aberration has been disclosed, but the correction limit limited by the capacity of the storage area when performing the correction processing has not been mentioned so far. In other words, in an imaging apparatus including a multi-pixel imaging element as described above, an image obtained by imaging is also increased in capacity. For this reason, in order to apply image processing such as correcting the influence of aberration to the obtained image, it is necessary to divide the image into a number of regions and read out each region in turn into a storage region for correction processing. There is. In addition, in order to shorten the time taken from imaging to recording, particularly during video recording, it is necessary to avoid reading of overlapping areas as much as possible, and image processing can be completed with one reading for one area. Is required. That is, since the aberration correction amount is limited by the capacity of the storage area, it is necessary to apply a suitable correction in consideration of the correction limit.
The present invention has been made in view of the above-described problems, and an object thereof is to suitably correct image quality deterioration.

前述の目的を達成するために、本発明の画像処理装置は、以下の構成を備える。
第1の画像の一部の領域を読み出して、第2の画像として記憶する記憶手段と、第2の画像内の着目画素の信号値を、着目画素と異なる位置を中心とする周辺画素の信号値、および、該周辺画素の信号値に乗ずる補間係数を用いて演算する演算手段と、を有し、演算手段は、着目画素と異なる位置を中心とする所定数の周辺画素の少なくともいずれかが第2の画像として記憶されていない場合と、着目画素と異なる位置を中心とする所定数の周辺画素の全てが第2の画像として記憶されている場合とで、補間係数を異なる値に設定することを特徴とする。
In order to achieve the above object, an image processing apparatus of the present invention comprises the following arrangement.
Storage means for reading out a partial area of the first image and storing it as a second image, and a signal of a peripheral pixel centered on a position different from the target pixel in the signal value of the target pixel in the second image And an arithmetic means that calculates using an interpolation coefficient that multiplies the signal value of the peripheral pixel and the signal value of the peripheral pixel, and the arithmetic means is at least one of a predetermined number of peripheral pixels centered at a position different from the target pixel. The interpolation coefficient is set to a different value between the case where it is not stored as the second image and the case where all of a predetermined number of peripheral pixels centered at positions different from the target pixel are stored as the second image. It is characterized by that.

このような構成により本発明によれば、画質劣化を好適に補正することが可能となる。   With this configuration, according to the present invention, it is possible to suitably correct image quality degradation.

実施形態に係るデジタルカメラの機能構成を表す図The figure showing the functional composition of the digital camera concerning an embodiment 実施形態に係る画素座標生成回路を説明するための図The figure for demonstrating the pixel coordinate generation circuit which concerns on embodiment. 補正量を算出するための近似関数導出方法Approximate function derivation method for calculating correction amount 実施形態に係る係数生成回路の回路構成を表す図The figure showing the circuit composition of the coefficient generation circuit concerning an embodiment 補正後の画素値の導出方法を説明するための図The figure for demonstrating the deriving method of the pixel value after correction | amendment 補間関数の周波数応答特性を説明するための図Diagram for explaining frequency response characteristics of interpolation function 実施形態に係る周波数特性制御回路の回路構成を表す図The figure showing the circuit composition of the frequency characteristic control circuit concerning an embodiment 補間関数の抑圧係数を説明するための図Diagram for explaining the suppression coefficient of the interpolation function 実施形態に係る補正後の画素値の導出方法を説明するための図The figure for demonstrating the deriving method of the pixel value after correction | amendment which concerns on embodiment. 実施形態に係る光学補正回路の回路構成を表す図The figure showing the circuit composition of the optical correction circuit concerning an embodiment 補間演算に用いる、バッファメモリ上の参照画素を説明するための図A diagram for explaining reference pixels on a buffer memory used for interpolation calculation 実施形態に係る像高と補正量との関係を表す図The figure showing the relationship between the image height and correction amount which concerns on embodiment 実施形態に係る補正限界量と各パラメータとの関係を説明するための図The figure for demonstrating the relationship between the correction limit amount and each parameter which concerns on embodiment 実施形態3に係る補正特性情報生成回路の回路構成を表す図The figure showing the circuit composition of the amendment characteristic information generation circuit concerning Embodiment 3. 実施形態4に係る特徴検出回路の回路構成を表す図The figure showing the circuit composition of the feature detection circuit concerning Embodiment 4.

(実施形態1)
以下、本発明の好適な一実施形態について、図面を参照して詳細に説明する。なお、以下に説明する一実施形態は、画像処理装置の一例としての、撮像した画像の光学系に起因して生じている倍率色収差または歪曲収差を補正可能なデジタルカメラに、本発明を適用した例を説明する。しかし、本発明は、入力された画像において、画像を撮像した光学系の収差により生じている画質劣化を補正することが可能な任意の機器に適用可能である。
なお、倍率色収差及び歪曲収差における補正量と像高の関係は異なるが、収差の補正量は像高に依存するものであるため、本実施形態ではRGB各色の倍率色収差または歪曲収差のいずれかの補正量について以下に説明するものとする。
(Embodiment 1)
Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the drawings. In one embodiment described below, the present invention is applied to a digital camera that can correct lateral chromatic aberration or distortion caused by an optical system of a captured image as an example of an image processing apparatus. An example will be described. However, the present invention can be applied to any device that can correct image quality degradation caused by the aberration of the optical system that captured the image in the input image.
Although the relationship between the correction amount and the image height in the lateral chromatic aberration and the distortion aberration is different, the correction amount of the aberration depends on the image height. Therefore, in the present embodiment, either the lateral chromatic aberration or the distortion aberration of each RGB color is used. The correction amount will be described below.

図1は、本発明の実施形態に係るデジタルカメラ100の機能構成を示すブロック図である。なお、本実施形態ではデジタルカメラ100において、撮像された画像に生じる収差による影響を補正するために、少なくとも必要な機能構成のみを示して説明し、画像の記録や表示に係る構成部は図示しない。   FIG. 1 is a block diagram showing a functional configuration of a digital camera 100 according to an embodiment of the present invention. In the present embodiment, in the digital camera 100, in order to correct the influence due to the aberration generated in the captured image, at least a necessary functional configuration is shown and described, and components related to image recording and display are not illustrated. .

マイコン101は、デジタルカメラ100の全体の処理を制御するブロックであり、演算や各ブロックへの演算結果等のデータの受け渡しを行う。マイコン101は、内部にデジタルカメラ100の全体の処理に係る動作プログラムを記憶する不揮発性メモリ、及び動作プログラムの実行や演算結果及び入力されたデータの一時的な記憶を行うワークメモリを備える。   The microcomputer 101 is a block that controls the overall processing of the digital camera 100, and exchanges data such as computations and computation results to each block. The microcomputer 101 includes a non-volatile memory that stores an operation program related to the entire processing of the digital camera 100, and a work memory that temporarily stores the execution of the operation program, the calculation result, and input data.

光学系102は、ズームレンズ及びフォーカスレンズ等のレンズ群で構成され、光学系102及び絞り106を介して被写体からの反射光を、後述する撮像素子108に被写体像を結像する。光学系102及び絞り106は、マイコン101から供給される駆動位置の情報に従って、ズームレンズ用アクチュエータ103、フォーカスレンズ用アクチュエータ104、及び絞り用アクチュエータ105によって駆動され、被写体像を光学的に調整する。光学系102及び絞り106に供給する駆動位置の情報を算出するための情報である、焦点距離、フォーカス位置、絞り値は倍率色収差及び歪曲収差に影響を与える要因であるため、以後、収差による影響の補正の説明において光学パラメータと総称して説明する。   The optical system 102 is composed of a lens group such as a zoom lens and a focus lens, and forms a subject image on reflected light from the subject via an optical system 102 and a diaphragm 106 on an image sensor 108 described later. The optical system 102 and the aperture 106 are driven by the zoom lens actuator 103, the focus lens actuator 104, and the aperture actuator 105 according to the drive position information supplied from the microcomputer 101, and optically adjust the subject image. The focal length, focus position, and aperture value, which are information for calculating the drive position information supplied to the optical system 102 and the aperture 106, are factors that affect the lateral chromatic aberration and distortion aberration. These corrections will be collectively referred to as optical parameters.

光学系102及び絞り106を介してデジタルカメラ100に入射した被写体からの反射光は、色分離プリズム107によってRGBに色分離され、RGBそれぞれの色用の撮像素子108に結像される。撮像素子108は、CCDやCMOSセンサ等であり、各撮像素子108に結像された光学像は光電変換され、得られたアナログ画像信号はアナログフロントエンド(AFE)109によって入力された駆動波形に従い、スキャン順にAFE109に出力される。AFE109は、入力されたアナログ画像信号をデジタル画像に変換するブロックであり、RGBの各色用の撮像素子108から入力されたアナログ画像信号をそれぞれデジタル画像Sr、Sg、Sbに変換し、後述する光学補正回路115に出力する。撮像素子108からアナログ画像信号を出力させるためにAFE109が生成する撮像素子108の駆動波形は、タイミングジェネレータ(TG)110からAFE109に出力される水平同期信号HD及び垂直同期信号VDによる。TG110はデジタルカメラ100が備える撮像素子108の駆動に関する情報をマイコン101より受信し、水平同期信号HD及び垂直同期信号VDを生成し、AFE109及び画素座標生成回路111に出力する。撮像素子108の駆動に関する情報は、例えば撮像素子108が水平1ライン分のアナログ画像信号を出力するために要する時間の情報や、全てのアナログ画像信号を出力するために要する、即ち1フレームのアナログ画像信号の読み出しに要する時間の情報である。   The reflected light from the subject that has entered the digital camera 100 via the optical system 102 and the aperture 106 is color-separated into RGB by the color separation prism 107, and forms an image on the image sensor 108 for each color of RGB. The image sensor 108 is a CCD, a CMOS sensor, or the like. An optical image formed on each image sensor 108 is photoelectrically converted, and an obtained analog image signal is in accordance with a drive waveform input by an analog front end (AFE) 109. Are output to the AFE 109 in the scan order. The AFE 109 is a block that converts an input analog image signal into a digital image. The AFE 109 converts the analog image signal input from the RGB image pickup elements 108 into digital images Sr, Sg, and Sb, respectively. Output to the correction circuit 115. The drive waveform of the image sensor 108 generated by the AFE 109 to output the analog image signal from the image sensor 108 is based on the horizontal synchronization signal HD and the vertical synchronization signal VD output from the timing generator (TG) 110 to the AFE 109. The TG 110 receives information related to driving of the image sensor 108 included in the digital camera 100 from the microcomputer 101, generates a horizontal synchronization signal HD and a vertical synchronization signal VD, and outputs them to the AFE 109 and the pixel coordinate generation circuit 111. The information related to the driving of the image sensor 108 includes, for example, information about the time required for the image sensor 108 to output an analog image signal for one horizontal line, or an analog image signal required for outputting all analog image signals. This is information on the time required to read out the image signal.

画素座標生成回路111は、収差による影響を補正するためにそれぞれの画素位置の情報を極座標化する回路である。倍率色収差及び歪曲収差は、光学中心からの距離である像高に依存するため、本画素座標生成回路111において光学中心を極とした極座標にそれぞれの画素位置の情報を変換する。ここで、図2を用いて画素座標生成回路111についてさらに説明する。   The pixel coordinate generation circuit 111 is a circuit that polarizes information on each pixel position in order to correct the influence of aberration. Since the lateral chromatic aberration and distortion depend on the image height, which is the distance from the optical center, the pixel coordinate generation circuit 111 converts the information of each pixel position into polar coordinates with the optical center as a pole. Here, the pixel coordinate generation circuit 111 will be further described with reference to FIG.

図2(a)は画素座標生成回路111の回路構成の例である。TG110から入力された水平同期信号HD及び垂直同期信号VDをカウントすることにより、撮像素子108上の現在AFE109に出力されている画素位置の情報Xt及びXyが得られ、極座標変換回路201に入力される。また、マイコン101から供給される撮像された画像の光学中心の画素位置の情報Cx及びCyが極座標変換回路201に入力される。極座標変換回路201では、これらの入力された情報をもとに、図2(b)のように現在AFE109に出力されている画素の極座標である、動径Rt及び偏角θtの情報を以下の式で算出する。   FIG. 2A shows an example of the circuit configuration of the pixel coordinate generation circuit 111. By counting the horizontal synchronization signal HD and the vertical synchronization signal VD input from the TG 110, pixel position information Xt and Xy currently output to the AFE 109 on the image sensor 108 is obtained and input to the polar coordinate conversion circuit 201. The Further, information Cx and Cy of the pixel position at the optical center of the captured image supplied from the microcomputer 101 is input to the polar coordinate conversion circuit 201. In the polar coordinate conversion circuit 201, based on these input information, as shown in FIG. 2B, information on the radius Rt and the deflection angle θt, which are polar coordinates of the pixel currently output to the AFE 109, is Calculate with the formula.

このようにして算出された極座標の情報は、後述する係数生成回路113に出力される。なお、平方根演算は、二分法、開平法などの既知の手法を有限語長精度で表現することにより、またatan演算は、高次関数近似あるいはXY比を所定の値域に区間分割した区分低次関数近似により、ハードウェアでも実現が可能である。   The polar coordinate information thus calculated is output to a coefficient generation circuit 113 described later. Note that the square root calculation represents a known method such as a bisection method or a square root method with a finite word length accuracy, and the atan calculation represents a high-order function approximation or a segmented low-order that divides the XY ratio into a predetermined range. It can also be realized in hardware by function approximation.

光学補正データベース112は、光学系の収差、即ち上述した撮像時の光学パラメータに対する光学補正特性情報を記憶する、例えばフラッシュメモリ等の記憶装置である。光学補正データベース112の記憶容量が有限であるため、光学補正特性情報は、例えば予め設定された光学パラメータの組み合わせに対し、離散的な像高位置における、各色の倍率色収差及び歪曲収差の補正量を示すプロットデータとして記憶される。即ち、光学補正特性情報として記憶されていない、光学パラメータの組み合わせ及び像高位置における補正量を算出する場合には、光学補正データベース112に記憶されている光学補正特性情報から保管して補正量と像高の近似関数を得る必要がある。   The optical correction database 112 is a storage device such as a flash memory that stores optical correction characteristic information for aberrations of the optical system, that is, the optical parameters at the time of imaging described above. Since the storage capacity of the optical correction database 112 is finite, the optical correction characteristic information includes, for example, correction amounts of magnification chromatic aberration and distortion aberration of each color at discrete image height positions with respect to a preset combination of optical parameters. It is stored as the plot data shown. That is, when calculating a combination of optical parameters and a correction amount at an image height position that are not stored as optical correction characteristic information, the correction amount is stored from the optical correction characteristic information stored in the optical correction database 112. It is necessary to obtain an approximate function of the image height.

ここで、光学補正データベース112に記憶されている光学補正特性情報から、撮像時の光学パラメータにあった補正量と像高の近似関数のプロットデータCm1〜Cm4を、マイコン101が算出する方法について図3を用いて説明する。
マイコン101は例えばユーザの指示によって撮像が行われた際に、撮像時の光学パラメータを取得するとともに光学補正データベース112から撮像時の光学パラメータの組み合わせと類似度が高い2つの光学補正特性情報Ca、Cbを読み出す。読み出した光学補正特性情報は、図3(a)のように2つの異なる近似関数において、4つの像高位置における補正量を示すプロットデータ(Ca1〜Ca4、Cb1〜Cb4)となっている。なお、図3(a)において各プロットデータは曲線で接続されて図示しているが、それぞれの光学補正特性情報CaとCbを識別するために接続したものであり、実際のプロットデータでは、各プロット間のデータは存在しない。マイコン101は、撮像時の光学パラメータと、読み出した2つの光学補正特性情報Ca及びCbの光学パラメータとの乖離度に応じて重み付けを行い、図3(b)のような2つの光学特性情報から撮像時の光学パラメータにおける光学補正特性情報を算出する。マイコン101は、2つの光学補正特性情報Ca及びCbから算出されたプロットデータCm1〜Cm4を、撮像時の光学パラメータの光学補正特性情報として、係数生成回路113に出力する。
Here, a method for the microcomputer 101 to calculate plot data Cm1 to Cm4 of the approximate function of the correction amount and the image height corresponding to the optical parameters at the time of imaging from the optical correction characteristic information stored in the optical correction database 112 is illustrated. 3 will be described.
The microcomputer 101 acquires, for example, optical parameters at the time of imaging when the imaging is performed according to a user instruction, and two optical correction characteristic information Ca, which has a high similarity to the combination of optical parameters at the time of imaging, from the optical correction database 112. Read Cb. The read optical correction characteristic information is plot data (Ca1 to Ca4, Cb1 to Cb4) indicating correction amounts at four image height positions in two different approximate functions as shown in FIG. In FIG. 3 (a), each plot data is shown connected by a curve, but is connected to identify the respective optical correction characteristic information Ca and Cb. In the actual plot data, There is no data between plots. The microcomputer 101 performs weighting according to the degree of divergence between the optical parameters at the time of imaging and the read optical parameters of the two optical correction characteristic information Ca and Cb, and based on the two optical characteristic information as shown in FIG. Optical correction characteristic information in the optical parameters at the time of imaging is calculated. The microcomputer 101 outputs plot data Cm1 to Cm4 calculated from the two pieces of optical correction characteristic information Ca and Cb to the coefficient generation circuit 113 as optical correction characteristic information of optical parameters at the time of imaging.

係数生成回路113は、入力された撮像時の光学パラメータの光学補正特性情報のプロットデータCmから、各プロット間について、撮像時の光学パラメータにおける補正量と像高の近似関数を導出する。また係数生成回路113は、導出した補正量と像高の近似関数を用いて、入力された画素位置において光学系102収差による影響の補正量を算出する。   The coefficient generation circuit 113 derives an approximate function of the correction amount and the image height in the optical parameter at the time of imaging between the plots from the input plot data Cm of the optical correction characteristic information of the optical parameter at the time of imaging. Further, the coefficient generation circuit 113 calculates the correction amount of the influence due to the aberration of the optical system 102 at the input pixel position, using the derived correction amount and the approximate function of the image height.

ここで係数生成回路113の回路構成について図4を用いて説明する。係数生成回路113には、関数係数算出回路401、補正値算出回路402、及びXYベクトル係数算出回路403が存在する。
関数係数算出回路401は、撮像時の光学パラメータの光学補正特性情報のプロットデータから、プロット区間ごとに補正量と像高の近似関数の係数を算出する。本実施形態では、光学補正特性情報のプロットデータから、各プロット間の近似関数を次のような像高Rtの2次関数として導出する。
Here, the circuit configuration of the coefficient generation circuit 113 will be described with reference to FIG. The coefficient generation circuit 113 includes a function coefficient calculation circuit 401, a correction value calculation circuit 402, and an XY vector coefficient calculation circuit 403.
The function coefficient calculation circuit 401 calculates the coefficient of the approximate function of the correction amount and the image height for each plot section from the plot data of the optical correction characteristic information of the optical parameter at the time of imaging. In this embodiment, an approximate function between plots is derived from the plot data of the optical correction characteristic information as a quadratic function of the image height Rt as follows.

Zt=aRt+bRt+c
即ち、関数係数算出回路401は導出された近似関数の3つの係数a、b、cを補正値算出回路402に出力する。
Zt = aRt 2 + bRt + c
That is, the function coefficient calculation circuit 401 outputs the three coefficients a, b, and c of the derived approximate function to the correction value calculation circuit 402.

なお、本実施形態では補正量と像高の近似関数を2次関数として導出する方法について説明するが、近似関数は1次関数や高次関数で近似してもよい。例えば近似関数が3次関数である場合、補正値算出回路402には4つの係数が出力される。また、本実施形態では補正量と像高の近似関数をプロットデータから関数係数算出回路401において導出する方法について説明するが、光学補正データベース112にはそれぞれの光学パラメータにおける近似関数の係数が記憶されていてもよい。その場合、係数生成回路113には関数係数算出回路401はなくてよく、係数生成回路113に入力された撮像時の光学パラメータにおける近似関数の係数が、直接補正値算出回路402に入力されればよい。   In the present embodiment, a method for deriving the approximate function of the correction amount and the image height as a quadratic function will be described. However, the approximate function may be approximated by a linear function or a high-order function. For example, when the approximate function is a cubic function, four coefficients are output to the correction value calculation circuit 402. In this embodiment, a method for deriving the approximate function of the correction amount and the image height from the plot data in the function coefficient calculation circuit 401 will be described. However, the optical correction database 112 stores the coefficients of the approximate function in each optical parameter. It may be. In that case, the coefficient generation circuit 113 does not need to have the function coefficient calculation circuit 401, and if the coefficient of the approximate function in the optical parameters at the time of imaging input to the coefficient generation circuit 113 is directly input to the correction value calculation circuit 402. Good.

補正値算出回路402は、関数係数算出回路401から入力された、各プロット区間の近似関数の係数と、画素座標生成回路111から係数生成回路113に入力された着目画素の像高の情報とから、図3(c)のように着目画素の補正量Ztを算出する。なお、補正値算出回路402で算出された補正量Ztは、極座標系において着目画素と極を結んだ線分上における補正量であり、極座標系からXY座標系に変換するためにはXYベクトル係数算出回路403から出力されるベクトル係数を乗ずる必要がある。   The correction value calculation circuit 402 is based on the coefficients of the approximate function of each plot section input from the function coefficient calculation circuit 401 and the image height information of the pixel of interest input from the pixel coordinate generation circuit 111 to the coefficient generation circuit 113. As shown in FIG. 3C, the correction amount Zt of the target pixel is calculated. The correction amount Zt calculated by the correction value calculation circuit 402 is a correction amount on a line segment connecting the pixel of interest to the pole in the polar coordinate system, and an XY vector coefficient is used for conversion from the polar coordinate system to the XY coordinate system. It is necessary to multiply the vector coefficient output from the calculation circuit 403.

XYベクトル係数算出回路403は、極座標系で算出された補正量を、XY座標系の補正量に変換するためのベクトル係数を算出する。具体的には、XYベクトル係数算出回路403は、画素座標生成回路111から係数生成回路113に入力された着目画素の偏角θtの情報に従い、ベクトル係数は以下のようになる。   The XY vector coefficient calculation circuit 403 calculates a vector coefficient for converting the correction amount calculated in the polar coordinate system into the correction amount in the XY coordinate system. Specifically, the XY vector coefficient calculation circuit 403 has the following vector coefficients in accordance with the information on the deflection angle θt of the pixel of interest input from the pixel coordinate generation circuit 111 to the coefficient generation circuit 113.

Vx=cosθt
Vy=sinθt
なお、正弦関数、余弦関数演算は、高次関数近似あるいは偏角θtを所定の値域に区間分割した区分低次関数近似により、ハードウェアでも実現が可能である。
Vx = cos θt
Vy = sin θt
Note that the sine function and cosine function calculation can also be realized in hardware by high-order function approximation or by piecewise low-order function approximation in which the argument θt is divided into predetermined values.

このようにXYベクトル係数算出回路403で算出されたベクトル係数を用いて、係数生成回路113はXY座標系の補正量のX成分ZtH、Y成分ZtVは次のように表せる。   Using the vector coefficients calculated by the XY vector coefficient calculation circuit 403 in this way, the coefficient generation circuit 113 can express the X component ZtH and the Y component ZtV of the correction amount in the XY coordinate system as follows.

ZtH=Zt・Vx
ZtV=Zt・Vy
係数生成回路113は算出された補正量のXY成分ZtH、ZtVを、後述する周波数特性制御回路114及び光学補正回路115に出力する。なお、着目画素における補正量は、本来着目画素に存在するべき光学像の位相ズレ量を表し、補正量のXY成分は水平、垂直方向の位相ズレ成分を表す。また倍率色収差の補正量はRGBの各色が光学系102によって屈折される角度が異なるためデジタル画像Sr、Sg、Sbにおいて全て異なるが、歪曲収差の補正量はデジタル画像Sr、Sg、Sbにおいて全て同じ値となる。
ZtH = Zt · Vx
ZtV = Zt · Vy
The coefficient generation circuit 113 outputs the XY components ZtH and ZtV of the calculated correction amount to the frequency characteristic control circuit 114 and the optical correction circuit 115 described later. Note that the correction amount in the target pixel represents the phase shift amount of the optical image that should originally exist in the target pixel, and the XY component of the correction amount represents the horizontal and vertical phase shift components. Further, the correction amount of lateral chromatic aberration is different in the digital images Sr, Sg, and Sb because the angles at which RGB colors are refracted by the optical system 102 are different. Value.

光学補正回路115は、撮像された画像において係数生成回路113で算出された補正量分だけ着目画素から離れた位置を中心とする周辺画素の画素値から補間演算を行うことにより、収差による影響を補正した後の着目画素の画素値を算出する。具体的には、着目画素から係数生成回路113で算出された着目画素の補正量のXY成分ZtH、ZtVだけ離れた位置を中心とする所定の数の周辺画素に対して、補間関数から得られる補間係数を乗ずることにより、補正後の着目画素の位置の画素値を導出する。これにより、光学補正回路115では入力されたデジタル画像の全ての画素について補間関数を用いた補間演算を行い、収差による影響を補正した画像を出力することができる。   The optical correction circuit 115 performs the interpolation operation from the pixel values of the peripheral pixels centering on the position away from the target pixel by the correction amount calculated by the coefficient generation circuit 113 in the captured image, thereby affecting the influence of the aberration. The pixel value of the target pixel after correction is calculated. Specifically, it is obtained from the interpolation function with respect to a predetermined number of peripheral pixels centering on the positions separated by the XY components ZtH and ZtV of the correction amount of the target pixel calculated by the coefficient generation circuit 113 from the target pixel. By multiplying the interpolation coefficient, the pixel value at the position of the target pixel after correction is derived. Thereby, the optical correction circuit 115 can perform an interpolation operation using the interpolation function for all the pixels of the input digital image, and output an image in which the influence of the aberration is corrected.

ここで、補間関数及び補間関数を用いた本実施形態の収差の補正方法について、図を用いて詳細に説明する。
補間関数は、Bi−Cubic補間で用いられるように、sinc関数に窓関数を重畳して得られる有限な関数であり、収差による影響を補正する際に、窓関数で規定される範囲の画素(参照画素)のそれぞれについて乗ずる補間係数を導出することが可能である。着目画素Sに本来結像されるべき画素である仮想画素S’の画素値s’は、仮想画素S’を中心とするn個の参照画素S〜Sn−1の画素値に、それぞれ補間係数を乗じて総和をとることにより求めることができる。仮想画素の画素値s’は、n個の参照画素の画素値s〜sn−1、及び参照画素それぞれに乗ずる補間係数c〜cn−1を用いて、次の式で表すことができる。
Here, the interpolation function and the aberration correction method of the present embodiment using the interpolation function will be described in detail with reference to the drawings.
The interpolation function is a finite function obtained by superimposing a window function on a sinc function, as used in Bi-Cubic interpolation. When correcting the influence of aberration, pixels in a range defined by the window function ( It is possible to derive an interpolation coefficient to be multiplied for each of the reference pixels). The pixel value s ′ of the virtual pixel S ′, which is a pixel that should be imaged on the target pixel S, is the pixel value of n reference pixels S 0 to S n−1 centered on the virtual pixel S ′. It can be obtained by multiplying the interpolation coefficient and taking the sum. Pixel value s of the virtual pixel ', using the interpolation coefficients c 0 to c n-1 is multiplied to n pixel value s of the reference pixel 0 ~s n-1, and the reference pixel, respectively, by the following expression Can do.

なお、本実施形態では仮想画素S’と仮想画素の画素値s’のように、画素を特定する情報は大文字のアルファベット、当該画素の画素値は小文字の同一のアルファベットを用いて表すものとする。   In this embodiment, like the virtual pixel S ′ and the pixel value s ′ of the virtual pixel, the information specifying the pixel is expressed using uppercase alphabets, and the pixel value of the pixel is expressed using the same lowercase alphabet. .

着目画素Sと仮想画素S’の位置関係が、例えば図5のようにある場合、仮想画素の画素値s’は、参照画素数を4とすると仮想画素S’を中心とする周辺の4つの参照画素S〜Sを用いて導出する。このとき補間関数によって導出される補間係数は、例えば仮想画素S’に対する参照画素の距離に反比例するような値であり、S’に最も近い画素S4に最大の重み付けを行うような係数となる。 For example, when the positional relationship between the pixel of interest S and the virtual pixel S ′ is as shown in FIG. 5, the pixel value s ′ of the virtual pixel has four peripheral values centered on the virtual pixel S ′ when the number of reference pixels is four. Derived using the reference pixels S 1 to S 4 . At this time, the interpolation coefficient derived by the interpolation function is a value that is inversely proportional to the distance of the reference pixel with respect to the virtual pixel S ′, for example, and is a coefficient that gives the maximum weight to the pixel S4 closest to S ′.

図6(a)、(b)、及び(c)は、8点補間の補間関数の時間特性を示した例であり、(a)(b)(c)の順に窓関数が狭くなっており、参照している8点の画素の間隔は狭くなっている。図では、時間0で示される補間位相に対して、前後にずれた位相の画素に対応する補間係数c〜cの値が示されている。 FIGS. 6A, 6B, and 6C are examples showing the time characteristics of the interpolation function of 8-point interpolation, and the window functions are narrowed in the order of (a), (b), and (c). The interval between the eight pixels being referred to is narrow. In the figure, the values of interpolation coefficients c 0 to c 7 corresponding to pixels whose phases are shifted back and forth with respect to the interpolation phase indicated by time 0 are shown.

また図6(d)、(e)、及び(f)は、それぞれの補間関数の周波数特性を示した例であり、それぞれナイキスト周波数近傍の周波数応答特性が異なっている。図6(d)のように窓関数が広い場合、ナイキスト周波数近傍の周波数応答特性は急峻となっているため、このような補間関数から得られた補間係数を用いて収差による影響の補正を行うことにより、再現精度の高い画素値を得ることができる。また図6(f)のように窓関数が狭い場合、ナイキスト周波数近傍の周波数応答特性は緩やかであるため、このような補間関数から得られた補間係数を用いて収差による影響の補正を行うと、画素値の再現精度は低い。   6D, 6E, and 6F are examples showing the frequency characteristics of the respective interpolation functions, and the frequency response characteristics in the vicinity of the Nyquist frequency are different. When the window function is wide as shown in FIG. 6D, the frequency response characteristics in the vicinity of the Nyquist frequency are steep, so that the influence of aberration is corrected using the interpolation coefficient obtained from such an interpolation function. As a result, a pixel value with high reproducibility can be obtained. When the window function is narrow as shown in FIG. 6 (f), the frequency response characteristic near the Nyquist frequency is gentle. Therefore, when the influence of aberration is corrected using the interpolation coefficient obtained from such an interpolation function. The pixel value reproduction accuracy is low.

本実施形態では、このように光学補正回路115での補間演算に用いる補間関数の周波数特性を制御するために、周波数特性制御回路114を備える。ここで、周波数特性制御回路114の回路構成について図7を用いて説明する。
周波数特性制御回路114は、係数生成回路113から入力された収差の補正量のXY成分ZtH、ZtVが入力されると、水平方向及び垂直方向のそれぞれについて、補間関数の周波数特性を制御するための抑圧係数を光学補正回路115に出力する。具体的には、周波数特性制御回路114に収差の補正量が入力されると、水平及び垂直方向のそれぞれの補正量について係数関数算出回路701から703を用いて、抑圧係数をItHa、ItHb、ItHc及びItVa、ItVb、ItVcを決定する。なお、抑圧係数は方向に依らず補正限界によって決定される値であるため、本実施形態では水平方向の補間関数の抑圧係数について以下に説明する。
In this embodiment, the frequency characteristic control circuit 114 is provided in order to control the frequency characteristic of the interpolation function used for the interpolation calculation in the optical correction circuit 115 as described above. Here, the circuit configuration of the frequency characteristic control circuit 114 will be described with reference to FIG.
When the XY components ZtH and ZtV of the aberration correction amount input from the coefficient generation circuit 113 are input, the frequency characteristic control circuit 114 controls the frequency characteristics of the interpolation function for each of the horizontal direction and the vertical direction. The suppression coefficient is output to the optical correction circuit 115. Specifically, when an aberration correction amount is input to the frequency characteristic control circuit 114, the coefficient coefficient calculation circuits 701 to 703 are used for the horizontal and vertical correction amounts, and the suppression coefficients are set to ItHa, ItHb, ItHc. And ItVa, ItVb, ItVc are determined. Since the suppression coefficient is a value determined by the correction limit regardless of the direction, the suppression coefficient of the interpolation function in the horizontal direction will be described below in the present embodiment.

抑圧係数ItHa、ItHb、ItHcは、図8のような閾値th_a、th_b、th_cで挙動を変える、収差の補正量ZtHの関数である。係数関数算出回路701から703のそれぞれには、例えばマイコン101から閾値の情報及び閾値を越える補正量ZtHに対する勾配grad_a、grad_b、grad_cが供給され、補正量の値に従って抑圧係数が決定される。   The suppression coefficients ItHa, ItHb, and ItHc are functions of the aberration correction amount ZtH whose behavior is changed by the threshold values th_a, th_b, and th_c as shown in FIG. Each of the coefficient function calculation circuits 701 to 703 is supplied with, for example, threshold information and gradients grad_a, grad_b, and grad_c with respect to the correction amount ZtH exceeding the threshold from the microcomputer 101, and the suppression coefficient is determined according to the value of the correction amount.

例えば、撮像された画像の一部の領域の画像が光学補正回路115の有限の記憶領域に読み出される場合、一般的に収差の補正量が小さい方が、補正処理における仮想画素を中心とした参照画素を記憶領域内で多くとることが可能である。即ち、補正量が小さいほど補間関数の窓関数を広く、補正量が大きいほど補間関数の窓関数を狭くする必要がある。図6のように仮想画素S’を中心とする水平方向の8点の参照画素の補正を行う場合、補間関数の周波数特性を制御して得られる補間係数ch’は、周波数特性を制御していない補間関数から得られる補間係数chと抑圧係数を用いて、
ch’j=chj (j=3, 4)
ch’j=chj×ItHa (j=2, 5)
ch’j=chj×ItHb (j=1, 6)
ch’j=chj×ItHc (j=0, 7)
と表される。
For example, when an image of a partial area of a captured image is read out to a finite storage area of the optical correction circuit 115, the smaller correction amount of aberration is generally referred to the virtual pixel in the correction process. It is possible to take many pixels in the storage area. That is, the smaller the correction amount, the wider the window function of the interpolation function, and the larger the correction amount, the narrower the window function of the interpolation function. When correcting the eight reference pixels in the horizontal direction around the virtual pixel S ′ as shown in FIG. 6, the interpolation coefficient ch ′ obtained by controlling the frequency characteristic of the interpolation function controls the frequency characteristic. By using the interpolation coefficient ch and the suppression coefficient obtained from no interpolation function,
ch'j = chj (j = 3, 4)
ch'j = chj × ItHa (j = 2, 5)
ch′j = chj × ItHb (j = 1, 6)
ch′j = chj × ItHc (j = 0, 7)
It is expressed.

このとき、補間関数の周波数特性を制御して得られる補間係数ch’が、補正量ZtHに応じて図6のように窓関数の広狭を制御するためには、
0≦th_c≦th_b≦th_a
かつ、勾配grad_a、grad_b、grad_cにより算出されるx切片itc_a、itc_b、itc_cが、
0≦itc_c≦itc_b≦itc_a
となるようにマイコン101は周波数特性制御回路114へ供給するパラメータを制御する。このようにして周波数特性制御回路114は、収差の補正量によって決定した補間関数の抑圧係数を光学補正回路115に出力する。
At this time, in order for the interpolation coefficient ch ′ obtained by controlling the frequency characteristic of the interpolation function to control the width of the window function as shown in FIG. 6 according to the correction amount ZtH,
0 ≦ th_c ≦ th_b ≦ th_a
And x intercepts itc_a, itc_b, itc_c calculated by the gradients grad_a, grad_b, grad_c
0 ≦ itc_c ≦ itc_b ≦ itc_a
The microcomputer 101 controls parameters supplied to the frequency characteristic control circuit 114 so that In this way, the frequency characteristic control circuit 114 outputs the interpolation coefficient suppression coefficient determined by the aberration correction amount to the optical correction circuit 115.

次に、周波数特性制御回路114で決定した抑制係数を用いて光学補正回路115で行われる、補正後の画素値を導出する方法について図を用いて詳細に説明する。なお、以下で説明する補正後の画素値の導出方法は、着目画素Sから係数生成回路113で算出された補正量分だけ離れた仮想画素S’の位置を中心とする、8×8個の周辺画素を参照画素として用いて仮想画素S’の画素値を導出するものとして説明する。具体的には図9に示すように、着目画素Sから水平座標に補正量ZtH、垂直座標に補正量ZtVだけ離れた画素位置に存在する仮想画素S’の画素値を導出するために、仮想画素S’を中心とするS00〜S77までの64個の画素を参照画素として用いる。しかしながら、本発明の実施はこれに限らず、2以上の任意の数の周辺画素を参照画素として用いて、仮想画素S’の画素値を導出する方法であればよい。 Next, a method for deriving a corrected pixel value performed by the optical correction circuit 115 using the suppression coefficient determined by the frequency characteristic control circuit 114 will be described in detail with reference to the drawings. The corrected pixel value derivation method described below is based on 8 × 8 pixels centered on the position of the virtual pixel S ′ that is separated from the target pixel S by the correction amount calculated by the coefficient generation circuit 113. In the following description, it is assumed that the pixel value of the virtual pixel S ′ is derived using the peripheral pixels as reference pixels. Specifically, as shown in FIG. 9, in order to derive the pixel value of the virtual pixel S ′ existing at the pixel position separated from the target pixel S by the correction amount ZtH in the horizontal coordinate and the correction amount ZtV in the vertical coordinate, 64 pixels from S 00 to S 77 centered on the pixel S ′ are used as reference pixels. However, the implementation of the present invention is not limited to this, and any method may be used as long as it derives the pixel value of the virtual pixel S ′ using any number of peripheral pixels of 2 or more as reference pixels.

ここで光学補正回路115の回路構成について、図10(a)、図10(b)、及び図10(c)を用いて説明する。
係数生成回路113から入力された収差の補正量ZtH及びZtV、周波数特性制御回路114から入力された抑圧係数ItHa〜ItHc及びItVa〜ItVcは、垂直、水平成分ごとに、補間制御回路1001または補間制御回路1002に入力される。補間制御回路1001は、垂直成分の補間係数を算出する回路であり、補間関数と入力された抑圧係数とを用いて、補間係数cv〜cvを補間回路1012に出力する。また補間制御回路1001は、入力された垂直方向の補正量ZtVの情報を、バッファメモリ1003に伝送する。補間制御回路1002は、水平成分の補間係数を産出する回路であり、補間係数と入力された抑圧係数とを用いて、補間係数ch〜chを補間回路1004〜1011のそれぞれに出力する。また補間制御回路1002は、入力された水平方向の補正量ZtHの情報を、バッファメモリ1003に伝送する。
Here, the circuit configuration of the optical correction circuit 115 will be described with reference to FIGS. 10A, 10B, and 10C.
The aberration correction amounts ZtH and ZtV input from the coefficient generation circuit 113, and the suppression coefficients ItHa to ItHc and ItVa to ItVc input from the frequency characteristic control circuit 114 are the interpolation control circuit 1001 or the interpolation control for each vertical and horizontal component. Input to the circuit 1002. The interpolation control circuit 1001 calculates a vertical component interpolation coefficient, and outputs interpolation coefficients cv 0 to cv 7 to the interpolation circuit 1012 using the interpolation function and the input suppression coefficient. Further, the interpolation control circuit 1001 transmits the input information on the vertical correction amount ZtV to the buffer memory 1003. The interpolation control circuit 1002 is a circuit that generates a horizontal component interpolation coefficient, and outputs the interpolation coefficients ch 0 to ch 7 to each of the interpolation circuits 1004 to 1011 using the interpolation coefficient and the input suppression coefficient. Further, the interpolation control circuit 1002 transmits the input information of the horizontal correction amount ZtH to the buffer memory 1003.

バッファメモリ1003は、AFE109で変換されたデジタル画像Sr,Sg,Sbのうち、一部の領域の画像が補正処理のために記憶される記憶領域であって、AFE109によって順次変換された画像が記憶される。バッファメモリ1003に水平及び垂直方向の補正量ZtH、ZtVが入力されると、マイコン101はバッファメモリ1003に記憶されている画像の着目画素Sから、補正量分だけ離れた仮想画素S’の位置を算出する。さらにマイコン101は、算出した仮想画素S’の画素位置を中心とする所定の数の周辺画素を決定し、垂直座標ごとに異なる補間回路で処理されるように、決定した周辺画素の画素値を補間回路1004〜1011に出力する。例えば、図9の参照画素の画素値s00〜s07は、補間回路1004に出力される。 The buffer memory 1003 is a storage area in which some of the images of the digital images Sr, Sg, and Sb converted by the AFE 109 are stored for correction processing, and the images sequentially converted by the AFE 109 are stored. Is done. When horizontal and vertical correction amounts ZtH and ZtV are input to the buffer memory 1003, the microcomputer 101 positions the virtual pixel S ′ that is separated from the target pixel S of the image stored in the buffer memory 1003 by the correction amount. Is calculated. Further, the microcomputer 101 determines a predetermined number of peripheral pixels centered on the pixel position of the calculated virtual pixel S ′, and sets the pixel values of the determined peripheral pixels so that they are processed by different interpolation circuits for each vertical coordinate. Output to the interpolation circuits 1004 to 1011. For example, the pixel values s 00 to s 07 of the reference pixels in FIG. 9 are output to the interpolation circuit 1004.

補間回路1004〜1011のそれぞれの構成を図10(b)に、補間回路1012の構成を図10(c)に示す。図10(b)に示すように、それぞれ同一の垂直座標を有する参照画素の画素値に、それぞれの水平方向の画素位置に応じた補間係数ch’〜ch’を乗じて総和回路1013に出力する。そして総和回路1013において、補間係数が乗じられた参照画素の画素値の総和を算出して水平補間値出力する。補間回路1004〜1011のそれぞれから出力された、同一の垂直座標を有する水平方向の補間演算がなされた画素値から求められた水平補間値s’〜s’は、補間回路1012に出力され、垂直方向の補間演算を行う。補間回路1012は図10(c)に示すように、水平方向の補間演算がなされた画素値の水平補間値に、それぞれの垂直方向の画素位置に応じた補間係数cv’〜cv’を乗じて総和回路1014に出力する。そして総和回路1014において、補間係数が乗じられた全ての参照画素の画素値の総和である補間値s’を算出して出力する。なお、上述した2段階の補間回路を介した補間値の平均値s’を算出する補間演算は、次のような式で表すこともできる。 The configuration of each of the interpolation circuits 1004 to 1011 is shown in FIG. 10B, and the configuration of the interpolation circuit 1012 is shown in FIG. As shown in FIG. 10B, the sum value circuit 1013 is multiplied by interpolation coefficients ch ′ 0 to ch ′ 7 corresponding to the respective pixel positions in the horizontal direction to the pixel values of the reference pixels having the same vertical coordinates. Output. The summation circuit 1013 calculates the sum of the pixel values of the reference pixels multiplied by the interpolation coefficient and outputs a horizontal interpolation value. The horizontal interpolation values s ′ 0 to s ′ 7 obtained from the pixel values that have been subjected to the horizontal interpolation operation having the same vertical coordinates and output from each of the interpolation circuits 1004 to 1011 are output to the interpolation circuit 1012. Perform vertical interpolation. As shown in FIG. 10C, the interpolation circuit 1012 applies interpolation coefficients cv ′ 0 to cv ′ 7 corresponding to the respective pixel positions in the vertical direction to the horizontal interpolation values of the pixel values subjected to the horizontal interpolation calculation. Multiply and output to summation circuit 1014. Then, the summation circuit 1014 calculates and outputs an interpolation value s ′ that is the summation of the pixel values of all the reference pixels multiplied by the interpolation coefficient. The interpolation calculation for calculating the average value s ′ of the interpolation values via the above-described two-stage interpolation circuit can also be expressed by the following equation.

このようにすることで、着目画素に本来結像されるべきであった光学像の画素値を導出することができるため、全ての画素について光学補正回路115における補正処理を適用することにより、好適な収差により生じる画質劣化の補正を行うことができる。
なお、全ての画素について光学補正回路115での補正処理を適用する場合、バッファメモリ1003の容量や補正量の大きさ、着目画素の位置によっては、次のような問題が生じる。
By doing this, it is possible to derive the pixel value of the optical image that should have been focused on the pixel of interest, and therefore it is preferable to apply the correction processing in the optical correction circuit 115 to all the pixels. It is possible to correct image quality degradation caused by various aberrations.
When the correction processing by the optical correction circuit 115 is applied to all pixels, the following problems occur depending on the capacity of the buffer memory 1003, the amount of correction, and the position of the pixel of interest.

補正処理では、バッファメモリ1003に記憶されている着目画素から、係数生成回路113で算出された補正量分だけ離れた位置にある仮想画素を中心とした、所定の数の周辺画素を参照して補間演算を行う。このとき、図11(b)、(c)、及び(d)のように、仮想画素を中心とした所定の数の周辺画素の少なくともいずれかの画素がバッファメモリ1003に読み込まれていない状態が存在する。このような場合、参照できない画素値の分、補間演算が正しく行われないことになり、補正後の画像において必要以上の画質劣化を引き起こしてしまう。   In the correction process, a predetermined number of peripheral pixels are referenced with a virtual pixel located at a position separated from the target pixel stored in the buffer memory 1003 by the correction amount calculated by the coefficient generation circuit 113 as a center. Perform interpolation calculation. At this time, as shown in FIGS. 11B, 11 </ b> C, and 11 </ b> D, there is a state in which at least one of a predetermined number of peripheral pixels centering on the virtual pixel is not read into the buffer memory 1003. Exists. In such a case, the interpolation calculation is not performed correctly by the amount of pixel values that cannot be referred to, which causes an unnecessary deterioration in image quality in the corrected image.

本実施形態では、上述したように着目画素に本来結像されるべきであった画素位置を中心とした所定の数の周辺画素が、一部の領域の画像を読み出して記憶している記憶手段に記憶されていない場合に、収差による影響の補正を実現する方法について以下に説明する。
図11(a)は、例えばある着目画素Sについて、収差の補正量分だけ離れた位置を中心とした、所定の数の周辺画素を用いて好適な補間演算を行うことが可能な、水平方向の補正限界を示している。即ち、このときの収差の補正量の水平成分ZtHmaxを超える補正量については、図11(b)、(c)及び(d)のように、記憶手段に記憶されていない画素が補間演算において参照されるため、補間関数を次のように制御すればよい。
In the present embodiment, as described above, the storage means in which a predetermined number of peripheral pixels centering on the pixel position that should have been focused on the target pixel reads and stores an image of a partial area. A method for correcting the influence of the aberration when it is not stored in will be described below.
FIG. 11A shows, for example, a horizontal direction in which a suitable interpolation calculation can be performed using a predetermined number of peripheral pixels centered at a position separated by an aberration correction amount for a certain target pixel S, for example. The correction limit is shown. That is, for the correction amount exceeding the horizontal component ZtH max of the aberration correction amount at this time, as shown in FIGS. 11B, 11C, and 11D, pixels not stored in the storage means are used in the interpolation calculation. Therefore, the interpolation function may be controlled as follows.

図11(b)のように、参照画素の範囲が、記憶手段に記憶されている画像の領域より水平方向に1画素分はみ出してしまう場合、補間係数ch’及びch’が0になるように、抑圧係数ItHcを0にする。具体的には、マイコン101は周波数特性制御回路114に、例えば次のようなth_c及びgrad_cを供給すればよい。 As shown in FIG. 11B, when the range of the reference pixel protrudes by one pixel in the horizontal direction from the image area stored in the storage unit, the interpolation coefficients ch ′ 0 and ch ′ 7 become 0. Thus, the suppression coefficient ItHc is set to zero. Specifically, the microcomputer 101 may supply the following th_c and grad_c to the frequency characteristic control circuit 114, for example.

th_c=ZtHmax−3
grad_c=−1
このようにすることで、(補正限界量ー2)でItHcが0になるため、補間演算において参照画素数を少なくしたことと等価な処理を実現することができる。即ち、水平方向の参照画素数の所定値が8画素である場合、両端に位置する2画素については補間係数が0になるため、実質的に水平方向の6画素について補間演算を行うことになる。これにより、補間関数において窓関数を狭くした場合と等価な補間処理を行うことができるため、得られる画素値の再現精度は低くなるが補正量ZtHの制限は行わないため、好適に収差により生じる画質劣化を補正することができる。
th_c = ZtH max −3
grad_c = -1
In this way, since ItHc becomes 0 at (correction limit amount −2), processing equivalent to reducing the number of reference pixels in the interpolation calculation can be realized. That is, when the predetermined value of the number of reference pixels in the horizontal direction is 8 pixels, the interpolation coefficient is 0 for 2 pixels located at both ends, and therefore, the interpolation operation is substantially performed on 6 pixels in the horizontal direction. . As a result, an interpolation process equivalent to the case where the window function is narrowed in the interpolation function can be performed. Therefore, the reproducibility of the obtained pixel value is lowered, but the correction amount ZtH is not limited. Image quality deterioration can be corrected.

同様に、図11(c)及び(d)も、それぞれ記憶手段に記憶されている画像の領域よりはみ出てしまう画素に乗じられる補間係数が0となるように、抑圧係数の算出パラメータを変更することにより、好適な、収差による画質劣化の補正処理を行うことができる。   Similarly, in FIGS. 11C and 11D, the calculation parameter of the suppression coefficient is changed so that the interpolation coefficient to be multiplied by the pixel that protrudes from the area of the image stored in the storage unit becomes 0, respectively. Thus, it is possible to perform a preferable correction process for image quality deterioration due to aberration.

なお、本実施形態ではデジタルカメラ100が、3板方式の撮像手段を備えるものとして説明したが、本発明の実施はこれに限らず、例えば1つの撮像素子にRGBベイヤ配列等の色フィルタを施した、単板方式の撮像手段を備えるデジタルカメラであってもよい。この場合、例えば色フィルタ毎に画像信号を分離して補正処理を適用することで、同様の効果を得ることができる。   In the present embodiment, the digital camera 100 has been described as including a three-plate imaging unit. However, the present invention is not limited to this, and for example, a color filter such as an RGB Bayer array is applied to one imaging element. In addition, it may be a digital camera provided with a single-plate imaging means. In this case, for example, the same effect can be obtained by separating the image signal for each color filter and applying the correction process.

以上説明したように、本実施形態の画像処理装置は、撮像された画像において、補正限界を考慮した、収差による画質劣化を好適に補正することができる。具体的には、画像処理装置は、光学系を用いて撮像された画像について領域ごとに読み出し、領域の画素それぞれについて光学系に起因して生じている収差の補正量を算出する。そして、算出された収差の補正量分だけ当該画素から離れた位置を中心とする、所定の数の周辺画素に対して、補間関数から得られる補間係数を乗じて加算することにより、補正後の当該画素の位置の画素値を導出する。このとき、算出された収差の補正量分だけ離れた位置を中心とした所定の数の周辺画素が、読み出された領域に存在しない場合、補間関数を変更することにより好適な、収差による画質劣化の補正を実現する。具体的には、補間関数のナイキスト周波数近傍の周波数応答特性が、所定の数の周辺画素に乗ずる補間係数を与える補間関数のものより緩やかになるように、補間関数を変更し、補正処理に用いる。
このようにすることで、補正処理において所定数の画素が参照できないような補正限界に至っても、収差により生じる画質劣化を好適に補正することができる。
As described above, the image processing apparatus according to the present embodiment can preferably correct image quality degradation due to aberrations in consideration of a correction limit in a captured image. Specifically, the image processing apparatus reads, for each region, an image captured using the optical system, and calculates a correction amount of aberration caused by the optical system for each pixel in the region. Then, by multiplying a predetermined number of peripheral pixels centered at a position away from the pixel by the calculated correction amount of aberration and multiplying by an interpolation coefficient obtained from the interpolation function, A pixel value at the position of the pixel is derived. At this time, if there is no predetermined number of peripheral pixels centered on the position separated by the calculated aberration correction amount, the image quality due to aberration can be improved by changing the interpolation function. Achieving correction of deterioration. Specifically, the interpolation function is changed and used for the correction process so that the frequency response characteristic of the interpolation function near the Nyquist frequency is more gradual than that of the interpolation function that gives an interpolation coefficient to be multiplied by a predetermined number of surrounding pixels. .
In this way, even when the correction limit reaches such a point that a predetermined number of pixels cannot be referred to in the correction process, it is possible to suitably correct the image quality degradation caused by the aberration.

(実施形態2)
本実施形態では、上述した実施形態1に加え、さらに光学系が有する、撮像された画像における解像感を表すMTF情報を考慮した収差の補正処理について説明する。なお、本実施形態のデジタルカメラの機能構成は実施形態1と同様であり、デジタルカメラ100が備える光学系102のMTF情報は、光学補正データベース112に記憶され、補正処理の過程で読み出される。
(Embodiment 2)
In the present embodiment, in addition to the first embodiment described above, an aberration correction process in consideration of MTF information representing the resolution in a captured image, which the optical system has, will be described. Note that the functional configuration of the digital camera of the present embodiment is the same as that of the first embodiment, and the MTF information of the optical system 102 provided in the digital camera 100 is stored in the optical correction database 112 and read out in the course of correction processing.

なお、上述の実施形態1では、係数生成回路113で導出された補正量と像高の近似関数に基づいて収差の補正量は算出されるものとして説明した。しかしながら、本実施形態では光学補正回路115が備えるバッファメモリ1003の容量によって補正量の限界値(第1の上限値)が予め定まるものとして説明する。例えば図12(a)において、係数生成回路113で導出された補正量と像高の近似関数が破線1201であった場合、バッファメモリ1003によって予め定まる補正量の限界値Lmによって近似関数は制限されることになる。即ち、予め補正量の限界値が定められている場合、像高に対する補正量は太破線1202に制限される。   In the first embodiment, the aberration correction amount is calculated based on the correction amount derived by the coefficient generation circuit 113 and the approximate function of the image height. However, in the present embodiment, description will be made assuming that the limit value (first upper limit value) of the correction amount is determined in advance by the capacity of the buffer memory 1003 provided in the optical correction circuit 115. For example, in FIG. 12A, when the approximate function of the correction amount and the image height derived by the coefficient generation circuit 113 is a broken line 1201, the approximate function is limited by the limit value Lm of the correction amount determined in advance by the buffer memory 1003. Will be. That is, when the limit value of the correction amount is determined in advance, the correction amount with respect to the image height is limited to the thick broken line 1202.

ここで、解像感を示すMTF情報Coについて説明する。
MTF情報Coは光学系102の設計時に予め計算できるパラメータであり、光学系102によって結像される光学像の、像の細かさを表している。MTF情報は、図13(a)のように、通常は像高が高くなるに従って低下する特性を持つ。図13(a)において縦軸はMTF情報Coを表し、光学中心(像高が0)の値で正規化されている。MTF情報Coが高い場合、被写体の再現度が高く、撮像素子上には被写体の細部まで結像されるため、「解像感が高い」と表現される。
Here, the MTF information Co indicating a sense of resolution will be described.
The MTF information Co is a parameter that can be calculated in advance when the optical system 102 is designed, and represents the fineness of the optical image formed by the optical system 102. As shown in FIG. 13A, the MTF information usually has a characteristic of decreasing as the image height increases. In FIG. 13A, the vertical axis represents MTF information Co, which is normalized by the value of the optical center (image height is 0). When the MTF information Co is high, the reproducibility of the subject is high, and the details of the subject are imaged on the image sensor, so that “high resolution” is expressed.

解像感が高い場合、被写体像は細部まで再現されているため、倍率色収差や歪曲収差によって移動した被写体像のズレや歪みは目立ちやすくなる。即ち、解像感が高い場合は収差による影響が目立ちやすいため、収差の補正量を可能な限り高く保ち、被写体像のズレや歪みを補正する必要がある。また解像感が低い場合は収差による影響は目立ちにくいため、収差の補正精度は低くし、逆に補正後の画素の再現精度を高く保つことが必要である。このことから、MTF情報Coと補正限界量の関係は図13(b)のようになる。   When the resolution is high, the subject image has been reproduced in detail, so that the displacement and distortion of the subject image moved due to lateral chromatic aberration and distortion become conspicuous. That is, when the resolution is high, the influence of the aberration is conspicuous, so it is necessary to correct the deviation and distortion of the subject image while keeping the aberration correction amount as high as possible. In addition, when the resolution is low, the influence of aberration is inconspicuous, so it is necessary to reduce the correction accuracy of the aberration, and conversely to maintain the high pixel reproduction accuracy after correction. Therefore, the relationship between the MTF information Co and the correction limit amount is as shown in FIG.

即ち、図13(a)及び(b)から、MTF情報を考慮した補正限界量は図12(a)における一点鎖線1203(第3の上限値)で表され、本実施形態の補正量と像高の近似関数は太線1204のようになる。このように、係数生成回路113において導出された補正量と像高の近似関数1201は、光学補正回路115のバッファメモリ1003の容量及びMTF情報Coによって、近似関数1204のように制限される。本実施形態では、このような補正量の制限は、周波数特性制御回路114において図7のように水平、垂直成分ごとにリミッタ721及びリミッタ722を設けることによって実現される。   That is, from FIG. 13A and FIG. 13B, the correction limit amount considering the MTF information is represented by a one-dot chain line 1203 (third upper limit value) in FIG. 12A. The high approximation function is as indicated by a thick line 1204. As described above, the approximation function 1201 of the correction amount and the image height derived by the coefficient generation circuit 113 is limited to the approximation function 1204 by the capacity of the buffer memory 1003 of the optical correction circuit 115 and the MTF information Co. In the present embodiment, such correction amount limitation is realized by providing a limiter 721 and a limiter 722 for each of the horizontal and vertical components in the frequency characteristic control circuit 114 as shown in FIG.

以上説明したように、本実施形態の画像処理装置は、解像感を表すMTF情報を考慮した、収差により生じた画質劣化の好適な補正を行うことができる。   As described above, the image processing apparatus according to the present embodiment can perform appropriate correction of image quality degradation caused by aberrations in consideration of MTF information representing a sense of resolution.

(実施形態3)
本実施形態では実施形態1の構成に加え、実施形態2のようにバッファメモリ1003の容量から定まる補正量の限界値により補正量と像高の近似関数が制限された際に、補正後の画質がどのような印象を与えるかを定性的に示した補正特性情報Ccを考慮する。補正特性情報Ccは、補正量と像高の近似関数が制限された際に、補正量の限界値を超える像高の範囲の情報Lw、及び当該像高の範囲における最小の像高Lhのそれぞれが、補正後の画質からうける印象度Ccw及びCchから決定される情報である。
(Embodiment 3)
In this embodiment, in addition to the configuration of the first embodiment, when the approximate function of the correction amount and the image height is limited by the limit value of the correction amount determined from the capacity of the buffer memory 1003 as in the second embodiment, the image quality after correction is Considering the correction characteristic information Cc qualitatively showing what impression gives. When the approximation function of the correction amount and the image height is limited, the correction characteristic information Cc includes information Lw of the image height range exceeding the limit value of the correction amount and the minimum image height Lh in the image height range. Is information determined from the impression degrees Ccw and Cch received from the image quality after correction.

本実施形態のデジタルカメラ100の機能構成は、上述した実施形態1の構成に、補正特性情報Ccを算出するための補正特性情報生成回路120が加わった構成となる。補正特性情報生成回路120は、撮像時の光学パラメータの光学補正特性情報のプロットデータCm1〜Cm4、及び光学補正回路115のバッファメモリ1003の容量から予め定まる補正量の限界値Lmの情報をマイコン101から入力される。そして、補正特性情報生成回路120は、入力された情報を用いて補正特性情報Ccを算出する。   The functional configuration of the digital camera 100 of the present embodiment is a configuration in which a correction characteristic information generation circuit 120 for calculating the correction characteristic information Cc is added to the configuration of the first embodiment. The correction characteristic information generation circuit 120 obtains information on the correction value limit value Lm determined in advance from the plot data Cm1 to Cm4 of the optical correction characteristic information of the optical parameters at the time of imaging and the capacity of the buffer memory 1003 of the optical correction circuit 115. It is input from. Then, the correction characteristic information generation circuit 120 calculates correction characteristic information Cc using the input information.

補正特性情報生成回路120の回路構成について、図14をさらに用いて詳細に説明する。補正特性情報生成回路120に入力された、撮像時の光学パラメータの光学補正特性情報のプロットデータは、係数生成回路113が備える関数係数算出回路401と同様の関数係数算出回路1401に入力され、各プロット間の2次の近似関数の係数を出力する。各プロット間の近似関数の係数は、それぞれ切片算出回路1402、1403、及び1404に出力され、各切片算出回路において
Lm=aRt+bRt+c
を満たす像高Rtについて解き、それぞれ得られた解の像高Rtについて特性係数算出回路1405で、補正量の限界値を超える像高の範囲の情報Lw及び当該像高の範囲における像高の最小値Lhを導出する。
The circuit configuration of the correction characteristic information generation circuit 120 will be described in detail with reference to FIG. The plot data of the optical correction characteristic information of the optical parameters at the time of imaging input to the correction characteristic information generation circuit 120 is input to a function coefficient calculation circuit 1401 similar to the function coefficient calculation circuit 401 included in the coefficient generation circuit 113, and Outputs coefficients of quadratic approximation function between plots. The coefficients of the approximate functions between the plots are output to intercept calculation circuits 1402, 1403, and 1404, respectively. In each intercept calculation circuit, Lm = aRt 2 + bRt + c
For the image height Rt satisfying the above, and in the characteristic coefficient calculation circuit 1405 for the image height Rt of each obtained solution, the information Lw of the image height range exceeding the limit value of the correction amount and the minimum of the image height in the range of the image height The value Lh is derived.

また、特性係数算出回路1405ではさらに、得られた補正量の限界値を超える像高の範囲の情報Lw、及び当該像高の範囲の最小の像高Lhの情報から、補正後の画質から受ける印象度を示す補正特性情報Ccを算出する。補正量の限界値を超える像高の範囲の最小の像高Lhと補正後の画質から受ける印象度Cchは、図13(c)のような関係で表され、補正量の限界値を超える像高の範囲Lwと補正後の画質から受ける印象度Ccwは、図13(d)のような関係で表される。
ここで、印象度Cch及び印象度Ccwは、外部から設定された正規化レベルCchn及びCcwnによって正規化されるものとする。この正規化レベルCchnおよびCcwnは、補正後の画質から受ける印象度が画質低下につながらないことを基準に設定される画質調整項目であり、この値は実験的に求められる。
Further, the characteristic coefficient calculation circuit 1405 further receives from the corrected image quality from the information Lw of the image height range exceeding the limit value of the obtained correction amount and the information of the minimum image height Lh of the image height range. Correction characteristic information Cc indicating the impression level is calculated. The minimum image height Lh in the range of the image height exceeding the limit value of the correction amount and the impression degree Cch received from the image quality after correction are represented by the relationship as shown in FIG. 13C, and the image exceeds the limit value of the correction amount. The impression level Ccw received from the high range Lw and the image quality after correction is represented by the relationship as shown in FIG.
Here, the impression degree Cch and the impression degree Ccw are normalized by the normalization levels Cchn and Ccwn set from the outside. The normalization levels Cchn and Ccwn are image quality adjustment items set on the basis that the impression level received from the image quality after correction does not lead to a decrease in image quality, and this value is obtained experimentally.

ここで本実施形態における、補正後の画質から受ける印象度の概念について説明する。本実施形態では、ポートレートモード等の撮影モードの設定により、光学中心(像高が0)に存在する情報を重要被写体像とみなす場合を想定する。即ち、フレーミングの中央に位置する被写体像の画質を、画像の画質として観察者が判断するものとしている。即ち、補正量の限界値を超えた場合は、収差によって生じた被写体像のズレや歪みの補正精度が低くなっていると考えられるため、画質が低下している。このため、像高の範囲の最小の像高Lhが光学中心に近いほど、フレーミングの中央に位置する被写体像について収差によって生じたズレや歪みが補正されず残存することになるため、観察者に画質が低下していることを感じさせやすい。また、補正量の限界値を超える像高の範囲Lwが大きい場合、補正後の画像において収差によって生じたズレや歪みが補正されずに残存している像高の範囲が大きくなるため、観察者は補正精度が保たれずに生じた画質の低下に気づきやすい。   Here, the concept of the impression level received from the corrected image quality in this embodiment will be described. In the present embodiment, it is assumed that information existing at the optical center (image height is 0) is regarded as an important subject image by setting a photographing mode such as a portrait mode. That is, the observer determines the image quality of the subject image located at the center of the framing as the image quality. In other words, when the limit value of the correction amount is exceeded, it is considered that the correction accuracy of the deviation or distortion of the subject image caused by the aberration is low, and the image quality is deteriorated. For this reason, as the minimum image height Lh in the image height range is closer to the optical center, the deviation or distortion caused by the aberration of the subject image located at the center of the framing will remain uncorrected and remain for the observer. It is easy to feel that the image quality has deteriorated. In addition, when the image height range Lw that exceeds the limit value of the correction amount is large, the range of the image height that remains without being corrected for the deviation or distortion caused by the aberration in the corrected image becomes large. However, it is easy to notice the deterioration of the image quality that occurs without maintaining the correction accuracy.

このように本実施形態では、特性係数算出回路1405において、定性的に定められた補正後の画質から受ける印象度Cch及びCcwを、例えばいずれか大きい方を選択することにより、補正特性情報Ccとして周波数特性制御回路114に出力する。即ち、補正特性情報生成回路120で得られた補正特性情報Ccが高いほど観察者が画質劣化を感じやすいため、収差の補正量を可能な限り高く保ち、被写体像のズレや歪みを補正する必要がある。また補正特性情報Ccが低いほど、観察者は画質劣化を感じにくいため、収差の補正精度は低くし、逆に補正後の画素の再現精度を高く保つことが必要である。このことから、補正特性情報Ccと補正限界量の関係は図13(e)のようになる。   As described above, in the present embodiment, the characteristic coefficient calculation circuit 1405 selects, as the correction characteristic information Cc, the impression degree Cch and Ccw received from the qualitatively determined corrected image quality, for example, whichever is larger. This is output to the frequency characteristic control circuit 114. In other words, the higher the correction characteristic information Cc obtained by the correction characteristic information generation circuit 120, the easier the observer feels image quality degradation. Therefore, it is necessary to maintain the aberration correction amount as high as possible and correct the deviation and distortion of the subject image. There is. In addition, the lower the correction characteristic information Cc, the less the observer feels image quality deterioration. Therefore, it is necessary to lower the correction accuracy of the aberration, and conversely to maintain the high pixel reproduction accuracy after correction. Therefore, the relationship between the correction characteristic information Cc and the correction limit amount is as shown in FIG.

光学補正回路115が備えるバッファメモリ1003の容量によって補正量の限界値が決定し、撮像時の光学パラメータから補正量と像高の近似関数が得られると、補正量の限界値を超える像高の範囲Lwと当該像高の範囲の最小の像高Lhが算出される。そして、得られた像高の範囲Lwと最小の像高Lhから補正特性情報Ccが得られ、図13(e)のグラフから得られた補正特性情報Ccに対応する補正限界量Lm’(第2の上限値)の情報が得られる。即ち、本実施形態の補正量と像高の近似関数は、図12(b)において補正量の上限値未満(第1の上限値未満)である補正限界量Lm’を表す破線1205で制限される、太線1206のようになる。このように、係数生成回路113において導出された補正量と像高の近似関数1201は、光学補正回路115のバッファメモリ1003の容量及び補正特性情報Ccによって、近似関数1206のように制限される。本実施形態では、このような補正量の制限は、周波数特性制御回路114において図7のように水平、垂直成分ごとにリミッタ721及びリミッタ722を設けることによって実現される。   When the limit value of the correction amount is determined by the capacity of the buffer memory 1003 provided in the optical correction circuit 115 and an approximate function of the correction amount and the image height is obtained from the optical parameters at the time of imaging, the image height exceeding the limit value of the correction amount is obtained. A minimum image height Lh between the range Lw and the range of the image height is calculated. Then, the correction characteristic information Cc is obtained from the obtained image height range Lw and the minimum image height Lh, and the correction limit amount Lm ′ (first) corresponding to the correction characteristic information Cc obtained from the graph of FIG. 2) is obtained. That is, the approximate function of the correction amount and the image height of the present embodiment is limited by the broken line 1205 representing the correction limit amount Lm ′ that is less than the upper limit value of the correction amount (less than the first upper limit value) in FIG. The thick line 1206 is obtained. As described above, the approximate function 1201 of the correction amount and the image height derived by the coefficient generation circuit 113 is limited to the approximate function 1206 by the capacity of the buffer memory 1003 of the optical correction circuit 115 and the correction characteristic information Cc. In the present embodiment, such correction amount limitation is realized by providing a limiter 721 and a limiter 722 for each of the horizontal and vertical components in the frequency characteristic control circuit 114 as shown in FIG.

以上説明したように、本実施形態の画像処理装置は、観察者の補正後の画質に対する劣化の感じやすさが小さいとみなせるほど、補正精度よりも、補正後の画素の再現精度を高く保つことを優先するように、補正後の限界値を設定している。即ち、補正量の限界値によって決まる、補正後の画質から受ける印象度である補正特性情報を考慮した、収差により生じる画質劣化を好適に補正することができる。   As described above, the image processing apparatus according to the present embodiment keeps the pixel reproduction accuracy after correction higher than the correction accuracy so that the observer can be considered less susceptible to deterioration in the image quality after correction. The limit value after correction is set to give priority to. That is, it is possible to suitably correct image quality degradation caused by aberration in consideration of correction characteristic information that is an impression degree received from the image quality after correction, which is determined by the limit value of the correction amount.

(実施形態4)
本実施形態では実施形態1の構成に加え、さらに撮像された画像内のエッジ成分や動きベクトルを検出することにより得られる、被写体像の特徴度を表す被写体特徴情報を考慮した収差の補正処理について説明する。なお、本実施形態も実施形態2のようにバッファメモリ1003の容量から定まる補正量の限界値により補正量と像高の近似関数が制限されている場合について説明する。なお、被写体特徴情報Cfとは撮像された画像において特徴があるか、即ち補正時に画素値の再現精度が要求されるかを表した値である。
(Embodiment 4)
In the present embodiment, in addition to the configuration of the first embodiment, an aberration correction process in consideration of subject feature information representing the feature degree of a subject image obtained by detecting edge components and motion vectors in a captured image. explain. In the present embodiment, a case where the approximation function of the correction amount and the image height is limited by the limit value of the correction amount determined from the capacity of the buffer memory 1003 as in the second embodiment will be described. Note that the subject feature information Cf is a value representing whether or not there is a feature in the captured image, that is, whether or not pixel value reproduction accuracy is required at the time of correction.

本実施形態のデジタルカメラ100の機能構成は、上述した実施形態1の構成に、被写体特徴情報Cfを導出するために必要な特徴評価値Idを算出するための特徴検出回路130が加わった構成となる。特徴検出回路130は、勾配検出、高周波成分検出、動き検出等、被写体像の特徴として検出する情報の種類に従って、異なる回路構成となればよく、検出する情報それぞれの回路構成について、図15を用いて以下に説明する。   The functional configuration of the digital camera 100 of the present embodiment is a configuration in which a feature detection circuit 130 for calculating a feature evaluation value Id necessary for deriving the subject feature information Cf is added to the configuration of the first embodiment described above. Become. The feature detection circuit 130 may have a different circuit configuration according to the type of information detected as the feature of the subject image, such as gradient detection, high-frequency component detection, motion detection, and the like. Will be described below.

被写体像の特徴として、エッジ成分である画素間における勾配検出(エッジ検出)を行う場合、一般的には図15(a)のような構成となる。輝度信号生成回路1501は、AFE109からRGB各色のデジタル画像Sr、Sg、Sbが入力されると、それぞれのデジタル画像の着目画素位置の画素値から、次のような式によって着目画素の輝度値yを算出する。   When performing gradient detection (edge detection) between pixels, which are edge components, as a feature of the subject image, the configuration is generally as shown in FIG. When the RGB color digital images Sr, Sg, and Sb are input from the AFE 109, the luminance signal generation circuit 1501 calculates the luminance value y of the target pixel from the pixel value at the target pixel position of each digital image by the following equation. Is calculated.

y=0.299Sr+0.587Sg+0.114Sb
このように全ての画素について算出された輝度値yは、勾配検出回路1502に輝度信号(輝度画像)として出力される。勾配検出回路1502は、例えばソーベルフィルタであり、輝度信号生成回路1501から輝度信号Yが入力されると、着目画素位置の勾配量Yg(輝度信号の1次微分値)を出力する。そして勾配検出回路1502で得られた勾配量Ygは積分回路1503に入力され、撮像された画像の輝度信号を区分した矩形領域ごとに、勾配量Ygの積分値を特徴評価値Idとして出力する。
y = 0.299Sr + 0.587Sg + 0.114Sb
Thus, the luminance value y calculated for all the pixels is output to the gradient detection circuit 1502 as a luminance signal (luminance image). The gradient detection circuit 1502 is, for example, a Sobel filter. When the luminance signal Y is input from the luminance signal generation circuit 1501, the gradient detection circuit 1502 outputs a gradient amount Yg (primary differential value of the luminance signal) at the target pixel position. The gradient amount Yg obtained by the gradient detection circuit 1502 is input to the integration circuit 1503, and the integral value of the gradient amount Yg is output as the feature evaluation value Id for each rectangular area into which the luminance signal of the captured image is segmented.

被写体像の特徴として、輝度信号の高周波成分検出を行う場合、一般的には図15(b)のような構成となる。AFE109からRGB各色のデジタル画像Sr、Sg、Sbが入力されると、デジタル画像を輝度信号生成回路1501は輝度信号Yに変換し、高周波成分検出回路1504に出力する。高周波成分検出回路1504は、例えばバンドパスフィルタであり、着目が沿い地の高周波成分Yh(輝度信号の2次微分値)を出力する。そして高周波成分検出回路1504で得られた高周波成分Yhは積分回路1503に入力され、撮像された画像の輝度信号を区分した矩形領域ごとに、高周波成分Yhの積分値を特徴評価値Idとして出力する。   As a feature of the subject image, when detecting a high-frequency component of a luminance signal, the configuration is generally as shown in FIG. When RGB digital images Sr, Sg, and Sb are input from the AFE 109, the luminance signal generation circuit 1501 converts the digital image into a luminance signal Y and outputs the luminance signal Y to the high frequency component detection circuit 1504. The high frequency component detection circuit 1504 is, for example, a bandpass filter, and outputs a high frequency component Yh (secondary differential value of a luminance signal) whose focus is on the ground. The high-frequency component Yh obtained by the high-frequency component detection circuit 1504 is input to the integration circuit 1503, and the integrated value of the high-frequency component Yh is output as the feature evaluation value Id for each rectangular area into which the luminance signal of the captured image is divided. .

このように勾配検出、または高周波成分検出で得られた特徴評価値Idは、特徴評価値Idが高いほど撮像された画像において特徴がある領域であり、補正時に画素値の再現精度が要求されるため、被写体特徴情報Cfは図13(f)のようになる。   The feature evaluation value Id obtained by gradient detection or high-frequency component detection in this way is a region having a feature in the captured image as the feature evaluation value Id is higher, and pixel value reproduction accuracy is required at the time of correction. Therefore, the subject feature information Cf is as shown in FIG.

また、被写体像の特徴として、連続する画像に存在する動きベクトル検出を行う場合、図15(c)のような構成となる。なお、図15(c)の構成は、代表点によるマッチング演算を適用した動きベクトル解析回路の一般的な構成である。AFE109からRGB各色のデジタル画像Sr、Sg、Sbが入力されると、デジタル画像を輝度信号生成回路1501は輝度信号Yに変換し、フレームメモリ1505に出力する。フレームメモリ1505は、少なくとも2フレーム分の輝度代表点フレームを保持する容量を備え、輝度信号Yを所定の画素間隔で水平・垂直方向にリサンプリングした代表点データ画像を保持する。また、フレームメモリ1505で作られた代表点データ画像は、バッファメモリ1506にも保持される。   Further, when detecting motion vectors existing in continuous images as the characteristics of the subject image, the configuration is as shown in FIG. Note that the configuration of FIG. 15C is a general configuration of a motion vector analysis circuit to which a matching operation using representative points is applied. When RGB digital images Sr, Sg, and Sb are input from the AFE 109, the luminance signal generation circuit 1501 converts the digital image into a luminance signal Y and outputs the luminance signal Y to the frame memory 1505. The frame memory 1505 has a capacity for holding at least two luminance representative point frames, and holds a representative point data image obtained by resampling the luminance signal Y in the horizontal and vertical directions at predetermined pixel intervals. The representative point data image created by the frame memory 1505 is also held in the buffer memory 1506.

代表点マッチング回路1507では、このようにフレームメモリ1505及びバッファメモリ1506に記憶されている代表点データ画像を比較することにより、撮像された画像の輝度信号を区分した矩形領域ごとに、特徴評価値Idを算出して出力する。具体的には、バッファメモリ1506に記憶されている代表点データ画像は、矩形領域に区分され、順に代表点マッチング回路1507に出力される。代表点マッチング回路1507では、フレームメモリ1505から矩形領域と同じ大きさの代表点画素群Ysを左上から順に読み出し、バッファメモリ1506から入力された代表点画素群Ytとの差分が最も小さい代表点画素群Ysの位置を探し出す。そして、差分が最も小さい代表点画素群Ysの読み出し位置と、バッファメモリ1506から入力された矩形領域の位置とから、当該矩形領域の動きベクトルを算出する。さらに代表点マッチング回路1507は、各領域の動きベクトルのスカラー量の逆数を、特徴評価値Idとして出力する。   In the representative point matching circuit 1507, by comparing the representative point data images stored in the frame memory 1505 and the buffer memory 1506 in this way, a feature evaluation value is obtained for each rectangular area into which the luminance signal of the captured image is divided. Id is calculated and output. Specifically, the representative point data image stored in the buffer memory 1506 is divided into rectangular areas and sequentially output to the representative point matching circuit 1507. The representative point matching circuit 1507 sequentially reads out the representative point pixel group Ys having the same size as the rectangular area from the frame memory 1505 from the upper left, and the representative point pixel having the smallest difference from the representative point pixel group Yt input from the buffer memory 1506. Find the position of the group Ys. Then, the motion vector of the rectangular area is calculated from the readout position of the representative point pixel group Ys having the smallest difference and the position of the rectangular area input from the buffer memory 1506. Further, the representative point matching circuit 1507 outputs the reciprocal of the scalar quantity of the motion vector of each region as the feature evaluation value Id.

このように動きベクトル検出で得られた特徴評価値Idは、特徴評価値Idが低いほど撮像された画像において被写体に動きがある領域であるため、収差によって生じる被写体像のズレや歪みは目立ちにくい。即ち、動きベクトル検出の場合、動きベクトルが大きいほど収差の補正精度は要求されず、補正時には補正量を少なくして、画素値の再現精度をあげることができるため、被写体特徴情報Cfは図13(g)のようになる。   The feature evaluation value Id obtained by motion vector detection in this manner is a region where the subject moves in the captured image as the feature evaluation value Id is lower. Therefore, the deviation or distortion of the subject image caused by aberration is less noticeable. . That is, in the case of motion vector detection, aberration correction accuracy is not required as the motion vector is large, and the correction amount can be reduced during correction to increase the pixel value reproduction accuracy. As shown in (g).

このように本実施形態では、特徴検出回路130において特徴評価値Idを算出し、補正時に要求される画素値の再現精度である被写体特徴情報Cfを求める。被写体特徴情報Cfが小さい場合は、画素値の再現精度の要求が高いため、収差の補正量を制限してでも補正処理における参照画素数を多くして、画素値の再現精度を向上させる必要がある。つまり、被写体特徴情報Cfと補正限界量との関係は図13(h)のようになる。   Thus, in the present embodiment, the feature evaluation value Id is calculated by the feature detection circuit 130, and the subject feature information Cf that is the reproduction accuracy of the pixel value required at the time of correction is obtained. When the subject feature information Cf is small, there is a high demand for pixel value reproduction accuracy. Therefore, it is necessary to improve the pixel value reproduction accuracy by increasing the number of reference pixels in the correction process even if the correction amount of aberration is limited. is there. That is, the relationship between the subject feature information Cf and the correction limit amount is as shown in FIG.

即ち、特徴検出回路130において特徴評価値Idが算出されると、マイコン101は特徴検出の種類によって決まる被写体特徴情報Cfを得る。さらにマイコン101は、図13(h)のグラフから、得られた被写体特徴情報Cfに対応する補正限界量Lm’(第4の上限値、第5の上限値)の情報を得る。即ち、本実施形態の補正量と像高の近似関数は、実施形態3と同様に、図12(b)において補正限界量Lm’に制限される太線1206のようになる。このように係数生成回路113において導出された補正量と像高の近似関数1201は、光学補正回路115のバッファメモリ1003の容量及び被写体特徴情報Cfによって、近似関数1206のように制限される。本実施形態では、このような補正量の制限は、周波数特性制御回路114において図7のように水平、垂直成分ごとにリミッタ721及びリミッタ722を設けることによって実現される。   That is, when the feature evaluation value Id is calculated in the feature detection circuit 130, the microcomputer 101 obtains subject feature information Cf determined by the type of feature detection. Further, the microcomputer 101 obtains information on the correction limit amount Lm ′ (fourth upper limit value and fifth upper limit value) corresponding to the obtained subject feature information Cf from the graph of FIG. That is, the approximate function of the correction amount and the image height of the present embodiment is like a thick line 1206 that is limited to the correction limit amount Lm ′ in FIG. Thus, the approximate function 1201 of the correction amount and the image height derived in the coefficient generation circuit 113 is limited to the approximate function 1206 by the capacity of the buffer memory 1003 of the optical correction circuit 115 and the subject feature information Cf. In the present embodiment, such correction amount limitation is realized by providing a limiter 721 and a limiter 722 for each of the horizontal and vertical components in the frequency characteristic control circuit 114 as shown in FIG.

以上説明したように、本実施形態の画像処理装置は、補正時の画素値の再現精度の要求が高いとみなせるほど、補正精度よりも、補正後の画素の再現精度を高く保つことを優先するように、補正量の限界値を設定している。即ち、撮像された画像におけるエッジ成分や高周波成分、動きベクトル等によって決まる、画素値の再現精度の要求である被写体特徴情報を考慮して、収差により生じる画質劣化を好適に補正することができる。   As described above, the image processing apparatus according to the present embodiment gives priority to keeping the pixel reproducibility after correction higher than the correction accuracy so that the demand for pixel value reproducibility during correction is high. In this way, the limit value of the correction amount is set. That is, image quality degradation caused by aberration can be suitably corrected in consideration of subject feature information that is a requirement of pixel value reproduction accuracy determined by an edge component, a high-frequency component, a motion vector, and the like in a captured image.

(実施形態5)
本実施形態では、上述した実施形態2乃至4で述べられた、MTF情報Co、補正特性情報Cc、被写体特徴情報Cfの全てを考慮した、補正量と像高の近似関数の制限及び収差の補正方法について説明する。即ち、本実施形態のデジタルカメラ100の機能構成は、実施形態1の構成に補正特性情報生成回路120及び特徴検出回路130が加わった構成となる。さらに、光学補正データベース112ではMTF情報が管理される。
(Embodiment 5)
In the present embodiment, the approximation function of the correction amount and the image height and the correction of the aberration are considered in consideration of all of the MTF information Co, the correction characteristic information Cc, and the subject characteristic information Cf described in the second to fourth embodiments. A method will be described. That is, the functional configuration of the digital camera 100 of the present embodiment is a configuration in which the correction characteristic information generation circuit 120 and the feature detection circuit 130 are added to the configuration of the first embodiment. Further, the optical correction database 112 manages MTF information.

上述した実施形態の情報をまとめると
・解像感であるMTF情報Coは像高が低いほど高くなる
・MTF情報Coが高いほど補正精度が求められる
・MTF情報Coが低いほど補正精度より再現精度が求められる

・補正後の画質の印象度である補正特性情報Ccは、
−補正量の限界値を超える像高の範囲が広いほど高くなる
−補正量の限界値を超える最小の像高が低いほど高くなる
・補正特性情報Ccが高いほど補正精度が求められる
・補正特性情報Ccが低いほど補正精度より再現精度が求められる

・被写体像の特徴度である被写体特徴情報Cfは、
−エッジ成分が大きい領域ほど高くなる
−高周波成分が大きい領域ほど高くなる
−動きベクトルが小さい領域ほど高くなる
・被写体特徴情報Cfが高いほど補正精度が求められる
・被写体特徴情報Cfが低いほど補正精度より再現精度が求められる
このようになるため、図13(b)、(e)及び(h)からも明らかなように、各情報が1に近づくにつれ、収差の補正精度を限りなく高く保つような傾向になる。即ち、MTF情報Co、補正特性情報Cc、及び被写体特徴情報Cfを統合すると、例えば像高によって導出される補正限界量の最低値を選択するようにすると、制限された補正量と像高の近似関数は図12(c)の太線1207のようにすればよい。
Summarizing the information of the above-described embodiment: The MTF information Co, which is the resolution, becomes higher as the image height is lower. The correction accuracy is required as the MTF information Co is higher. The reproduction accuracy is higher than the correction accuracy as the MTF information Co is lower. Is required

The correction characteristic information Cc, which is the impression level of the image quality after correction,
-The higher the range of the image height that exceeds the limit value of the correction amount, the higher.-The higher the minimum image height that exceeds the limit value of the correction amount, the higher.-The higher the correction characteristic information Cc, the higher the correction accuracy is required. The lower the information Cc, the more accurate the reproduction accuracy is required.

The subject feature information Cf, which is the feature level of the subject image, is
-The higher the edge component, the higher the region-The higher the high-frequency component, the higher-The lower the motion vector, the higher the region-The higher the subject feature information Cf, the higher the correction accuracy required-The lower the subject feature information Cf, the correction accuracy Since more accurate reproducibility is required, as is clear from FIGS. 13B, 13E and 13H, as each information approaches 1, the correction accuracy of aberration is kept as high as possible. It becomes a tendency. That is, when the MTF information Co, the correction characteristic information Cc, and the subject characteristic information Cf are integrated, for example, when the lowest correction limit amount derived by the image height is selected, the approximation of the limited correction amount and the image height is performed. The function may be as indicated by a thick line 1207 in FIG.

以上説明したように、本実施形態の画像処理装置は、撮像された画像の特徴及び補正量の限界量を考慮した上で、収差により生じる画質劣化を好適に補正することができる。   As described above, the image processing apparatus according to the present embodiment can appropriately correct image quality degradation caused by aberrations in consideration of the characteristics of the captured image and the limit amount of the correction amount.

なお、上述した実施形態では画像処理装置の一例として、光学系を備えるデジタルカメラについて説明したが、本発明の実施はこれに限らない。例えば、画像処理装置はプリンタ等の画像の入力を受け付ける機器であってよく、この場合、光学系の収差の情報が、1つのファイルとして画像とともに入力されるか、画像のデータ情報の中に含まれていればよい。そして画像処理装置は、補正処理の過程において光学系の収差の情報を読み出して、上述のような補正処理を行えばよい。   In the above-described embodiment, a digital camera including an optical system has been described as an example of an image processing apparatus. However, the embodiment of the present invention is not limited thereto. For example, the image processing apparatus may be a device that accepts input of an image such as a printer. In this case, information on aberrations of the optical system is input together with the image as one file or included in the image data information. It only has to be done. The image processing apparatus may read out information on aberrations of the optical system in the course of the correction process and perform the correction process as described above.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (8)

第1の画像の一部の領域を読み出して、第2の画像として記憶する記憶手段と、
前記第2の画像内の着目画素の信号値を、前記着目画素と異なる位置を中心とする周辺画素の信号値、および、該周辺画素の信号値に乗ずる補間係数を用いて演算する演算手段と、を有し、
前記演算手段は、前記着目画素と異なる位置を中心とする所定数の周辺画素の少なくともいずれかが前記第2の画像として記憶されていない場合と、前記着目画素と異なる位置を中心とする前記所定数の周辺画素の全てが前記第2の画像として記憶されている場合とで、前記補間係数を異なる値に設定することを特徴とする画像処理装置。
Storage means for reading out a partial area of the first image and storing it as a second image;
Computing means for computing the signal value of the pixel of interest in the second image using a signal value of a peripheral pixel centered on a position different from the pixel of interest and an interpolation coefficient that multiplies the signal value of the peripheral pixel; Have
The calculation means includes a case where at least one of a predetermined number of peripheral pixels centered at a position different from the pixel of interest is not stored as the second image, and the predetermined centered at a position different from the pixel of interest. An image processing apparatus, wherein the interpolation coefficient is set to a different value when all of the peripheral pixels are stored as the second image .
前記演算手段は、前記着目画素と異なる位置を中心とする前記所定数の周辺画素の少なくともいずれかが前記第2の画像として記憶されていない場合には、前記着目画素と異なる位置を中心とする前記所定数よりも少ない周辺画素の信号値を用いて、前記着目画素の信号値を演算することを特徴とする請求項1に記載の画像処理装置。 The calculation means centers on a position different from the target pixel when at least one of the predetermined number of peripheral pixels centered on a position different from the target pixel is not stored as the second image. The image processing apparatus according to claim 1, wherein the signal value of the target pixel is calculated using signal values of peripheral pixels less than the predetermined number . 前記演算手段が用いる前記補間係数は補間関数から得られるものであって、
前記演算手段は、前記着目画素と異なる位置を中心とする前記所定数の周辺画素の信号値を用いる場合と、前記着目画素と異なる位置を中心とする前記所定数よりも少ない周辺画素の信号値を用いる場合とで、異なる周波数特性を有する補間関数から得られた前記補間係数を用いることを特徴とする請求項2に記載の画像処理装置。
The interpolation coefficient used by the computing means is obtained from an interpolation function,
The calculation means uses a signal value of the predetermined number of peripheral pixels centered at a position different from the pixel of interest and a signal value of peripheral pixels less than the predetermined number centered at a position different from the pixel of interest. The image processing apparatus according to claim 2 , wherein the interpolation coefficient obtained from an interpolation function having different frequency characteristics is used depending on whether or not is used.
前記着目画素と異なる位置を中心とする前記所定数の周辺画素の信号値を用いて前記着目画素の信号値を演算する場合に用いられる補間関数は、前記着目画素と異なる位置を中心とする前記所定数よりも少ない周辺画素の信号値を用いて前記着目画素の信号値を演算する場合に用いられる補間関数よりもナイキスト周波数近傍の周波数特性が急峻であることを特徴とする請求項3に記載の画像処理装置。 The interpolation function used when calculating the signal value of the pixel of interest using the signal values of the predetermined number of surrounding pixels centered on a position different from the pixel of interest is the center of the position different from the pixel of interest. 4. The frequency characteristic in the vicinity of the Nyquist frequency is steeper than an interpolation function used when the signal value of the target pixel is calculated using signal values of peripheral pixels smaller than a predetermined number. Image processing apparatus. 前記演算手段は、水平成分の補間係数を用いて演算を行う第1の補間手段と、垂直成分の補間係数を用いて演算を行う第2の補間手段を有することを特徴とする請求項1乃至4のいずれか一項に記載の画像処理装置。   2. The calculation means according to claim 1, further comprising: a first interpolation means for performing calculation using a horizontal component interpolation coefficient; and a second interpolation means for performing calculation using a vertical component interpolation coefficient. 5. The image processing device according to any one of 4 above. 前記演算手段は、複数の前記第1の補間手段を有し、前記周辺画素の信号値を前記複数の第1の補間手段に入力し、前記複数の第1の補間手段から出力された信号値を前記第2の補間手段に入力することで前記着目画素の信号値の演算を行うことを特徴とする請求項5に記載の画像処理装置。   The arithmetic means includes a plurality of first interpolation means, inputs signal values of the peripheral pixels to the plurality of first interpolation means, and signal values output from the plurality of first interpolation means. The image processing apparatus according to claim 5, wherein the signal value of the pixel of interest is calculated by inputting to the second interpolation unit. 前記演算手段は、前記着目画素の像高に基づいて、前記着目画素と異なる位置を決定することを特徴とする請求項1乃至6のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the calculation unit determines a position different from the target pixel based on an image height of the target pixel. 記憶手段が、第1の画像の一部の領域を読み出して、第2の画像として記憶する工程と、
演算手段が、前記第2の画像内の着目画素の信号値を、前記着目画素と異なる位置を中心とする周辺画素の信号値、および、該周辺画素の信号値に乗ずる補間係数を用いて演算する工程と、を有し、
前記補間係数は、前記着目画素と異なる位置を中心とする所定数の周辺画素の少なくともいずれかが前記第2の画像として記憶されていない場合と、前記着目画素と異なる位置を中心とする前記所定数の周辺画素の全てが前記第2の画像として記憶されている場合とで、異なる値に設定されることを特徴とする画像処理方法。
A step of reading out a partial region of the first image and storing it as a second image;
The calculation means calculates the signal value of the pixel of interest in the second image using a signal value of a peripheral pixel centered on a position different from the pixel of interest and an interpolation coefficient that multiplies the signal value of the peripheral pixel. And a step of
The interpolation coefficient is determined when at least one of a predetermined number of peripheral pixels centered at a position different from the pixel of interest is not stored as the second image, and when the predetermined coefficient is centered at a position different from the pixel of interest. An image processing method, wherein different values are set for a case where all of the peripheral pixels are stored as the second image .
JP2013258691A 2013-12-13 2013-12-13 Image processing apparatus and image processing method Active JP5769790B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013258691A JP5769790B2 (en) 2013-12-13 2013-12-13 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013258691A JP5769790B2 (en) 2013-12-13 2013-12-13 Image processing apparatus and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010076201A Division JP5438579B2 (en) 2010-03-29 2010-03-29 Image processing apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2014057369A JP2014057369A (en) 2014-03-27
JP5769790B2 true JP5769790B2 (en) 2015-08-26

Family

ID=50614242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013258691A Active JP5769790B2 (en) 2013-12-13 2013-12-13 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5769790B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004266768A (en) * 2003-03-04 2004-09-24 Mega Chips Corp Image processing system and digital camera
JP2004362069A (en) * 2003-06-02 2004-12-24 Olympus Corp Image processor
JP4334932B2 (en) * 2003-07-28 2009-09-30 オリンパス株式会社 Image processing apparatus and image processing method
JP2006134030A (en) * 2004-11-05 2006-05-25 Fuji Photo Film Co Ltd Image processor

Also Published As

Publication number Publication date
JP2014057369A (en) 2014-03-27

Similar Documents

Publication Publication Date Title
JP5438579B2 (en) Image processing apparatus and control method thereof
US8824824B2 (en) Image processing apparatus, imaging apparatus, image processing method, and recording medium storing program
US8350951B2 (en) Image sensing apparatus and image data correction method
JP5535053B2 (en) Image processing apparatus and image processing method
US8724008B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and program for performing image restoration
JP2010087672A (en) Image processing method, image processing apparatus, and imaging device
JP2009017419A (en) Imaging apparatus and interchangeable lens device
US20180033121A1 (en) Image processing apparatus, image processing method, and storage medium
JP5528139B2 (en) Image processing apparatus, imaging apparatus, and image processing program
US20150161771A1 (en) Image processing method, image processing apparatus, image capturing apparatus and non-transitory computer-readable storage medium
US8634001B2 (en) Image processing apparatus, image processing program, image processing method, and image-pickup apparatus
JP5730036B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program.
JP2011160255A5 (en)
JP2012156715A (en) Image processing device, imaging device, image processing method, and program
JP6274744B2 (en) Image processing apparatus and image processing method
JP5769790B2 (en) Image processing apparatus and image processing method
US9635260B2 (en) Image processing apparatus, image pickup apparatus, and image processing method
JP6105960B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP6108773B2 (en) Image processing apparatus, control method thereof, and control program
JP2015138470A (en) Image processor, imaging device, method for controlling image processor, and program
JP2011130381A (en) Imaging apparatus and control method thereof
JP2017224906A (en) Image processing method, imaging apparatus using the same, image processing system, and image processing program
JP2012156710A (en) Image processing device, imaging device, image processing method, and program
JP2015170928A (en) image processing apparatus, image processing method and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150623

R151 Written notification of patent or utility model registration

Ref document number: 5769790

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151