JP2003169255A - Shading correction method - Google Patents

Shading correction method

Info

Publication number
JP2003169255A
JP2003169255A JP2001365645A JP2001365645A JP2003169255A JP 2003169255 A JP2003169255 A JP 2003169255A JP 2001365645 A JP2001365645 A JP 2001365645A JP 2001365645 A JP2001365645 A JP 2001365645A JP 2003169255 A JP2003169255 A JP 2003169255A
Authority
JP
Japan
Prior art keywords
correction
shading
shading correction
mesh
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001365645A
Other languages
Japanese (ja)
Other versions
JP4614601B2 (en
Inventor
Tetsuo Miyoshi
徹男 三好
Atsushi Kobayashi
篤 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001365645A priority Critical patent/JP4614601B2/en
Publication of JP2003169255A publication Critical patent/JP2003169255A/en
Application granted granted Critical
Publication of JP4614601B2 publication Critical patent/JP4614601B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)
  • Picture Signal Circuits (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a shading correction method that applies optimum shading correction to a consumer camera system or the like at a limited cost (the number of gates). <P>SOLUTION: The method comprises capturing in advance data providing a uniform white reference at a sampling point on a horizontal (H) axis and a vertical (V) axis passing through a center point (center) of an effective imaging plane to multiply a correction coefficient with H and V coordinates on a correction approximate line (a curved line or a straight line) at each center axis thereby calculating the product as a shading correction coefficient on optional coordinates (H, V) within the effective imaging plane. Further, the method comprises dividing the effective pixel area of the imaging plane into mesh areas in the unit of prescribed pixels, integrating and averaging pixel values in each mesh area to calculate a correction value for each mesh area so as to correct both shading of a lens system and shading of uneven sensor sensitivity on the basis of the correction value for each mesh area. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、撮像素子で読み取
った画像情報のシェーディング補正を行うシェーディン
グ補正方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a shading correction method for correcting shading of image information read by an image sensor.

【0002】[0002]

【従来の技術】従来より、カメラ系のシェーディング補
正については、情報機器用のシェーディング補正回路な
どの高価で高性能のものを用いるものが提案されている
(たとえば特許第2805100号公報等参照)。ま
た、リニアセンサを用いたファクシミリ、デジタル複写
機の分野では、シェーディング補正は必須であり、多く
の補正方式が提案されている(たとえば特許第2580
118号公報等参照)。
2. Description of the Related Art Hitherto, as for shading correction of a camera system, it has been proposed to use an expensive and high performance shading correction circuit for information equipment (see, for example, Japanese Patent No. 2805100). Shading correction is essential in the field of facsimiles and digital copying machines using linear sensors, and many correction methods have been proposed (for example, Japanese Patent No. 2580).
No. 118, etc.).

【0003】[0003]

【発明が解決しようとする課題】しかしながら、民生用
のCCD固体撮像素子やCMOSセンサを用いたデジタ
ルカメラなどの分野においては、コスト的な制約が大き
いため、ある程度のコストで、ある程度の補正精度を保
証するようなシェーディング補正方法が好ましいが、こ
のようなシェーディング補正方法については、好適なも
のが提案されていない。
However, in the field of consumer CCD solid-state image pickup devices and digital cameras using CMOS sensors, cost constraints are large, and therefore some correction accuracy can be obtained at some cost. A guaranteed shading correction method is preferable, but no suitable shading correction method has been proposed.

【0004】そこで本発明の目的は、民生用のカメラシ
ステムなどにおいて、限られたコスト(ゲート数)で最
適なシェーディング補正を行うことができるシェーディ
ング補正方法を提供することにある。
Therefore, an object of the present invention is to provide a shading correction method capable of performing optimum shading correction at a limited cost (number of gates) in a consumer camera system or the like.

【0005】[0005]

【課題を解決するための手段】本発明は前記目的を達成
するため、一様な白基準となるデータを、有効撮像面の
水平および垂直の各センター軸上のサンプリング点で予
め取り込み、前記白基準となるデータを用いて前記各セ
ンター軸における補正近似線を算出し、前記補正近似線
に基づいて水平座標に対する補正係数と垂直座標に対す
る補正係数の掛け算を行い、この掛け算値を有効撮像面
内の任意の座標上のシェーディング補正係数として算出
することを特徴とする。
In order to achieve the above object, the present invention preliminarily captures uniform white reference data at sampling points on each of the horizontal and vertical center axes of the effective image pickup surface to obtain the white reference data. A correction approximate line in each of the center axes is calculated using the reference data, a correction coefficient for the horizontal coordinate and a correction coefficient for the vertical coordinate are multiplied based on the correction approximate line, and this multiplication value is used in the effective image pickup plane. Is calculated as a shading correction coefficient on arbitrary coordinates of.

【0006】本発明のシェーディング補正方法では、有
効撮像面の水平、垂直センター軸上のサンプリング点で
予め取り込み取った白基準データを用いて各センター軸
における補正近似線を算出し、この補正近似線に基づい
て水平座標に対する補正係数と垂直座標に対する補正係
数の掛け算を行い、任意の座標上のシェーディング補正
係数として算出することから、比較的簡単な計算方法
で、実際のシェーディング補正を良い精度で近似するこ
とができる。
According to the shading correction method of the present invention, the correction approximate line for each center axis is calculated using the white reference data previously captured at the sampling points on the horizontal and vertical center axes of the effective image pickup surface, and the correction approximate line is calculated. The correction coefficient for the horizontal coordinate is multiplied by the correction coefficient for the vertical coordinate based on to calculate the shading correction coefficient on the arbitrary coordinate. Therefore, the actual shading correction can be approximated with good accuracy by a relatively simple calculation method. can do.

【0007】[0007]

【発明の実施の形態】以下、本発明によるシェーディン
グ補正方法の実施の形態例について説明する。なお、以
下に説明する実施の形態は、本発明の好適な具体例であ
り、技術的に好ましい種々の限定が付されているが、本
発明の範囲は、以下の説明において、特に本発明を限定
する旨の記載がない限り、これらの態様に限定されない
ものとする。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of a shading correction method according to the present invention will be described below. The embodiments described below are preferred specific examples of the present invention, and various technically preferable limitations are given. However, the scope of the present invention is not limited to the present invention in the following description. Unless otherwise stated, the present invention is not limited to these embodiments.

【0008】本発明の第1の実施の形態は、一様な白基
準となるデータを、有効撮像面の中心点(センター)を
通る水平(H)軸上および垂直(V)軸上のサンプリン
グ点で予め取り込むことにより、各センター軸における
補正近似線(曲線または直線)のH座標およびV座標に
対する補正係数の掛け算を行い、この値を有効撮像面内
の任意の座標(H、V)上のシェーディング補正係数と
して算出するものである。
According to the first embodiment of the present invention, data which is a uniform white reference is sampled on a horizontal (H) axis and a vertical (V) axis passing through a center point (center) of an effective image pickup surface. By capturing in advance at points, the correction coefficient is multiplied by the H coordinate and V coordinate of the correction approximate line (curve or straight line) on each center axis, and this value is placed on the arbitrary coordinates (H, V) within the effective imaging plane. Is calculated as the shading correction coefficient.

【0009】また、本発明の第2の実施の形態は、撮像
面の有効画素領域を所定画素単位のメッシュ領域に分割
し、それぞれのメッシュ領域で画素値を積分し、平均化
することにより、メッシュ領域ごとの補正値を算出し、
そのメッシュ領域ごとの補正値に基づいて、レンズ系の
シェーディングとセンサ感度ムラのシェーディングの両
方の補正を行えるようにしたものである。さらに、上述
したH及びV方向の補正近似線(曲線または直線)を各
メッシュ領域単位で切り換えるようにし、かつ、そのメ
ッシュ領域内の任意の座標の補正係数を上述したシェー
ディング補正係数の算出方法にもとづいて計算するよう
にした。
Further, according to the second embodiment of the present invention, the effective pixel area of the image pickup surface is divided into mesh areas of a predetermined pixel unit, and the pixel values are integrated and averaged in each mesh area. Calculate the correction value for each mesh area,
Both of the shading of the lens system and the shading of the sensor sensitivity unevenness can be corrected based on the correction value for each mesh area. Further, the above-described correction approximate lines (curves or straight lines) in the H and V directions are switched for each mesh area, and the correction coefficient of any coordinate in the mesh area is calculated by the above-described shading correction coefficient calculation method. I tried to calculate based on it.

【0010】以下、このような実施の形態を実現する具
体的な実施例を図面に基づき説明する。図1〜図9は、
本発明の第1の実施の形態を実現する第1実施例を説明
するための図であり、図1は本実施例におけるシェーデ
ィング係数算出方法を示す説明図、図2は計算精度を説
明する説明図、図3は本例で用いるCIFを示す説明
図、図4は本例で用いる計算式の妥当性について数学的
に証明する説明図、図5は本例によるレンズシェーディ
ングの補正曲面を示す説明図、図6は本例によるシェー
ディング補正回路のデータパスを示すブロック図、図7
は本例によるシェーディング補正回路の制御ブロックを
示すブロック図、図8および図9は本例におけるシェー
ディング補正回路の動作を示すフローチャートである。
Specific examples for realizing such an embodiment will be described below with reference to the drawings. 1 to 9 are
It is a figure for demonstrating the 1st example which implements the 1st embodiment of the present invention, Drawing 1 is an explanatory view showing the shading coefficient calculation method in this example, and Drawing 2 is an explanation explaining calculation accuracy. FIG. 3, FIG. 3 is an explanatory diagram showing a CIF used in this example, FIG. 4 is an explanatory diagram mathematically demonstrating the validity of the calculation formula used in this example, and FIG. 5 is an explanation showing a corrected curved surface of lens shading in this example. FIG. 6 is a block diagram showing a data path of the shading correction circuit according to the present example, FIG.
Is a block diagram showing a control block of the shading correction circuit according to this example, and FIGS. 8 and 9 are flowcharts showing the operation of the shading correction circuit according to this example.

【0011】この第1実施例は、レンズ起因によるシェ
ーディングが撮像素子の感度ムラによるシェーディング
に比べて支配的である場合の例について説明する。この
場合、カメラの調整段階で基準となる白を撮像し、図1
に示す撮像面のHとVの両センター軸におけるサンプリ
ング値をレジスタに取り込む。なお、この場合の両軸の
サンプリング点は固定でもよいし、レジスタの設定によ
りサンプリング点の個数と間隔を可変に設定できるよう
にしてもよい。また、この場合、後のH/V近似直線ブ
ロックの設計を容易にするために、サンプリング点の間
隔をXn+1 −Xn =2m (mは自然数)となるように選
ぶこともできる。
In the first embodiment, an example will be described in which the shading due to the lens is dominant as compared with the shading due to the uneven sensitivity of the image pickup device. In this case, a reference white image is captured at the camera adjustment stage, and
Sampling values on both the H and V center axes of the image pickup surface shown in (4) are loaded into the register. In this case, the sampling points on both axes may be fixed, or the number and intervals of the sampling points may be variably set by setting a register. Further, in this case, in order to facilitate the subsequent design of the H / V approximate linear block, the interval between sampling points can be selected to be Xn + 1-Xn = 2 m (m is a natural number).

【0012】たとえば、有効画素362×293画素の
CIFの場合、図3に示すような間隔で、H方向のサン
プリング点を19点、V方向のサンプリング点を17点
となるようなサンプリング点を選ぶことができる。
For example, in the case of CIF having 362 × 293 effective pixels, sampling points are selected at intervals as shown in FIG. 3 such that 19 sampling points in the H direction and 17 sampling points in the V direction are obtained. be able to.

【0013】この例では、レンズによるシェーディング
補正曲面の変化がレンズの端ほど大きくなること、及び
レンズの光軸の中心からのずれがあるため、それに合わ
せてレンズの端及び中央ほどサンプリング点の間隔を密
にしている。図1に示すように、本実施例においては、
任意の有効撮像面の座標(H、V)でのレンズのシェー
ディング補正係数をP(H、V)とすると、これは以下
の関係式で計算される。 P(H、V)=CH(H)*CV(V) ……(式1) ここで、CH(H)はH方向のセンサー軸における補正
近似直線の座標Hに対する補正係数であり、CV(V)
はV方向のセンター軸における補正近似直線の座標Vに
対する補正係数である。
In this example, since the change in the shading correction curved surface due to the lens becomes larger toward the end of the lens and there is a deviation from the center of the optical axis of the lens, the interval between the sampling points becomes closer to the end and center of the lens. Is dense. As shown in FIG. 1, in this embodiment,
Assuming that the shading correction coefficient of the lens at the coordinates (H, V) of an arbitrary effective image pickup surface is P (H, V), this is calculated by the following relational expression. P (H, V) = CH (H) * CV (V) (Equation 1) Here, CH (H) is a correction coefficient for the coordinate H of the correction approximate straight line on the sensor axis in the H direction, and CV ( V)
Is a correction coefficient for the coordinate V of the correction approximate straight line on the center axis in the V direction.

【0014】図4は、(式1)の計算式の妥当性につい
て数学的に証明したものである。図4に示すような幾何
学的な配置で、撮像素子面P(x、y)における光量を
(1)コサイン4重則と(2)両軸掛け算で計算し、比
較したものである。結果、射出ヒトミ距離が撮像素子の
対角距離の1/2より十分に大きい場合には、コサイン
4重則=両軸掛け算が良い近似に成り立つことが分か
る。また、図2は、(式1)の計算式の精度について調
べたものである。ここでは、有効画素面として、5.3
mm×4.0mmの撮像素子を使った場合について、レ
ンズから撮像面までの射出ヒトミ距離が3.32mm
(図2(B))と3.32mm×2(図2(C))のも
のについてそれぞれ示してある。図中、コサイン4乗則
と記された曲線は、撮像中央から撮像面の4隅の対角の
位置までの光量比率が純粋にコサイン4乗則に従うと仮
定して計算したものである。また、両軸掛け算補正と記
された曲線は、撮像面の両軸センターの補正曲線がコサ
イン4乗側に従うと仮定して、その値から(式1)を使
って両軸の補正係数の掛け算として対角の補正係数を計
算したものである。
FIG. 4 is a mathematical proof of the validity of the equation (1). In the geometrical arrangement as shown in FIG. 4, the amount of light on the image pickup element surface P (x, y) is calculated by (1) cosine quadruple rule and (2) biaxial multiplication and compared. As a result, it can be seen that when the exit Hitomi distance is sufficiently larger than 1/2 of the diagonal distance of the image sensor, the cosine quadruple rule = biaxial multiplication holds good approximation. Further, FIG. 2 is a graph in which the accuracy of the calculation formula (Formula 1) is examined. Here, the effective pixel surface is 5.3.
When using an image sensor of mm × 4.0 mm, the exit Hitomi distance from the lens to the imaging surface is 3.32 mm
(FIG. 2 (B)) and 3.32 mm × 2 (FIG. 2 (C)). In the figure, the curve described as the cosine fourth law is calculated on the assumption that the light amount ratio from the center of the image pickup to the diagonal positions of the four corners of the image pickup surface purely follows the cosine fourth law. In addition, the curve described as “double-axis multiplication correction” is based on the assumption that the correction curve of the center of both axes of the imaging surface follows the cosine fourth side, and from that value, the correction coefficient of both axes is multiplied by using (Equation 1). Is calculated as a diagonal correction coefficient.

【0015】この図2から分かるように、射出ヒトミ距
離が撮像面の中央から対角までの距離(この場合3.3
2mm)の2倍以上になると両者の差はほとんどない。
また、射出ヒトミ距離と対角距離の1/2が等しい場合
には、撮像面の4隅で最大20%程度の誤差となる。現
在、主に市場で使われているマイクロレンズでは、多く
の場合、マウントの(射出ヒトミ距離)>(撮像対角距
離の1/2)の関係にあるので、図2からこの近似は妥
当なものである。図5は、実際に本シェーディング回路
により白基準のサンプリングデータを取り込み、それに
基づいて計算した補正係数を(式1)により計算するこ
とで描いたレンズシェーディングの補正曲面図である。
As can be seen from FIG. 2, the exit Hitomi distance is the distance from the center of the imaging surface to the diagonal (3.3 in this case).
2 mm or more, there is almost no difference between the two.
When the exit Hitomi distance and 1/2 of the diagonal distance are equal to each other, the maximum error is about 20% at the four corners of the imaging surface. At present, in the case of microlenses mainly used in the market, in many cases, the relationship of (exit Hitomi distance)> (1/2 of imaging diagonal distance) of the mount is satisfied, so this approximation is valid from FIG. It is a thing. FIG. 5 is a corrected curved surface diagram of lens shading drawn by actually taking in white-based sampling data by the present shading circuit and calculating a correction coefficient calculated based on the sampling data by (Equation 1).

【0016】次に、以上のような演算処理を実現する回
路構成について説明する。図6は本実施例によるシェー
ディング補正回路データパスブロックを示し、図7はそ
の制御ブロック図を示したものである。なお、本実施例
では、回路のゲート数を減らすために、白基準データの
取り込みから補正係数演算までの処理を制御ソフトウエ
アにより図8および図9のフローチャートに従って行
う。すなわち、シェーディングRAM上に1画面分の白
基準データを取り込んだ後に、図示しない外部PC(パ
ーソナルコンピュータ)がH/V方向の白基準データを
シェーディングRAMから読み出す(ステップS1、S
2)。
Next, a circuit configuration for realizing the above arithmetic processing will be described. FIG. 6 shows a shading correction circuit data path block according to this embodiment, and FIG. 7 shows a control block diagram thereof. In this embodiment, in order to reduce the number of gates of the circuit, the processing from the white reference data up to the correction coefficient calculation is performed by the control software according to the flowcharts of FIGS. 8 and 9. That is, after the white reference data for one screen is loaded onto the shading RAM, an external PC (personal computer) not shown reads the white reference data in the H / V direction from the shading RAM (steps S1 and S).
2).

【0017】その際、外部PCは、全サンプリングデー
タの中から最大値データ(センター軸交点のデータ)を
検索し、(最大値データ)/(白サンプリング値デー
タ)を計算することにより、補正係数の計算処理を行う
(ステップS3)。そして、U1.9のデータとしてシ
ェーディングRAMにデータを書き戻すとともに、その
値をE2PROMに保存する(ステップS4〜S7)。
また、この補正係数の計算処理では、図9に示すよう
に、理想的なレンズのシェーディング特性を得るため
に、サンプリングした点を二次の最小二乗法でフィッテ
ィングすることでサンプリング時のノイズ、フリッカな
どの影響を排除している(ステップS11〜S14)。
もちろん、この白サンプリングデータの逆数を取る処理
は除算器を用いて行っても良いし、整数値の逆数をRO
Mに持たせたテーブルから読み出すような構成にしても
良い。
At this time, the external PC retrieves the maximum value data (data of the center axis intersection) from all the sampling data and calculates (maximum value data) / (white sampling value data) to obtain the correction coefficient. Is calculated (step S3). Then, the data is written back to the shading RAM as U1.9 data and the value is stored in the E2PROM (steps S4 to S7).
Further, in this correction coefficient calculation process, as shown in FIG. 9, in order to obtain the ideal lens shading characteristics, the sampled points are fitted by the quadratic least squares method to obtain noise and flicker at the time of sampling. The influence of the above is eliminated (steps S11 to S14).
Of course, the process of taking the reciprocal of the white sampling data may be performed by using a divider, and the reciprocal of the integer value is RO.
The configuration may be such that the table is read from the table stored in M.

【0018】図6は本実施例によるシェーディング補正
回路データパスブロックを示したものであり、LPF
(ローパスフィルタ)10、シェーディングRAM1
2、シフタ14、システムコントローラ16、及び補正
係数データパスなどから構成されている。まず、H方向
の動作について述べると、内挿すべき点Hの補正係数を
計算するために必要な補正係数の値Yn+1 とYn をシェ
ーディングRAM12からレジスタに読み出す。次に、
一次近似直線の式として以下の計算式で現在のHカウン
ト値の補正量Yを計算する。 Y=Yn +Kn *(X−Xn ) ……(式2) ここで、Kn =(Yn+1 −Yn )*2-mである。なお、
Xは現在のHカウンタのカウント値を示し、Xn 、Xn+
1 はHカウンタのサンプリングアドレスを示し、Yn 、
Yn+1 はXn 、Xn+1 のサンプリング点に対応したH方
向の補正係数を示している。
FIG. 6 shows a shading correction circuit data path block according to this embodiment.
(Low-pass filter) 10, shading RAM 1
2, a shifter 14, a system controller 16 and a correction coefficient data path. First, the operation in the H direction will be described. The correction coefficient values Yn + 1 and Yn necessary for calculating the correction coefficient of the point H to be interpolated are read from the shading RAM 12 to a register. next,
The correction amount Y of the current H count value is calculated by the following calculation formula as the formula of the linear approximation line. Y = Yn + Kn * (X-Xn) (Equation 2) where Kn = (Yn + 1-Yn) * 2- m . In addition,
X indicates the present count value of the H counter, and Xn, Xn +
1 indicates the sampling address of the H counter, Yn,
Yn + 1 indicates the correction coefficient in the H direction corresponding to the sampling points of Xn and Xn + 1.

【0019】また、V方向の動作についてもH方向の動
作と基本的に同じである。この場合、Xが現在のVカウ
ンタの値を示し、Xn 、Xn+1 がVカウンタのサンプリ
ングアドレスを示し、Yn 、Yn+1 がVサンプリング点
に対応したV方向の補正係数を示すことになる。上述し
たように、Kn の直線の傾きを求める際にサンプリング
点の間隔を2mとなるように選んであるため、この割り
算はシフト演算で行える。また、本実施例の構成は、V
軸方向の補正量については、Hの帰線期間の間にV方向
の現在のVカウンタの補正量を計算しておいて、その値
を1H期間ラッチして保持しておくようにすることで、
補正係数データパスを共通で使えるようにしたものであ
る。
The operation in the V direction is basically the same as the operation in the H direction. In this case, X indicates the current value of the V counter, Xn and Xn + 1 indicate the sampling address of the V counter, and Yn and Yn + 1 indicate the correction coefficient in the V direction corresponding to the V sampling point. . As described above, since the interval between sampling points is selected to be 2 m when obtaining the slope of the Kn straight line, this division can be performed by a shift operation. In addition, the configuration of this embodiment is V
Regarding the correction amount in the axial direction, the current correction amount of the V counter in the V direction is calculated during the H blanking period, and the value is latched and held for 1H period. ,
The correction coefficient data path is commonly used.

【0020】補正係数データパスでは、まず、(式2)
に基づいて、S1.7の(Yn+1 −Yn )の差分量とU
7.0の(X−Xn )の差分量の符号付き掛け算を行
い、その結果、S8.7の出力を得る。次に、シフタに
よって2m の割り算(この場合、シフト量4/5/6/
7ビット)を行い、S1.7の出力を得る。最後に基点
のU1.7のYn と足し算することで、X点における内
挿値YをU1.7のフォーマットで得る。H方向とV方
向の補正係数は掛け算され、最終的にU2.7のフォー
マットの補正係数になり、最後に入力データU8.0と
掛け算され、補正された出力データU8.0を得る。
In the correction coefficient data path, first, (Equation 2)
Based on U, the difference amount of (Yn + 1-Yn) in S1.7 and U
Signed multiplication of the (X-Xn) difference amount of 7.0 is performed, and as a result, the output of S8.7 is obtained. Next, the shifter divides by 2 m (in this case, the shift amount is 4/5/6 /
7 bits) to obtain the output of S1.7. Finally, the interpolation value Y at the X point is obtained in the U1.7 format by adding Yn of the base point U1.7. The correction coefficients in the H direction and the V direction are multiplied, and finally become a correction coefficient in the format of U2.7, and finally they are multiplied by the input data U8.0 to obtain corrected output data U8.0.

【0021】また、図7はシェーディング補正回路制御
ブロックを示したもので、カウンタブロック(H/V)
21〜24、差分ブロック(H/V)25、26、シフ
トレジスタ(H/V)27、28、RAM制御ブロック
29、30、アドレスジェネレータ31、データパス系
制御信号ブロック32などから構成されている。このよ
うに本発明の第1実施例では、比較的簡単な補正計算方
法で精度良く各画素のシェーディング補正係数を算出す
ることが可能である。
FIG. 7 shows a shading correction circuit control block, which is a counter block (H / V).
21 to 24, difference blocks (H / V) 25 and 26, shift registers (H / V) 27 and 28, RAM control blocks 29 and 30, an address generator 31, a data path system control signal block 32, and the like. . As described above, in the first embodiment of the present invention, it is possible to accurately calculate the shading correction coefficient of each pixel by a relatively simple correction calculation method.

【0022】図10、図11は、本発明の第2の実施の
形態を実現する第2実施例を説明するための図であり、
図10は本実施例でシェーディング補正を行う回路構成
を示すブロック図、図11は本実施例で用いるメッシュ
分割による補正方法を示す説明図である。この第2実施
例では、レンズ系のシェーディングとセンサ系(撮像素
子の感度ムラ)のシェーディングの両方を補正できる方
法について説明する。この第2実施例では、センサの感
度ムラを補正する際に1画素単位で行うと高価なフレー
ムメモリを必要とするため、例として画素数1280×
960の有効画素を分割し、64×64をひとつのメッ
シュ領域単位として、そのメッシュ領域単位でレンズ及
び感度ムラの補正を行えるようにしたものである。この
場合、上述した有効画素は20×15個のメッシュ領域
に分割される。以下、その補正処理手順を説明する。
FIG. 10 and FIG. 11 are views for explaining a second embodiment for realizing the second embodiment of the present invention,
FIG. 10 is a block diagram showing a circuit configuration for performing shading correction in this embodiment, and FIG. 11 is an explanatory diagram showing a correction method by mesh division used in this embodiment. In the second embodiment, a method capable of correcting both the shading of the lens system and the shading of the sensor system (uneven sensitivity of the image sensor) will be described. In the second embodiment, an expensive frame memory is required if the sensitivity unevenness of the sensor is corrected pixel by pixel. Therefore, as an example, the number of pixels is 1280 ×
960 effective pixels are divided, 64 × 64 is set as one mesh area unit, and the lens and sensitivity unevenness can be corrected in the mesh area unit. In this case, the above-mentioned effective pixels are divided into 20 × 15 mesh areas. The correction processing procedure will be described below.

【0023】まず、前記第1実施例と同様にカメラの調
整段階で基準となる白を撮像してそのサンプリングデー
タをRAM12に取り込む。この場合、前記第1実施例
と異なるのは、図11に示すように1画面分のデータを
メッシュごとに積分して平均化した値を、そのメッシュ
のサンプリング値として補正データにすることである。
この場合、図10に示すように、1水平ライン分20個
のメッシュの積分を積分器51およびテンポラリレジス
タ(Reg)52で行って平均化した後、その1水平ラ
イン分のデータにアドレスジェネレータ31でアドレス
を付し、デバイダ54およびマルチプレクサ55を介し
てRAM12に書き込む。
First, as in the first embodiment, a reference white image is picked up at the camera adjustment stage, and the sampling data is taken into the RAM 12. In this case, the difference from the first embodiment is that, as shown in FIG. 11, a value obtained by integrating and averaging data for one screen for each mesh is used as correction data as a sampling value of the mesh. .
In this case, as shown in FIG. 10, 20 meshes for one horizontal line are integrated by the integrator 51 and the temporary register (Reg) 52 and averaged, and then the address generator 31 is added to the data for one horizontal line. Then, an address is added to write to the RAM 12 via the divider 54 and the multiplexer 55.

【0024】以下、同様に積分器51およびテンポラリ
Reg52を順次リセットして、次の1水平ライン分の
各メッシュの積分を行う。結果として、最終的にRAM
12には、1画面分の300個のメッシュのデータが書
き込まれるようになる。次に、CPUにより、このRA
M12から全データを読み出し、その中から最大値のデ
ータを検索して、各メッシュごとに(最大値データ)/
(各メッシュの白平均データ)を計算し、その結果をR
AM12に書き戻す。この時点でRAM12には、各メ
ッシュごとの補正係数データが書き込まれたことにな
る。
Thereafter, similarly, the integrator 51 and the temporary Reg 52 are sequentially reset, and the integration of each mesh for the next one horizontal line is performed. As a result, finally RAM
Data of 300 meshes for one screen is written in 12. Next, by the CPU, this RA
Read all data from M12, search for the maximum value data from it, and (maximum value data) /
(White average data of each mesh) is calculated and the result is R
Write back to AM12. At this point, the RAM 12 has been written with the correction coefficient data for each mesh.

【0025】次に、この各メッシュごとの補正データを
使ってどのように近似直線を作っていくかを図11を用
いて説明する。なお、図11では簡単のために3×3の
9メッシュの撮像面について示してある。また、図中各
メッシュの中央の丸はそのメッシュでの重心点位置の補
正係数を表している。補正の際には、図11の斜線領域
に示すように、新たに4つのメッシュの重心点で囲まれ
る領域について、次の(式3)から、このメッシュ内の
任意の座標での補正係数P(h+x、v+y)を、これ
ら4点の重心位置の補正係数から内挿する。 P(h+x、v)=P(h、v)+(P(h+m、v)−P(h、v))*x /m P(h+x、v+m)=P(h、v+m)+(P(h+m、v+m)−P(h 、v+m))*x/m P(h+x、v+y)=P(h+x、v)+(P(h+x、v+m)−P(h +x、v))*y/m ……(式3)
Next, how to make an approximate straight line using the correction data for each mesh will be described with reference to FIG. Note that FIG. 11 shows a 3 × 3 9-mesh image pickup surface for simplicity. Further, the circle in the center of each mesh in the figure represents the correction coefficient of the position of the center of gravity in that mesh. At the time of correction, as shown by the hatched area in FIG. 11, for the area newly surrounded by the center of gravity of the four meshes, the correction coefficient P at an arbitrary coordinate within this mesh is calculated from the following (Equation 3). (H + x, v + y) is interpolated from the correction coefficients of the barycentric positions of these four points. P (h + x, v) = P (h, v) + (P (h + m, v) -P (h, v)) * x / m P (h + x, v + m) = P (h, v + m) + (P ( h + m, v + m) -P (h, v + m)) * x / m P (h + x, v + y) = P (h + x, v) + (P (h + x, v + m) -P (h + x, v)) * y / m …… (Formula 3)

【0026】ここで、P(h、v)、P(h+m、
v)、P(h、v+m)、およびP(h+m、v+m)
は、補正用の1メッシュの4隅の重心の補正係数、mは
1メッシュの幅である。また、P(h+x、v)および
P(h+x、v+m)は、最終座標値の補正係数P(h
+x、v+y)導出のための中間的な座標での補正係数
である。このようにH、V方向の走査に合わせて、内挿
すべき点は必要な4点の重心位置の補正係数をシェーデ
ィングRAMから順次読み出すことで、全ての有効画素
点での補正係数の算出を可能にしている。また、図10
のデータパスブロック図には上記(式3)の一次近似直
線を実現するための補正係数算出のためのデータパスも
示している。このような第2実施例は、第1実施例の補
正計算方法を限られたメッシュ領域で適応することで、
補正の精度的にも第1実施例の精度の比べてはるかに良
い補正精度を保証できる。この精度はメッシュをさらに
細かく分割することにより高めることができる。さら
に、加えてセンサ系の感度ムラもある程度補正できるた
め最適な補正計算を行うことが可能となる。
Here, P (h, v), P (h + m,
v), P (h, v + m), and P (h + m, v + m)
Is a correction coefficient for the center of gravity of the four corners of one mesh for correction, and m is the width of one mesh. Further, P (h + x, v) and P (h + x, v + m) are correction coefficients P (h
+ X, v + y) is a correction coefficient at an intermediate coordinate for deriving. As described above, in accordance with the scanning in the H and V directions, the correction coefficients at the four required barycentric positions for the points to be interpolated are sequentially read from the shading RAM, so that the correction coefficients can be calculated at all effective pixel points. I have to. In addition, FIG.
The data path block diagram of FIG. 3 also shows a data path for calculating the correction coefficient for realizing the first-order approximation straight line of (Equation 3). In the second embodiment, by applying the correction calculation method of the first embodiment in a limited mesh area,
With respect to the accuracy of correction, it is possible to guarantee much higher accuracy than the accuracy of the first embodiment. This accuracy can be increased by further dividing the mesh. In addition, since the sensitivity unevenness of the sensor system can be corrected to some extent, the optimum correction calculation can be performed.

【0027】[0027]

【発明の効果】以上説明したように本発明のシェーディ
ング補正方法では、有効撮像面の水平、垂直センター軸
上のサンプリング点で予め取り込み取った白基準データ
を用いて各センター軸における補正近似線を算出し、こ
の補正近似線に基づいて水平座標に対する補正係数と垂
直座標に対する補正係数の掛け算を行い、任意の座標上
のシェーディング補正係数として算出することから、比
較的簡単な計算方法で、実際のシェーディング補正を良
い精度で近似することができる。また、実際に撮像面有
効画素の両センター軸上のサンプリング点の値を取り込
んで補正式を計算しているため、マウント精度によるあ
る程度の撮像面中央と光学軸センターのずれにも対応で
きる。また、レンズ系のシェーディング補正だけでな
く、上記計算方法をセンサー系の感度ムラのシェーディ
ング補正にも有効に適応することができる。よって、特
に民生用のカメラシステムなどのように、限られたコス
ト、限られたゲート数でシェーディング補正をある程度
の精度で実施しなければならないシステムにおいて最適
なシェーディング補正を実現できる。
As described above, according to the shading correction method of the present invention, the white reference data previously acquired at the sampling points on the horizontal and vertical center axes of the effective image pickup plane are used to calculate the correction approximate line at each center axis. Based on this correction approximate line, the correction coefficient for the horizontal coordinate and the correction coefficient for the vertical coordinate are multiplied to calculate the shading correction coefficient on the arbitrary coordinate. Shading correction can be approximated with good accuracy. In addition, since the correction formula is calculated by actually taking in the values of the sampling points on both center axes of the effective pixels of the image pickup surface, it is possible to deal with a certain amount of deviation between the center of the image pickup surface and the optical axis center due to mounting accuracy. In addition to the shading correction of the lens system, the above calculation method can be effectively applied to the shading correction of the sensitivity unevenness of the sensor system. Therefore, optimal shading correction can be realized in a system such as a consumer-use camera system that must perform shading correction with a certain degree of accuracy at a limited cost and a limited number of gates.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1実施例におけるシェーディング補
正方法を示す説明図である。
FIG. 1 is an explanatory diagram showing a shading correction method according to a first embodiment of the present invention.

【図2】上記第1実施例によるシェーディング補正方法
の計算精度を説明するための説明図である。
FIG. 2 is an explanatory diagram for explaining calculation accuracy of the shading correction method according to the first embodiment.

【図3】上記第1実施例のシェーディング補正方法で用
いるCIFを示す説明図である。
FIG. 3 is an explanatory diagram showing a CIF used in the shading correction method of the first embodiment.

【図4】上記第1実施例のシェーディング補正方法で用
いる計算式の妥当性について数学的な証明を示す説明図
である。
FIG. 4 is an explanatory diagram showing a mathematical proof of the validity of the calculation formula used in the shading correction method of the first embodiment.

【図5】上記第1実施例におけるレンズシェーディング
の補正曲面を示す説明図である。
FIG. 5 is an explanatory diagram showing a correction curved surface of lens shading in the first embodiment.

【図6】上記第1実施例におけるシェーディング補正回
路のデータパスを示すブロック図である。
FIG. 6 is a block diagram showing a data path of a shading correction circuit in the first embodiment.

【図7】上記第1実施例におけるシェーディング補正回
路の制御ブロックを示すブロック図である。
FIG. 7 is a block diagram showing a control block of a shading correction circuit in the first embodiment.

【図8】上記第1実施例におけるシェーディング補正回
路の動作を示すフローチャートである。
FIG. 8 is a flowchart showing the operation of the shading correction circuit in the first embodiment.

【図9】上記第1実施例におけるシェーディング補正回
路の動作を示すフローチャートである。
FIG. 9 is a flowchart showing the operation of the shading correction circuit in the first embodiment.

【図10】本発明の第2実施例におけるシェーディング
補正回路の構成を示すブロック図である。
FIG. 10 is a block diagram showing a configuration of a shading correction circuit according to a second embodiment of the present invention.

【図11】上記第2実施例で用いるメッシュ分割による
補正方法を示す説明図である。
FIG. 11 is an explanatory diagram showing a correction method by mesh division used in the second embodiment.

【符号の説明】[Explanation of symbols]

10……LPF、12……シェーディングRAM、14
……シフタ、16……システムコントローラ、21〜2
4……カウンタブロック(H/V)、25、26……差
分ブロック(H/V)、27、28……シフトレジスタ
(H/V)、29、30……RAM制御ブロック、31
……アドレスジェネレータ、32……データパス系制御
信号ブロック、51……積分器、52……テンポラリレ
ジスタ、54……デバイダ、55……マルチプレクサ。
10 ... LPF, 12 ... Shading RAM, 14
...... Shifter, 16 …… System controller, 21-2
4 ... Counter block (H / V), 25, 26 ... Difference block (H / V), 27, 28 ... Shift register (H / V), 29, 30 ... RAM control block, 31
...... Address generator, 32 ...... Data path control signal block, 51 ...... Integrator, 52 ...... Temporary register, 54 ...... Divider, 55 ...... Multiplexer.

フロントページの続き Fターム(参考) 5B047 AA01 AB02 BB04 BC11 CB09 DA04 DC01 EA01 5C021 PA67 PA76 PA78 XA03 XA67 5C022 AB51 AC42 AC54 5C024 AX01 CX35 EX42 HX21 HX30 HX31 5C077 LL01 MP01 PP08 PP44 PP58 PQ03 PQ12 PQ22 TT09 Continued front page    F term (reference) 5B047 AA01 AB02 BB04 BC11 CB09                       DA04 DC01 EA01                 5C021 PA67 PA76 PA78 XA03 XA67                 5C022 AB51 AC42 AC54                 5C024 AX01 CX35 EX42 HX21 HX30                       HX31                 5C077 LL01 MP01 PP08 PP44 PP58                       PQ03 PQ12 PQ22 TT09

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 一様な白基準となるデータを、有効撮像
面の水平および垂直の各センター軸上のサンプリング点
で予め取り込み、 前記白基準となるデータを用いて前記各センター軸にお
ける補正近似線を算出し、 前記補正近似線に基づいて水平座標に対する補正係数と
垂直座標に対する補正係数の掛け算を行い、この掛け算
値を有効撮像面内の任意の座標上のシェーディング補正
係数として算出する、 ことを特徴とするシェーディング補正方法。
1. A uniform white reference data is pre-acquired at sampling points on each of the horizontal and vertical center axes of the effective image pickup surface, and the white reference data is used to make a correction approximation in each center axis. A line is calculated, a correction coefficient for the horizontal coordinate and a correction coefficient for the vertical coordinate are multiplied based on the correction approximate line, and the multiplication value is calculated as a shading correction coefficient on an arbitrary coordinate within the effective image pickup plane. Shading correction method characterized by.
【請求項2】 撮像面の有効画素を所定数画素単位のメ
ッシュ領域に分割し、それぞれのメッシュ領域で画素値
を積分し、平均化することでメッシュ領域ごとの補正値
を算出し、そのメッシュ領域ごとの補正値に基づいてレ
ンズ系のシェーディング補正とセンサ感度ムラのシェー
ディング補正の両方を行うようにしたことを特徴とする
請求項1記載のシェーディング補正方法。
2. A correction value for each mesh area is calculated by dividing effective pixels on an imaging surface into mesh areas of a predetermined number of pixels, integrating pixel values in each mesh area, and averaging the mesh values. The shading correction method according to claim 1, wherein both the shading correction of the lens system and the shading correction of the sensor sensitivity unevenness are performed based on the correction value for each area.
【請求項3】 メッシュ毎に積分した4つの重心点で囲
まれる補正のためのメッシュ領域において、メッシュ領
域内の任意の座標上のシェーディング補正係数をこれら
4点の重心位置での補正係数から算出することを特徴と
する請求項2記載のシェーディング補正方法。
3. A shading correction coefficient on arbitrary coordinates in the mesh area for correction, which is surrounded by four centroid points integrated for each mesh, is calculated from the correction coefficients at the centroid positions of these four points. The shading correction method according to claim 2, wherein
【請求項4】 水平軸方向の補正係数を水平同期期間で
算出し、垂直軸方向の補正係数を水平同期の帰線期間で
計算することにより、1つの補正近似線ブロックによっ
て水平軸方向と垂直軸方向の演算を選択的に行うことを
特徴とする請求項1記載のシェーディング補正方法。
4. A correction coefficient in the horizontal axis direction is calculated in the horizontal synchronization period, and a correction coefficient in the vertical axis direction is calculated in the blanking period of the horizontal synchronization, so that one correction approximation line block makes the correction line perpendicular to the horizontal axis direction. The shading correction method according to claim 1, wherein the calculation in the axial direction is selectively performed.
【請求項5】 前記サンプリング点は、各センター軸上
の固定点であることを特徴とする請求項1記載のシェー
ディング補正方法。
5. The shading correction method according to claim 1, wherein the sampling point is a fixed point on each center axis.
【請求項6】 前記サンプリング点は、各センター軸上
に任意に設定可能な点であることを特徴とする請求項1
記載のシェーディング補正方法。
6. The sampling point is a point that can be arbitrarily set on each center axis.
Shading correction method described.
JP2001365645A 2001-11-30 2001-11-30 Shading correction method and apparatus Expired - Fee Related JP4614601B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001365645A JP4614601B2 (en) 2001-11-30 2001-11-30 Shading correction method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001365645A JP4614601B2 (en) 2001-11-30 2001-11-30 Shading correction method and apparatus

Publications (2)

Publication Number Publication Date
JP2003169255A true JP2003169255A (en) 2003-06-13
JP4614601B2 JP4614601B2 (en) 2011-01-19

Family

ID=19175639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001365645A Expired - Fee Related JP4614601B2 (en) 2001-11-30 2001-11-30 Shading correction method and apparatus

Country Status (1)

Country Link
JP (1) JP4614601B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007078116A1 (en) * 2005-12-30 2007-07-12 Mtekvision Co., Ltd. Apparatus and method for compensating hue declination, and image processor using the same
KR100793290B1 (en) 2006-06-05 2008-01-10 주식회사 코아로직 Lens shading correction device and method of image sensor
CN100370301C (en) * 2003-12-05 2008-02-20 鸿富锦精密工业(深圳)有限公司 Digital camera lens mould set regulating method
JP2008109370A (en) * 2006-10-25 2008-05-08 Sanyo Electric Co Ltd Image correcting device and method, and imaging apparatus
JP2008160730A (en) * 2006-12-26 2008-07-10 Nikon Corp Image processor for correcting signal irregularity, calibration method, imaging apparatus, image processing program, and image processing method
WO2009005887A1 (en) * 2007-06-28 2009-01-08 Motorola, Inc. Method and apparatus for robust image processing
WO2010001811A1 (en) 2008-06-30 2010-01-07 ソニー株式会社 Image signal correcting device, imaging device, image signal correcting method, and program
WO2012008070A1 (en) * 2010-07-15 2012-01-19 パナソニック株式会社 Image capturing device and signal processing method
JP2012070993A (en) * 2010-09-29 2012-04-12 Fujifilm Corp Endoscope system
JP2015087570A (en) * 2013-10-31 2015-05-07 リコーイメージング株式会社 Lens, imaging device and method of correcting light quantity deterioration
CN110191260A (en) * 2018-02-23 2019-08-30 欧姆龙株式会社 Imaging sensor and body module

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100370301C (en) * 2003-12-05 2008-02-20 鸿富锦精密工业(深圳)有限公司 Digital camera lens mould set regulating method
KR100769553B1 (en) 2005-12-30 2007-10-23 엠텍비젼 주식회사 Apparatus and method for compensating hue declination, and image processor using it
WO2007078116A1 (en) * 2005-12-30 2007-07-12 Mtekvision Co., Ltd. Apparatus and method for compensating hue declination, and image processor using the same
KR100793290B1 (en) 2006-06-05 2008-01-10 주식회사 코아로직 Lens shading correction device and method of image sensor
JP2008109370A (en) * 2006-10-25 2008-05-08 Sanyo Electric Co Ltd Image correcting device and method, and imaging apparatus
JP2008160730A (en) * 2006-12-26 2008-07-10 Nikon Corp Image processor for correcting signal irregularity, calibration method, imaging apparatus, image processing program, and image processing method
WO2008081574A1 (en) * 2006-12-26 2008-07-10 Nikon Corporation Image processing device for correcting signal irregularities, calibration method, imaging device, image processing program, and image processing method
US8619165B2 (en) 2006-12-26 2013-12-31 Nikon Corporation Image processing device for correcting signal irregularity, calibration method, imaging device, image processing program, and image processing method
US8243155B2 (en) 2007-06-28 2012-08-14 Motorola Mobility Llc Method and apparatus for robust image processing
WO2009005887A1 (en) * 2007-06-28 2009-01-08 Motorola, Inc. Method and apparatus for robust image processing
US8730342B2 (en) 2007-06-28 2014-05-20 Motorola Mobility Llc Method and apparatus for robust image processing
US8988547B2 (en) 2008-06-30 2015-03-24 Sony Corporation Image signal correcting device, imaging device, image signal correcting method, and program
US8860853B2 (en) 2008-06-30 2014-10-14 Sony Corporation Image signal correcting device, image device, image signal correcting method, and program with color mixing correction
WO2010001811A1 (en) 2008-06-30 2010-01-07 ソニー株式会社 Image signal correcting device, imaging device, image signal correcting method, and program
WO2012008070A1 (en) * 2010-07-15 2012-01-19 パナソニック株式会社 Image capturing device and signal processing method
JP2012070993A (en) * 2010-09-29 2012-04-12 Fujifilm Corp Endoscope system
JP2015087570A (en) * 2013-10-31 2015-05-07 リコーイメージング株式会社 Lens, imaging device and method of correcting light quantity deterioration
CN110191260A (en) * 2018-02-23 2019-08-30 欧姆龙株式会社 Imaging sensor and body module
US10742853B2 (en) 2018-02-23 2020-08-11 Omron Corporation Image sensor and body module
CN110191260B (en) * 2018-02-23 2021-12-10 欧姆龙株式会社 Image sensor and body module

Also Published As

Publication number Publication date
JP4614601B2 (en) 2011-01-19

Similar Documents

Publication Publication Date Title
JP6702323B2 (en) Camera module, solid-state imaging device, electronic device, and imaging method
Karpenko et al. Digital video stabilization and rolling shutter correction using gyroscopes
US6833862B1 (en) Image sensor based vignetting correction
JP4885179B2 (en) Image distortion correction method and image processing apparatus employing the correction method
US7529424B2 (en) Correction of optical distortion by image processing
JP4773369B2 (en) Techniques for correcting image field data
CN108737734A (en) Image compensation method and device, computer readable storage medium and electronic equipment
JP4704913B2 (en) Image correction method and imaging apparatus
JP2014126861A (en) Imaging device and control method of the same, program and storage medium
US10440267B2 (en) System and method for image stitching
JP2003169255A (en) Shading correction method
KR101140953B1 (en) Method and apparatus for correcting distorted image
JP4489848B2 (en) Method for correcting image steadyness error in television film scanning, method for changing the motion sequence of a predetermined image object in a television image, and apparatus for performing the method
JP2018078582A (en) Image shake correction device, control method, program, and storage medium
CN111179180A (en) Image correction method and device
JPH04207481A (en) Movement detector
JP4503106B2 (en) Information processing apparatus and method, information processing system, and recording medium
JP6579934B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
JP4802423B2 (en) Image shake correction apparatus and method, and imaging apparatus
JP2009159404A (en) Image processing method, image processing device, and image formation device
KR970004392B1 (en) Correcting method for a camera
JP2985818B2 (en) Shading correction method and correction circuit
JP2007036696A (en) Image correction apparatus
JPH09130603A (en) Shading correction device
JP2004356681A (en) White balance adjusting circuit, its application device, white balance adjusting method, and white balance adjusting program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080423

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080509

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20090227

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090817

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100903

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101019

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131029

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees