JP5088361B2 - Image processing apparatus and imaging apparatus - Google Patents

Image processing apparatus and imaging apparatus Download PDF

Info

Publication number
JP5088361B2
JP5088361B2 JP2009283142A JP2009283142A JP5088361B2 JP 5088361 B2 JP5088361 B2 JP 5088361B2 JP 2009283142 A JP2009283142 A JP 2009283142A JP 2009283142 A JP2009283142 A JP 2009283142A JP 5088361 B2 JP5088361 B2 JP 5088361B2
Authority
JP
Japan
Prior art keywords
flicker
correction
image signal
flicker component
period
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009283142A
Other languages
Japanese (ja)
Other versions
JP2010063169A (en
Inventor
雅也 木下
靖二郎 稲葉
圭三 五味
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009283142A priority Critical patent/JP5088361B2/en
Publication of JP2010063169A publication Critical patent/JP2010063169A/en
Application granted granted Critical
Publication of JP5088361B2 publication Critical patent/JP5088361B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像信号を処理する画像処理装置、およびこの機能を備えた撮像装置に関し、特に、XYアドレス走査型の固体撮像素子により撮像された画像信号に対する処理に適した画像処理装置および撮像装置に関する。   The present invention relates to an image processing apparatus that processes an image signal, and an imaging apparatus having this function, and in particular, an image processing apparatus and an imaging apparatus suitable for processing an image signal captured by an XY address scanning type solid-state imaging device. About.

商用交流電源により点灯される蛍光灯などの点滅する光源の照明下で、ビデオカメラにより被写体を撮影すると、光源の輝度変化(光量変化)の周波数とカメラの垂直同期周波数との違いによって、撮像画像上に時間的な明暗の変化、いわゆる蛍光灯フリッカが生じる。特に、CMOS(Complementary Metal Oxide Semiconductor)型イメージセンサなどのXYアドレス走査型の撮像素子を用いた場合には、水平ラインごとの露光タイミングが異なるため、撮像画像上のフリッカは、垂直方向の周期的な輝度レベルあるいは色相の変動による縞模様として観察される。   When shooting a subject with a video camera under the illumination of a blinking light source such as a fluorescent lamp that is turned on by a commercial AC power supply, the captured image is taken due to the difference between the luminance change (light quantity change) frequency of the light source and the vertical synchronization frequency of the camera. A change in light and dark over time, so-called fluorescent lamp flicker, occurs on the top. In particular, when an XY address scanning type imaging device such as a CMOS (Complementary Metal Oxide Semiconductor) type image sensor is used, the exposure timing for each horizontal line is different, and therefore flicker on the captured image is periodic in the vertical direction. It is observed as a striped pattern due to variations in brightness level or hue.

このようなフリッカの成分を撮像画像信号から除去するための手法としては、主に、シャッタスピードとフリッカレベルとの関連性に基づいて補正する方式(シャッタ補正方式と呼ぶ)と、フリッカ波形を検出してその逆波形を補正ゲインとして画像信号に適用する方式(ゲイン補正方式と呼ぶ)とが知られている。これらのうち、ゲイン補正方式によるフリッカ低減方法としては、画像信号の信号レベルの変化を周波数解析してフリッカ周波数のスペクトルを検出し、このスペクトルの振幅値に基づいて画像信号の信号レベルを補正する方法があった(例えば、特許文献1参照)。   As a method for removing such flicker components from the captured image signal, a correction method based on the relationship between the shutter speed and the flicker level (referred to as a shutter correction method) and a flicker waveform are detected. A method of applying the inverse waveform to the image signal as a correction gain (referred to as a gain correction method) is known. Of these, the flicker reduction method using the gain correction method detects the flicker frequency spectrum by analyzing the change in the signal level of the image signal, and corrects the signal level of the image signal based on the amplitude value of the spectrum. There was a method (for example, refer patent document 1).

図21は、従来のフリッカ検出手順を概略的に説明するための図である。
上記特許文献1に開示されたフリッカ検出手順は、図21に示すように、入力画像信号を適切な形に加工しながらフリッカ波形1周期分をサンプリングし(ステップS11)、このサンプリングデータに離散フーリエ変換(DFT:Discrete Fourier Transform)を施すことによって、フリッカ波形1周期を基本波とするフリッカ成分の周波数スペクトルを計算し(ステップS12)、そのスペクトルの低次項のみを利用してフリッカ波形を推定する(ステップS13)という3つのステップにより主に構成される。
FIG. 21 is a diagram for schematically explaining a conventional flicker detection procedure.
As shown in FIG. 21, the flicker detection procedure disclosed in Patent Document 1 samples one period of the flicker waveform while processing the input image signal into an appropriate shape (step S11), and the sampling data is subjected to discrete Fourier transform. By performing transformation (DFT: Discrete Fourier Transform), the frequency spectrum of the flicker component having one period of the flicker waveform as a fundamental wave is calculated (step S12), and the flicker waveform is estimated using only the low-order term of the spectrum. It is mainly composed of three steps (step S13).

ここで、フリッカ波形をサンプリングするステップS11では、具体的には、画像信号を例えば水平方向のラインごとに順次積分することで、絵柄の影響を少なくしている。また、ステップS12でDFTを行うにあたり、複数フィールドに亘る積分値の平均値を求め、その平均値で積分値を正規化することで、画面領域内のフリッカによる輝度変化および色変化を同一に合わせている。このような処理により、被写体や画像信号レベルに関係なく、フリッカ波形を正確に検出できるようになっている。   Here, in step S11 for sampling the flicker waveform, specifically, the influence of the pattern is reduced by sequentially integrating the image signal, for example, for each line in the horizontal direction. Further, when performing DFT in step S12, an average value of integral values over a plurality of fields is obtained, and the integral value is normalized by the average value so that the luminance change and color change due to flicker in the screen area are matched. ing. By such processing, the flicker waveform can be accurately detected regardless of the subject and the image signal level.

ところで、近年では、ビデオカメラなどに搭載される撮像素子の画素数が急速に増加しており、水平方向のライン数は数百から数千に達している。このため、上記の1周期分のフリッカ波形のサンプリング時に各ラインの積分値をすべて利用すると、それらの積分値を一時的に保持するためのメモリやDFT演算回路などの回路規模が大きくなってしまう。   By the way, in recent years, the number of pixels of an image sensor mounted on a video camera or the like is rapidly increasing, and the number of horizontal lines has reached several hundred to several thousand. For this reason, if all the integral values of each line are used when sampling the flicker waveform for one period, the circuit scale of a memory or a DFT arithmetic circuit for temporarily holding those integral values becomes large. .

これに対して、蛍光灯によるフリッカ波形の周期は、例えばNTSC方式(National Television Standards Committee)の場合には1垂直同期期間未満となり、フリッカは1画面上に数本の縞として現れる。このため、サンプリング定理から考えると、1周期分のフリッカ波形に対応するLラインによるサンプリング点数は冗長であり、例えば1周期分のフリッカ波形を数十点程度(例えば64点)サンプリングできれば十分な検出精度が得られる。従って、実際のフリッカ検出では、1周期分のフリッカ波形のサンプリングを垂直方向に間引きして行うようにして、回路規模の削減を図っている。   On the other hand, the flicker waveform period of the fluorescent lamp is less than one vertical synchronization period in, for example, the NTSC system (National Television Standards Committee), and the flicker appears as several stripes on one screen. For this reason, considering from the sampling theorem, the number of sampling points by the L line corresponding to the flicker waveform for one period is redundant. For example, it is sufficient to detect about several tens of points (for example, 64 points) of the flicker waveform for one period. Accuracy is obtained. Therefore, in the actual flicker detection, the circuit scale is reduced by sampling the flicker waveform for one period by decimation in the vertical direction.

図22は、サンプリングしたデータを間引く場合のフリッカ検出手順を概略的に説明するための図である。
この図22では、まず図21のステップS11と同様に、入力画像信号からフリッカ波形の1周期分、すなわちLライン分をサンプリングする(ステップS21)。次に、L点分のサンプリングデータを、L≫L1を満たすL1点に間引いて出力する(ステップS22)。間引き処理としては、例えば単純に所定間隔に1つずつ出力する、あるいは一定数のデータを基にLPF(Low Pass Filter)などの演算により1つのデータを出力するといった方法を採ることができる。その後は図21の場合と同様で、L1点のサンプリングデータをDFT処理し(ステップS23)、周波数解析の結果からフリッカ波形を推定する(ステップS24)。このような処理により、DFTの実行のためにサンプリングデータを保持するメモリの容量などを削減できる。
FIG. 22 is a diagram for schematically explaining the flicker detection procedure when the sampled data is thinned out.
In FIG. 22, first, similarly to step S11 of FIG. 21, one cycle of the flicker waveform, that is, L lines is sampled from the input image signal (step S21). Next, sampling data for L points are thinned out and output to L1 points satisfying L >> L1 (step S22). As the thinning process, for example, a method of simply outputting one by one at a predetermined interval or outputting one data by an operation such as LPF (Low Pass Filter) based on a certain number of data can be employed. Thereafter, as in the case of FIG. 21, DFT processing is performed on the sampling data at point L1 (step S23), and the flicker waveform is estimated from the result of the frequency analysis (step S24). By such processing, it is possible to reduce the capacity of a memory that holds sampling data for executing DFT.

特開2004−222228号公報(段落番号〔0072〕〜〔0111〕、図4)JP 2004-222228 A (paragraph numbers [0072] to [0111], FIG. 4)

ところで、上記のフリッカ検出手法では、サンプリング定理に基づき、フリッカ波形のサンプリング単位をちょうど1周期分とすることで、フリッカ波形の正確な検出を可能としていた。しかし、一定の割合でラインを間引いてサンプリングした場合に、L/L1の値が整数にならないときには、フリッカ波形の1周期分と同一の期間を正確にサンプリングすることができなくなる。このため、このような場合のサンプリング値から得られる周波数スペクトル列は、本来のフリッカ波形を1周期の正弦波でフーリエ級数展開したものとは異なるものとなり、検波誤差が生じてしまう。   By the way, in the above-described flicker detection method, the flicker waveform can be accurately detected by setting the sampling unit of the flicker waveform to exactly one cycle based on the sampling theorem. However, when sampling is performed by thinning lines at a constant rate, if the value of L / L1 does not become an integer, it is impossible to accurately sample the same period as one cycle of the flicker waveform. For this reason, the frequency spectrum sequence obtained from the sampling value in such a case is different from the original flicker waveform obtained by Fourier series expansion with a sine wave of one cycle, and a detection error occurs.

このような検波誤差を防止するためには、使用する撮像素子のライン数に応じて最適な間引き単位となるように回路を設計する必要がある。しかし近年では、開発コストの削減などを目的として、多種の製品に対して共通に利用できる、あるいは将来の仕様変更にも簡単に対応できる回路が要求されており、フリッカ検出の回路に対しても同様な要求がある。すなわち、撮像素子の画素数が異なる製品に対しても、回路構成を大きく変更することなく、上記のような検波誤差が生じないようにできるフリッカ検出回路が求められていた。   In order to prevent such a detection error, it is necessary to design a circuit so as to be an optimum thinning unit according to the number of lines of the image sensor to be used. However, in recent years, there has been a demand for a circuit that can be used in common for various products for the purpose of reducing development costs, or that can easily cope with future specification changes. There are similar requirements. That is, there has been a demand for a flicker detection circuit capable of preventing the detection error as described above without greatly changing the circuit configuration even for products having different numbers of pixels of the image sensor.

本発明はこのような点に鑑みてなされたものであり、XYアドレス走査型の固体撮像素子で撮像された画像のフリッカ成分を高精度に除去できる、汎用性の高い画像処理装置を提供することを目的とする。   The present invention has been made in view of these points, and provides a highly versatile image processing apparatus that can remove flicker components of an image captured by an XY address scanning type solid-state imaging device with high accuracy. With the goal.

また、本発明の他の目的は、XYアドレス走査型の固体撮像素子で撮像した画像のフリッカ成分を高精度に除去できる撮像装置を提供することである。   Another object of the present invention is to provide an imaging apparatus capable of removing flicker components of an image captured by an XY address scanning type solid-state imaging device with high accuracy.

本発明では上記課題を解決するために、入力画像信号を1水平同期期間以上の単位で積分する積分手段と、積分手段による積分値、または隣接するフィールドもしくはフレームにおける積分値の差分値を、正規化する正規化手段と、フリッカの所定周期分の期間にあらかじめ規定された一定数のサンプリング位置に対応するデータを、正規化手段による正規化後の積分値または差分値を基に補間して生成し、当該サンプリング位置に対応するデータを画像信号として出力する補間処理手段と、補間処理手段により生成された画像信号を解析することによりスペクトルを抽出する周波数解析手段と、周波数解析手段により抽出されたスペクトルからフリッカ成分を推定するフリッカ推定手段と、フリッカ推定手段により推定されたフリッカ成分から、入力画像信号と位相が等しく、かつライン数が等しい補正用のフリッカ成分を生成する補正用フリッカ成分生成手段と、補正用のフリッカ成分により入力画像信号からフリッカ成分を除去する画像補正手段と、を有することを特徴とする画像処理装置が提供される。 In the present invention, in order to solve the above-described problem, an integration unit that integrates an input image signal in units of one horizontal synchronization period or more, an integration value by the integration unit, or a difference value between integration values in adjacent fields or frames is normalized. Normalization means to generate and data corresponding to a predetermined number of sampling positions defined in advance for a predetermined period of flicker are generated by interpolation based on the integral value or difference value after normalization by the normalization means Then, the interpolation processing means for outputting data corresponding to the sampling position as an image signal, the frequency analysis means for extracting the spectrum by analyzing the image signal generated by the interpolation processing means, and the frequency analysis means Flicker estimation means for estimating flicker components from spectrum, and flicker components estimated by flicker estimation means A correction flicker component generation unit that generates a correction flicker component having the same phase and the same number of lines as the input image signal, and an image correction unit that removes the flicker component from the input image signal by the correction flicker component. , An image processing apparatus is provided.

このような画像処理装置では、積分手段で入力画像信号を1水平同期期間以上の単位で積分され、正規化手段で積分手段による積分値、または隣接するフィールドもしくはフレームにおける積分値の差分値が正規化される。補間処理手段によって、フリッカの所定周期分の期間にあらかじめ規定された一定数のサンプリング位置に対応するデータを、正規化手段による正規化後の積分値または差分値を基に補間して生成し、当該サンプリング位置に対応するデータである画像信号が生成される。その後、補間処理手段からの画像信号のスペクトルが周波数解析手段により抽出され、抽出されたスペクトルから、フリッカ推定手段によりフリッカ成分が推定される。そして、補正用フリッカ成分生成手段によって補正用のフリッカ成分が生成され、画像補正手段によって入力画像信号からフリッカ成分が除去される。 In such an image processing apparatus, the input image signal is integrated by a unit of one horizontal synchronization period or more by the integration means, and the integration value by the integration means or the difference value of the integration values in adjacent fields or frames is normalized by the normalization means. It becomes. Interpolation means generates data corresponding to a predetermined number of sampling positions defined in advance for a period of a predetermined period of flicker by interpolating based on the integral value or difference value after normalization by the normalization means, An image signal which is data corresponding to the sampling position is generated. Thereafter, the spectrum of the image signal from the interpolation processing means is extracted by the frequency analysis means, and the flicker component is estimated from the extracted spectrum by the flicker estimation means. Then, a correction flicker component is generated by the correction flicker component generation means, and the flicker component is removed from the input image signal by the image correction means.

本発明の画像処理装置によれば、フリッカ成分の検出性能を安定的に向上させることができる。従って、フリッカ除去性能が向上した汎用性の高い画像処理装置を実現できる。 According to the image processing apparatus of the present invention, it is possible to stably improve the detection performance of the flicker component. Therefore, a highly versatile image processing apparatus with improved flicker removal performance can be realized.

本発明の第1の実施の形態に係る撮像装置の要部構成を示すブロック図である。1 is a block diagram illustrating a main configuration of an imaging apparatus according to a first embodiment of the present invention. フリッカについて説明するための図である。It is a figure for demonstrating flicker. 第1の実施の形態に係るフリッカ低減部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the flicker reduction part which concerns on 1st Embodiment. サンプリングデータの間引き処理の例について説明するための図である。It is a figure for demonstrating the example of the thinning-out process of sampling data. サンプリング期間がフリッカ波形1周期と一致する場合の間引き処理の様子を模式的に示す図である。It is a figure which shows typically the mode of the thinning-out process when a sampling period corresponds with 1 period of flicker waveforms. サンプリング期間がフリッカ波形1周期に満たない場合の間引き処理の様子を模式的に示す図である。It is a figure which shows typically the mode of the thinning-out process when a sampling period is less than 1 period of a flicker waveform. サンプリング期間がフリッカ波形1周期を超過する場合の間引き処理の様子を模式的に示す図である。It is a figure which shows typically the mode of the thinning-out process when a sampling period exceeds one period of flicker waveforms. サンプリング期間がフリッカ波形1周期に一致するように利用するデータ点数を減らした場合の間引き処理の様子を模式的に示す図である。It is a figure which shows typically the mode of the thinning-out process when the number of data points used is reduced so that a sampling period may correspond to 1 period of flicker waveforms. サンプリング期間がフリッカ波形1周期と一致しない場合のDFT処理について説明するための図である。It is a figure for demonstrating the DFT process in case a sampling period does not correspond with one period of flicker waveforms. 積分処理部の第1の構成例を示すブロック図である。It is a block diagram which shows the 1st structural example of an integration process part. 図10の積分処理部の動作を説明するための図である。It is a figure for demonstrating operation | movement of the integration process part of FIG. V方向間引き演算部の内部構成例を示す図である。It is a figure which shows the internal structural example of a V direction thinning-out calculating part. 積分処理部の第2の構成例を示すブロック図である。It is a block diagram which shows the 2nd structural example of an integration process part. 図13の積分処理部の動作を説明するための図である。It is a figure for demonstrating operation | movement of the integration process part of FIG. 本発明の第2の実施の形態に係るフリッカ低減部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the flicker reduction part which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施の形態に係るフリッカ低減部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the flicker reduction part which concerns on the 3rd Embodiment of this invention. 推定成分補間処理部による補間演算を説明するための図である。It is a figure for demonstrating the interpolation calculation by an estimated component interpolation process part. 本発明の第4の実施の形態に係るフリッカ低減部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the flicker reduction part which concerns on the 4th Embodiment of this invention. 本発明の第5の実施の形態に係るフリッカ低減部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the flicker reduction part which concerns on the 5th Embodiment of this invention. 図19の推定成分補間処理部による補間演算を説明するための図である。It is a figure for demonstrating the interpolation calculation by the estimated component interpolation process part of FIG. 従来のフリッカ検出手順を概略的に説明するための図である。It is a figure for demonstrating schematically the conventional flicker detection procedure. サンプリングしたデータを間引く場合のフリッカ検出手順を概略的に説明するための図である。It is a figure for demonstrating roughly the flicker detection procedure in the case of thinning out the sampled data.

以下、本発明の実施の形態を図面を参照して詳細に説明する。
〔第1の実施の形態〕
<システム全体の構成>
図1は、本発明の第1の実施の形態に係る撮像装置の要部構成を示すブロック図である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[First Embodiment]
<System configuration>
FIG. 1 is a block diagram showing a main configuration of the imaging apparatus according to the first embodiment of the present invention.

図1に示す撮像装置は、光学ブロック11、ドライバ11a、CMOS型イメージセンサ(以下、CMOSセンサと略称する)12、タイミングジェネレータ(TG)12a、アナログフロントエンド(AFE)回路13、カメラ処理回路14、システムコントローラ15、入力部16、グラフィックI/F(インタフェース)17、およびディスプレイ17aを具備する。   1 includes an optical block 11, a driver 11a, a CMOS image sensor (hereinafter abbreviated as a CMOS sensor) 12, a timing generator (TG) 12a, an analog front end (AFE) circuit 13, and a camera processing circuit 14. , A system controller 15, an input unit 16, a graphic I / F (interface) 17, and a display 17a.

光学ブロック11は、被写体からの光をCMOSセンサ12に集光するためのレンズ、レンズを移動させてフォーカス合わせやズーミングを行うための駆動機構、シャッタ機構、アイリス機構などを具備している。ドライバ11aは、システムコントローラ15からの制御信号に基づいて、光学ブロック11内の各機構の駆動を制御する。   The optical block 11 includes a lens for condensing light from the subject on the CMOS sensor 12, a drive mechanism for moving the lens to perform focusing and zooming, a shutter mechanism, an iris mechanism, and the like. The driver 11 a controls driving of each mechanism in the optical block 11 based on a control signal from the system controller 15.

CMOSセンサ12は、CMOS基板上に、フォトダイオード(フォトゲート)、転送ゲート(シャッタトランジスタ)、スイッチングトランジスタ(アドレストランジスタ)、増幅トランジスタ、リセットトランジスタ(リセットゲート)などからなる複数の画素が2次元状に配列されて形成されるとともに、垂直走査回路、水平走査回路、画像信号の出力回路などが形成されたものである。このCMOSセンサ12は、TG12aから出力されるタイミング信号に基づいて駆動され、被写体からの入射光を電気信号に変換する。TG12aは、システムコントローラ15の制御の下でタイミング信号を出力する。   In the CMOS sensor 12, a plurality of pixels including a photodiode (photogate), a transfer gate (shutter transistor), a switching transistor (address transistor), an amplification transistor, a reset transistor (reset gate), etc. are two-dimensionally formed on a CMOS substrate. And a vertical scanning circuit, a horizontal scanning circuit, an image signal output circuit, and the like are formed. The CMOS sensor 12 is driven based on a timing signal output from the TG 12a, and converts incident light from the subject into an electrical signal. The TG 12 a outputs a timing signal under the control of the system controller 15.

AFE回路13は、例えば1つのIC(Integrated Circuit)として構成され、CMOSセンサ12から出力された画像信号に対して、CDS(Correlated Double Sampling)処理によりS/N(Signal/Noise)比を良好に保つようにサンプルホールドを行い、さらにAGC(Auto Gain Control)処理により利得を制御し、A/D変換を行ってデジタル画像信号を出力する。なお、CDS処理を行う回路は、CMOSセンサ12と同一基板上に形成されてもよい。   The AFE circuit 13 is configured, for example, as one IC (Integrated Circuit), and improves the S / N (Signal / Noise) ratio with respect to the image signal output from the CMOS sensor 12 by CDS (Correlated Double Sampling) processing. The sample is held so as to be maintained, the gain is controlled by AGC (Auto Gain Control) processing, A / D conversion is performed, and a digital image signal is output. Note that the circuit for performing the CDS process may be formed on the same substrate as the CMOS sensor 12.

カメラ処理回路14は、例えば1つのICとして構成され、AFE回路13からの画像信号に対するAF(Auto Focus)、AE(Auto Exposure)、ホワイトバランス調整などの各種カメラ信号処理、またはその処理の一部を実行する。本実施の形態では特に、蛍光灯下の撮像時に画面に生じるフリッカの信号成分を画像信号から低減するフリッカ低減部20を備えている。   The camera processing circuit 14 is configured as, for example, one IC, and performs various camera signal processes such as AF (Auto Focus), AE (Auto Exposure), and white balance adjustment on the image signal from the AFE circuit 13, or a part of the process. Execute. In the present embodiment, in particular, a flicker reducing unit 20 is provided that reduces the flicker signal component generated on the screen during imaging under a fluorescent lamp from the image signal.

システムコントローラ15は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などから構成されるマイクロコントローラであり、ROMなどに記憶されたプログラムを実行することにより、この撮像装置の各部を統括的に制御する。   The system controller 15 is a microcontroller composed of, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and by executing a program stored in the ROM or the like, Each part of this imaging apparatus is controlled in an integrated manner.

入力部16は、例えばシャッタレリーズボタンなどの各種操作キーやレバー、ダイヤルなどにより構成され、ユーザによる入力操作に応じた制御信号をシステムコントローラ15に出力する。   The input unit 16 includes various operation keys such as a shutter release button, a lever, a dial, and the like, and outputs a control signal according to an input operation by the user to the system controller 15.

グラフィックI/F17は、カメラ処理回路14からシステムコントローラ15を介して供給された画像信号から、ディスプレイ17aに表示させるための画像信号を生成して、この信号をディスプレイ17aに供給し、画像を表示させる。ディスプレイ17aは、例えばLCD(Liquid Crystal Display)からなり、撮像中のカメラスルー画像や図示しない記録媒体に記録されたデータに基づく再生画像などを表示する。   The graphic I / F 17 generates an image signal to be displayed on the display 17a from the image signal supplied from the camera processing circuit 14 via the system controller 15, and supplies this signal to the display 17a to display an image. Let The display 17a is composed of, for example, an LCD (Liquid Crystal Display), and displays a camera-through image being captured, a reproduced image based on data recorded on a recording medium (not shown), and the like.

この撮像装置では、CMOSセンサ12によって受光されて光電変換された信号が、順次AFE回路13に供給され、CDS処理やAGC処理が施された後、デジタル信号に変換される。カメラ処理回路14は、AFE回路13から供給されたデジタル画像信号を画質補正処理し、最終的に輝度信号(Y)と色差信号(R−Y,B−Y)に変換して出力する。   In this image pickup apparatus, the signals received and photoelectrically converted by the CMOS sensor 12 are sequentially supplied to the AFE circuit 13, subjected to CDS processing and AGC processing, and then converted into digital signals. The camera processing circuit 14 performs image quality correction processing on the digital image signal supplied from the AFE circuit 13, and finally converts the digital image signal into a luminance signal (Y) and a color difference signal (RY, BY) and outputs the result.

カメラ処理回路14から出力された画像データは、システムコントローラ15を介してグラフィックI/F17に供給されて表示用の画像信号に変換され、これによりディスプレイ17aにカメラスルー画像が表示される。また、入力部16からのユーザの入力操作などによりシステムコントローラ15に対して画像の記録が指示されると、カメラ処理回路14からの画像データは図示しないエンコーダに供給され、所定の圧縮符号化処理が施されて図示しない記録媒体に記録される。静止画像の記録の際には、カメラ処理回路14からは1フレーム分の画像データがエンコーダに供給され、動画像の記録の際には、カメラ処理回路14で処理された画像データがエンコーダに連続的に供給される。   The image data output from the camera processing circuit 14 is supplied to the graphic I / F 17 via the system controller 15 and converted into a display image signal, whereby a camera-through image is displayed on the display 17a. Further, when image recording is instructed to the system controller 15 by a user input operation from the input unit 16, the image data from the camera processing circuit 14 is supplied to an encoder (not shown), and a predetermined compression encoding process is performed. Is recorded on a recording medium (not shown). At the time of recording a still image, image data for one frame is supplied from the camera processing circuit 14 to the encoder, and at the time of recording a moving image, the image data processed by the camera processing circuit 14 is continuously transmitted to the encoder. Supplied.

<フリッカ低減処理の基本手順>
図2は、フリッカについて説明するための図である。
フリッカは、蛍光灯などの点滅する光源下で撮影した場合に発生し、CMOSセンサなどのXYアドレス走査型の撮像素子により撮像した場合には、図2(A)のように、垂直方向の周期的な輝度レベルや色相の変動として観察される。なお、この図2(A)は、被写体が一様である場合にフリッカが明暗の縞模様として現れた状態を示している。また、図2(B)では、このような明暗の繰り返しを波形(フリッカ波形)として表している。
<Basic procedure for flicker reduction processing>
FIG. 2 is a diagram for explaining flicker.
Flicker occurs when shooting is performed under a blinking light source such as a fluorescent lamp. When an image is captured by an XY address scanning type imaging device such as a CMOS sensor, the vertical period is as shown in FIG. It is observed as a change in luminance level and hue. FIG. 2A shows a state in which flicker appears as a bright and dark stripe pattern when the subject is uniform. In FIG. 2B, such light and dark repetitions are represented as waveforms (flicker waveforms).

例えば周波数50Hzの商用交流電源による蛍光灯では点滅周波数が100Hzであることから、フィールド周波数60HzによるNTSC方式のビデオ信号では、垂直ブランキング期間を含めた1フィールド当たりの読み出しライン数をMとすると、1周期分のフリッカ波形に対応するライン数Lは(M×60/100)ラインとなる。また、1フィールドでこのような周期的な変動は、100/60=1.66周期発生する。すなわち、このような周期的な変動は3フィールドごとに繰り返される。以下の説明では、このような条件下でフリッカが発生した場合を想定する。   For example, a fluorescent lamp with a commercial alternating current power supply with a frequency of 50 Hz has a blinking frequency of 100 Hz. Therefore, in an NTSC video signal with a field frequency of 60 Hz, if the number of readout lines per field including the vertical blanking period is M, The number L of lines corresponding to the flicker waveform for one cycle is (M × 60/100) lines. In addition, such periodic fluctuation in one field occurs 100/60 = 1.66 period. That is, such a periodic variation is repeated every three fields. In the following description, it is assumed that flicker occurs under such conditions.

図3は、第1の実施の形態に係るフリッカ低減部の内部構成を示すブロック図である。
フリッカ低減部20は、画像信号を検波し、その検波値を正規化して出力する正規化積分値算出部110と、正規化された検波値にDFT処理を施すDFT処理部120と、DFTによるスペクトル解析の結果からフリッカ成分を推定するフリッカ生成部130と、推定されたフリッカ成分を画像信号から除去するための演算を実行する演算部140とを具備する。また、正規化積分値算出部110は、積分処理部111、積分値保持部112、平均値演算部113、差分演算部114、および正規化処理部115を具備する。
FIG. 3 is a block diagram illustrating an internal configuration of the flicker reducing unit according to the first embodiment.
The flicker reduction unit 20 detects an image signal, normalizes the detection value, outputs a normalized integral value calculation unit 110, performs a DFT process on the normalized detection value, and a DFT spectrum. A flicker generation unit 130 that estimates a flicker component from the analysis result, and a calculation unit 140 that executes a calculation for removing the estimated flicker component from the image signal are provided. In addition, the normalized integral value calculation unit 110 includes an integration processing unit 111, an integration value holding unit 112, an average value calculation unit 113, a difference calculation unit 114, and a normalization processing unit 115.

積分処理部111は、入力された画像信号を積分することで、1周期分のフリッカ波形をサンプリングするブロックである。この積分処理部111は、ライン積分器210および間引き処理部220を具備する。ライン積分器210は、入力された画像信号をラインごとに積分する。間引き処理部220は、後述するように、フリッカ波形の1周期分に対応するLライン分の積分結果を、あらかじめ決められたサンプリング点数L1(L≫L1)に間引いて出力する。   The integration processing unit 111 is a block that samples a flicker waveform for one period by integrating an input image signal. The integration processing unit 111 includes a line integrator 210 and a thinning processing unit 220. The line integrator 210 integrates the input image signal for each line. As will be described later, the thinning processing unit 220 thins out and outputs the integration result for L lines corresponding to one cycle of the flicker waveform to a predetermined number of sampling points L1 (L >> L1).

積分値保持部112は、2フィールド分の積分値を一時的に保持する。平均値演算部113は、連続する3フィールドにおける積分値を平均化する。差分演算部114は、連続する2フィールドにおける積分値の差分を算出する。正規化処理部115は、算出された差分値を正規化する。   The integral value holding unit 112 temporarily holds integral values for two fields. The average value calculation unit 113 averages the integral values in three consecutive fields. The difference calculation unit 114 calculates the difference between the integral values in two consecutive fields. The normalization processing unit 115 normalizes the calculated difference value.

DFT処理部120は、正規化された差分値にDFTを施して周波数解析し、フリッカ成分の振幅および初期位相を推定する。フリッカ生成部130は、周波数解析による推定値から、画像信号に含まれるフリッカ成分の割合を示す補正係数を算出する。演算部140は、算出された補正係数に基づいて、画像信号からフリッカ成分を除去するための演算を行う。   The DFT processing unit 120 performs DFT on the normalized difference value and performs frequency analysis to estimate the flicker component amplitude and initial phase. The flicker generation unit 130 calculates a correction coefficient indicating the ratio of flicker components included in the image signal from the estimated value obtained by frequency analysis. The calculation unit 140 performs a calculation for removing the flicker component from the image signal based on the calculated correction coefficient.

なお、上記各ブロックによる処理の少なくとも一部は、システムコントローラ15でのソフトウェア処理により実行されてもよい。また、本実施の形態に係る撮像装置では、画像信号を構成する輝度信号、色差信号ごとに、この図3に示すブロックによる処理が実行される。あるいは、少なくとも輝度信号について実行し、必要に応じて色差信号、各色信号について実行するようにしてもよい。また、輝度信号については、輝度信号に合成する前の色信号の段階で実行してもよく、またこの色信号の段階における処理では、原色による色信号、補色による色信号のいずれの段階で実行してもよい。これらの色信号について実行する場合には、色信号ごとにこの図3に示すブロックによる処理が実行される。   Note that at least a part of the processing by each of the blocks may be executed by software processing in the system controller 15. Further, in the imaging apparatus according to the present embodiment, the processing by the block shown in FIG. 3 is executed for each of the luminance signal and color difference signal constituting the image signal. Alternatively, it may be executed for at least the luminance signal, and may be executed for the color difference signal and each color signal as necessary. The luminance signal may be executed at the stage of the color signal before being synthesized with the luminance signal, and the process at this stage of the color signal is executed at any stage of the color signal by the primary color or the color signal by the complementary color. May be. When these color signals are executed, processing by the block shown in FIG. 3 is executed for each color signal.

以下、この図3を用いて、フリッカの検出および低減の処理について説明する。
一般にフリッカ成分は、被写体の信号強度に比例する。そこで、一般の被写体についての任意のサンプリング期間nおよび任意の画素(x,y)における入力画像信号(フリッカ低減前のRGB原色信号または輝度信号)をIn’(x,y)とすると、In’(x,y)は、フリッカ成分を含まない信号成分と、これに比例したフリッカ成分との和として、次式(1)で表される。
In’(x,y)=[1+Γn(y)]×In(x,y) ……(1)
ここで、In(x,y)は信号成分であり、Γn(y)×In(x,y)はフリッカ成分であり、Γn(y)はフリッカ係数である。蛍光灯の発光周期(1/100秒)に比べて1水平周期は十分短く、同一フィールドの同一ラインではフリッカ係数は一定と見なすことができるので、フリッカ係数はΓn(y)で表す。
Hereinafter, flicker detection and reduction processing will be described with reference to FIG.
In general, the flicker component is proportional to the signal intensity of the subject. Therefore, if an input image signal (RGB primary color signal or luminance signal before flicker reduction) in an arbitrary sampling period n and an arbitrary pixel (x, y) for a general subject is In ′ (x, y), In ′ (X, y) is expressed by the following equation (1) as a sum of a signal component not including a flicker component and a flicker component proportional to the signal component.
In ′ (x, y) = [1 + Γn (y)] × In (x, y) (1)
Here, In (x, y) is a signal component, Γn (y) × In (x, y) is a flicker component, and Γn (y) is a flicker coefficient. One horizontal period is sufficiently shorter than the light emission period (1/100 second) of the fluorescent lamp, and the flicker coefficient can be regarded as constant in the same line of the same field, so the flicker coefficient is represented by Γn (y).

Γn(y)を一般化するために、次式(2)に示すように、フーリエ級数に展開した形式で記述する。これによって、蛍光灯の種類によって異なる発光特性および残光特性を全て網羅した形式でフリッカ係数を表現することができる。   In order to generalize Γn (y), it is described in a form expanded to a Fourier series as shown in the following equation (2). Thus, the flicker coefficient can be expressed in a format that covers all the light emission characteristics and afterglow characteristics that differ depending on the type of fluorescent lamp.

Figure 0005088361
Figure 0005088361

式(2)中のλ0はフリッカ波形の波長であり、1フィールド当たりの読み出しライン数をMとすると、L(=M×FPS/100)ラインに相当する。ω0は、λ0で正規化された規格化角周波数である。   In equation (2), λ0 is the wavelength of the flicker waveform, and when the number of read lines per field is M, it corresponds to L (= M × FPS / 100) lines. ω0 is a normalized angular frequency normalized by λ0.

γmは、各次(m=1,2,3‥)のフリッカ成分の振幅である。Φm,nは、各次のフリッカ成分の初期位相を示し、蛍光灯の発光周期(1/100秒)と露光タイミングによって決まる。ただし、Φm,nは3フィールドごとに同じ値になるので、直前のフィールドとの間のΦm,nの差は、次式(3)で表される。   γm is the amplitude of each flicker component (m = 1, 2, 3,...). Φm, n indicates the initial phase of each next flicker component, and is determined by the light emission period (1/100 second) of the fluorescent lamp and the exposure timing. However, since Φm, n has the same value every three fields, the difference of Φm, n from the previous field is expressed by the following equation (3).

Figure 0005088361
Figure 0005088361

図3に示したフリッカ低減部20では、まず、フリッカ検出用に絵柄の影響を少なくするために、積分処理部111が、入力画像信号In’(x,y)を式(4)に示すように画面水平方向に1ライン単位で積分し、積分値Fn(y)を算出する。ただし、ここで出力される積分値Fn(y)は、Lライン分の積分値を一定のL1ライン分に間引いて出力したものである。なお、式(4)中のαn(y)は、式(5)で表されるように、信号成分In(x,y)の1ライン分に亘る積分値である。 In the flicker reduction unit 20 shown in FIG. 3, first, in order to reduce the influence of the picture for flicker detection, the integration processing unit 111 shows the input image signal In ′ (x, y) as shown in Expression (4). Are integrated in units of one line in the horizontal direction of the screen to calculate an integrated value Fn (y). However, the integral value Fn (y) output here is an output obtained by thinning out the integral value for the L line to a certain L1 line. Note that α n (y) in the equation (4) is an integral value over one line of the signal component In (x, y) as represented by the equation (5).

Figure 0005088361
Figure 0005088361

積分処理部111から出力された積分値Fn(y)は、以後のフィールドでのフリッカ検出用に、積分値保持部112に一時的に記憶される。積分値保持部112は、少なくとも2フィールド分の積分値を保持できる構成とされる。   The integration value Fn (y) output from the integration processing unit 111 is temporarily stored in the integration value holding unit 112 for flicker detection in subsequent fields. The integral value holding unit 112 is configured to be able to hold integral values for at least two fields.

ところで、被写体が一様であれば、信号成分In(x,y)の積分値αn(y)が一定値となるので、入力画像信号In’(x,y)の積分値Fn(y)からフリッカ成分αn(y)×Γn(y)を抽出することは容易である。しかし、一般的な被写体では、αn(y)にもm×ω0成分が含まれるため、フリッカ成分としての輝度成分および色成分と、被写体自身の信号成分としての輝度成分および色成分とを分離することができず、純粋にフリッカ成分のみを抽出することはできない。さらに、式(4)の第1項の信号成分に対して第2項のフリッカ成分は非常に小さいので、フリッカ成分は信号成分中にほとんど埋もれてしまう。 By the way, if the subject is uniform, the integral value α n (y) of the signal component In (x, y) becomes a constant value, so the integral value Fn (y) of the input image signal In ′ (x, y). It is easy to extract the flicker component α n (y) × Γn (y) from However, in a general subject, α n (y) also includes an m × ω0 component, so that a luminance component and a color component as a flicker component and a luminance component and a color component as a signal component of the subject itself are separated. It is not possible to extract purely flicker components. Further, since the flicker component of the second term is very small with respect to the signal component of the first term of the equation (4), the flicker component is almost buried in the signal component.

そこで、このフリッカ低減部20では、積分値Fn(y)からαn(y)の影響を取り除くために、連続する3フィールドにおける積分値を用いる。すなわち、この例では、積分値Fn(y)の算出時に、積分値保持部112から、1フィールド前の同じラインの積分値Fn_1(y)、および2フィールド前の同じラインの積分値Fn_2(y)が読み出され、平均値演算部113で、3つの積分値Fn(y),Fn_1(y),Fn_2(y)の平均値AVE[Fn(y)]が算出される。 Therefore, the flicker reducing unit 20 uses integral values in three consecutive fields in order to remove the influence of α n (y) from the integral value Fn (y). That is, in this example, when the integral value Fn (y) is calculated, the integral value Fn_1 (y) of the same line one field before and the integral value Fn_2 (y) of the same line two fields before are calculated from the integral value holding unit 112. ) Is read, and the average value calculation unit 113 calculates the average value AVE [Fn (y)] of the three integrated values Fn (y), Fn_1 (y), and Fn_2 (y).

ここで、連続する3フィールドの期間中の被写体をほぼ同一と見なすことができれば、αn(y)は同じ値と見なすことができる。被写体の動きが3フィールドの期間を通じて十分小さければ、この仮定は実用上問題ない。さらに、連続する3フィールドにおける積分値の平均値を演算することは、式(3)の関係から、フリッカ成分の位相が(−2π/3)×mずつ順次ずれた信号を加え合わせることになるので、結果的にフリッカ成分が打ち消されることになる。従って、平均値AVE[Fn(y)]は、次式(6)で表される。 Here, if the subjects in the period of three consecutive fields can be regarded as almost the same, α n (y) can be regarded as the same value. This assumption is not a problem in practice if the movement of the subject is sufficiently small over a period of three fields. Further, calculating the average value of the integral values in the three consecutive fields is based on the relationship of Expression (3), and adds the signals whose phases of the flicker components are sequentially shifted by (−2π / 3) × m. As a result, the flicker component is canceled out. Therefore, the average value AVE [Fn (y)] is expressed by the following equation (6).

Figure 0005088361
Figure 0005088361

ただし、以上の説明は、上記の式(7)の近似が成り立つものとして、連続する3フィールドにおける積分値の平均値を算出する場合についてであるが、被写体の動きが大きい場合には、式(7)の近似が成り立たなくなる。しかしこのような場合には、平均値化の処理に係る連続するフィールドの数を3の倍数に設定することにより、時間軸方向のローパスフィルタ作用により動きの影響を低減することができる。   However, the above explanation is about the case where the average value of the integral values in three consecutive fields is calculated on the assumption that the approximation of the above equation (7) holds, but when the subject motion is large, the equation (7) The approximation of 7) does not hold. However, in such a case, by setting the number of consecutive fields related to the averaging process to a multiple of 3, the influence of motion can be reduced by the low-pass filter action in the time axis direction.

図3のフリッカ低減部20は、式(7)の近似が成り立つものとした場合の構成である。この例では、さらに、差分演算部114が、積分処理部111からの当該フィールドでの積分値Fn(y)と、積分値保持部112からの1フィールド前での積分値Fn_1(y)との差分を計算し、次式(8)で表される差分値Fn(y)−Fn_1(y)を算出する。なお、式(8)も、式(7)の近似が成り立つことを前提としている。   The flicker reduction unit 20 in FIG. 3 has a configuration in the case where the approximation of Expression (7) is established. In this example, the difference calculation unit 114 further calculates the integration value Fn (y) in the field from the integration processing unit 111 and the integration value Fn_1 (y) one field before from the integration value holding unit 112. The difference is calculated, and a difference value Fn (y) −Fn_1 (y) expressed by the following equation (8) is calculated. Note that equation (8) also assumes that the approximation of equation (7) holds.

Figure 0005088361
Figure 0005088361

さらに、図3のフリッカ低減部20では、正規化処理部115が、差分演算部114からの差分値Fn(y)−Fn_1(y)を、平均値演算部113からの平均値AVE[Fn(y)]で除算することによって正規化する。   Further, in the flicker reduction unit 20 of FIG. 3, the normalization processing unit 115 uses the difference value Fn (y) −Fn — 1 (y) from the difference calculation unit 114 as the average value AVE [Fn ( Normalize by dividing by y)].

正規化後の差分値gn(y)は、上記の式(6),式(8)および三角関数の和積公式によって式(9)のように展開され、さらに式(3)の関係から式(10)で表される。なお、式(10)中の|Am|およびθmは、それぞれ式(11)および(12)で表される。   The normalized difference value gn (y) is expanded as shown in Expression (9) by the above-mentioned Formula (6), Expression (8) and the trigonometric product product formula. It is represented by (10). In addition, | Am | and θm in the equation (10) are represented by the equations (11) and (12), respectively.

Figure 0005088361
Figure 0005088361

なお、差分値Fn(y)−Fn_1(y)は、被写体の信号強度の影響が残るため、領域によってはフリッカによる輝度変化および色変化のレベルが異なってしまう。しかし、上記のように正規化することによって、全領域に亘ってフリッカによる輝度変化および色変化を同一レベルに合わせることができる。   Note that the difference value Fn (y) −Fn — 1 (y) remains affected by the signal strength of the subject, and therefore the level of luminance change and color change due to flicker differs depending on the region. However, by normalizing as described above, the luminance change and color change due to flicker can be matched to the same level over the entire region.

ここで、式(11)および(12)で表される|Am|およびθmは、それぞれ、正規化後の差分値gn(y)の、各次のスペクトルの振幅および初期位相であり、正規化後の差分値gn(y)をフーリエ変換して各次のスペクトルの振幅|Am|および初期位相θmを検出すれば、次式(13)および(14)によって、上記の式(2)に示した各次のフリッカ成分の振幅γmおよび初期位相Φm,nを求めることができる。   Here, | Am | and θm represented by the equations (11) and (12) are the amplitude and initial phase of each spectrum of the normalized difference value gn (y), respectively. If the subsequent difference value gn (y) is Fourier-transformed to detect the amplitude | Am | and the initial phase θm of each spectrum, the following equation (2) is obtained by the following equations (13) and (14). Further, the amplitude γm and the initial phase Φm, n of each subsequent flicker component can be obtained.

Figure 0005088361
Figure 0005088361

そこで、図3のフリッカ低減部20では、DFT処理部120が、正規化処理部115からの正規化後の差分値gn(y)の、フリッカ波形の1周期分(L1ライン分)に相当するデータを離散フーリエ変換する。   Therefore, in the flicker reduction unit 20 of FIG. 3, the DFT processing unit 120 corresponds to one cycle (L1 line) of the flicker waveform of the normalized difference value gn (y) from the normalization processing unit 115. Discrete Fourier transform the data.

DFT演算をDFT[gn(y)]とし、次数mのDFT結果をGn(m)とすれば、DFT演算は次式(15)で表される。ただし、式(15)中のWは式(16)で表される。このように、DFT演算のデータ長をフリッカ波形の1周期分(L1ライン分)に設定することで、規格化角周波数ω0の整数倍の離散スペクトル群を直接求めることができ、その分、演算処理を簡略化することができる。   If the DFT operation is DFT [gn (y)] and the DFT result of order m is Gn (m), the DFT operation is expressed by the following equation (15). However, W in Formula (15) is represented by Formula (16). In this way, by setting the data length of the DFT operation to one cycle of the flicker waveform (for the L1 line), it is possible to directly obtain a discrete spectrum group that is an integral multiple of the normalized angular frequency ω0. Processing can be simplified.

Figure 0005088361
Figure 0005088361

また、DFTの定義によって、式(11)および(12)と式(15)との関係は、それぞれ次式(17)および(18)で表される。   Moreover, the relationship between Formula (11) and (12) and Formula (15) is represented by following Formula (17) and (18) by the definition of DFT, respectively.

Figure 0005088361
Figure 0005088361

従って、式(13)(14)(17)(18)から、次式(19)および(20)によって各次のフリッカ成分の振幅γmおよび初期位相Φm,nを求めることができる。   Therefore, from the equations (13), (14), (17), and (18), the amplitude γm and the initial phase Φm, n of each next flicker component can be obtained by the following equations (19) and (20).

Figure 0005088361
Figure 0005088361

DFT処理部120は、まず、式(15)で定義されるDFT演算によってスペクトルを抽出し、その後、式(19)および(20)の演算によって各次のフリッカ成分の振幅γmおよび初期位相Φm,nを推定する。   The DFT processing unit 120 first extracts a spectrum by the DFT calculation defined by Expression (15), and then calculates the amplitude γm and the initial phase Φm of each next flicker component by the calculations of Expressions (19) and (20). n is estimated.

なお、デジタル信号処理におけるフーリエ変換としては、一般に、高速フーリエ変換(FFT)が用いられる。しかし、FFTではデータ長が2のべき乗であることが必要であることから、本実施の形態では、DFTにより周波数解析を行い、その分、データ処理を簡略化する。実際の蛍光灯照明下では、次数mを数次までに限定してもフリッカ成分を十分に近似できるので、DFT演算においてデータをすべて出力する必要はない。従って、FFTと比較して演算効率の点でデメリットはない。   In general, fast Fourier transform (FFT) is used as Fourier transform in digital signal processing. However, since FFT requires that the data length be a power of 2, in the present embodiment, frequency analysis is performed by DFT, and data processing is simplified accordingly. Under actual fluorescent lamp illumination, flicker components can be sufficiently approximated even if the order m is limited to several orders, so that it is not necessary to output all data in the DFT calculation. Therefore, there is no disadvantage in terms of calculation efficiency compared to FFT.

フリッカ生成部130は、DFT処理部120による振幅γmおよび初期位相Φm,nの推定値を用いて、上記の式(2)の演算処理を実行し、フリッカ成分を正しく反映しているフリッカ係数Γn(y)を算出する。なお、この式(2)の演算処理においても、実際の蛍光灯照明下では、総和次数を無限大でなく、あらかじめ定められた次数、例えば2次までに限定し、高次の処理を省略しても、実用上フリッカ成分を十分近似できる。   The flicker generation unit 130 uses the estimated value of the amplitude γm and the initial phase Φm, n by the DFT processing unit 120 to execute the calculation process of the above equation (2), and the flicker coefficient Γn that correctly reflects the flicker component (Y) is calculated. Even in the calculation processing of equation (2), under actual fluorescent lamp illumination, the total order is not infinite, but limited to a predetermined order, for example, the second order, and the higher order processing is omitted. However, the flicker component can be approximated sufficiently in practice.

ここで、上記の式(1)は、次式(21)のように変形することができる。この式(21)に基づき、演算部140は、フリッカ生成部130からのフリッカ係数Γn(y)に“1”を加算した後、この加算値により画像信号を除算することで、フリッカ成分を抑圧する。
In(x,y)=In’(x,y)/[1+Γn(y)] ……(21)
以上のフリッカ検出・低減処理によれば、積分値Fn(y)ではフリッカ成分が信号成分中に完全に埋もれてしまう、フリッカ成分が微少な黒の背景部分や低照度の部分などの領域でも、差分値Fn(y)−Fn_1(y)を算出し、これを平均値AVE[Fn(y)]で正規化することによって、フリッカ成分を高精度で検出することができる。
Here, said Formula (1) can be deform | transformed like following Formula (21). Based on this equation (21), the arithmetic unit 140 suppresses the flicker component by adding “1” to the flicker coefficient Γn (y) from the flicker generating unit 130 and then dividing the image signal by this added value. To do.
In (x, y) = In ′ (x, y) / [1 + Γn (y)] (21)
According to the above flicker detection / reduction processing, the flicker component is completely buried in the signal component with the integrated value Fn (y), even in a region such as a black background portion where the flicker component is minute or a portion with low illuminance, By calculating the difference value Fn (y) -Fn_1 (y) and normalizing it with the average value AVE [Fn (y)], the flicker component can be detected with high accuracy.

また、フリッカ係数Γnの算出にあたっては、次数を数次までに限定できるので、比較的簡易な処理でフリッカ検出を高精度化できる。なお、適当な次数までのスペクトルからフリッカ成分を推定することは、正規化後の差分値gn(y)を完全に再現しないで近似することになるが、これによって、かえって、被写体の状態によって正規化後の差分値gn(y)に不連続な部分を生じても、その部分のフリッカ成分を精度よく推定できることになる。   Further, in calculating the flicker coefficient Γn, since the order can be limited to several orders, flicker detection can be performed with high accuracy by a relatively simple process. Note that estimating the flicker component from the spectrum up to an appropriate order approximates the normalized difference value gn (y) without completely reproducing it. Even if a discontinuous part occurs in the difference value gn (y) after conversion, the flicker component of that part can be estimated with high accuracy.

なお、上記の処理では、差分値Fn(y)−Fn_1(y)を平均値AVE[Fn(y)]で正規化することで、有限の計算精度を効果的に確保することができた。しかし、例えば、要求される計算精度を満足できる場合には、積分値Fn(y)を直接、平均値AVE[Fn(y)]で正規化してもよい。   In the above process, the difference value Fn (y) −Fn — 1 (y) is normalized by the average value AVE [Fn (y)], thereby effectively ensuring a finite calculation accuracy. However, for example, when the required calculation accuracy can be satisfied, the integral value Fn (y) may be directly normalized by the average value AVE [Fn (y)].

また、平均値AVE[Fn(y)]の代わりに、積分値Fn(y)で正規化してもよい。この場合、フリッカ波形の周期と画面レートとの関係で、フリッカ波形が複数画面ごとの繰り返し性を持たなくなる場合でも、フリッカを高精度に検出してその成分を低減させることができる。   Further, normalization may be performed with the integral value Fn (y) instead of the average value AVE [Fn (y)]. In this case, even if the flicker waveform does not have repeatability for each of a plurality of screens due to the relationship between the flicker waveform cycle and the screen rate, the flicker can be detected with high accuracy and its components can be reduced.

<間引き処理の問題点>
次に、上記のフリッカ低減部20におけるサンプリングデータ(すなわち、積分処理部111における積分値)の間引き処理について説明する。
<Problem of thinning process>
Next, the thinning process of the sampling data (that is, the integration value in the integration processing unit 111) in the flicker reduction unit 20 will be described.

図3に示したフリッカ低減部20において、積分処理部111から出力される積分値Fn(y)は、平均値の演算のために少なくとも2フィールド分が積分値保持部112に蓄積される。この積分値保持部112の記憶容量は、サンプリング点数が増加するほど大きくなる。また、DFT処理部120では、演算に利用するデータ点数に応じて計算量や必要なパラメータ(回転因子など)が飛躍的に増加するため、このDFT処理をハードウェアあるいはソフトウェアのいずれで行う場合でも、サンプリング点数が増加するに従って回路規模や必要な演算能力が増大することは明白である。従って、システム規模の見地からすれば、積分処理部111によるサンプリング点数は少ない方が望ましい。   In the flicker reduction unit 20 shown in FIG. 3, at least two fields of the integration value Fn (y) output from the integration processing unit 111 are accumulated in the integration value holding unit 112 for calculating the average value. The storage capacity of the integrated value holding unit 112 increases as the number of sampling points increases. Further, in the DFT processing unit 120, the calculation amount and necessary parameters (such as a twiddle factor) increase dramatically according to the number of data points used for the calculation, so that this DFT processing can be performed by either hardware or software. Obviously, as the number of sampling points increases, the circuit scale and the required computing power increase. Therefore, from the viewpoint of the system scale, it is desirable that the number of sampling points by the integration processing unit 111 is small.

一方、フリッカ検出精度の見地からすれば、一般的にサンプリング点数が多いほど正確な信号処理が可能であり、上記のフリッカ検出手法でもこのことに変わりはない。しかし、現実的には、ラインごとのサンプリング間隔に対してフリッカ波形の周波数は十分小さいため、サンプリング定理から考えると、1周期分のフリッカ波形に対応するLライン分のサンプリングデータは点数として冗長である。特に、最近の撮像装置に搭載された撮像素子のライン数Mは数百〜数千というオーダーであるため、フリッカ波形1周期に相当するライン数Lも同様のオーダーとなる。これに対して、例えば周波数50Hzの商用交流電源による蛍光灯照明下で、フィールド周波数60HzのNTSC方式で撮像した場合、フリッカ波形は1画面に1.666本の縞となる。上記のフリッカ検出では、例えば1周期分のフリッカ波形を数十点程度(例えば64点)サンプリングできれば十分な検出精度が得られる。   On the other hand, from the viewpoint of flicker detection accuracy, generally, as the number of sampling points is larger, more accurate signal processing is possible, and the above-described flicker detection method does not change this. However, in reality, since the frequency of the flicker waveform is sufficiently small with respect to the sampling interval for each line, considering the sampling theorem, the sampling data for the L line corresponding to the flicker waveform for one period is redundant as a point. is there. In particular, since the number M of lines of an image sensor mounted on a recent image pickup apparatus is on the order of hundreds to thousands, the number L of lines corresponding to one cycle of the flicker waveform is also in the same order. On the other hand, for example, when an image is captured by the NTSC system with a field frequency of 60 Hz under fluorescent lamp illumination with a commercial AC power supply with a frequency of 50 Hz, the flicker waveform is 1.666 stripes on one screen. In the flicker detection described above, sufficient detection accuracy can be obtained if, for example, about several tens of points (for example, 64 points) of a flicker waveform for one cycle can be sampled.

そこで、積分処理部111では、ライン積分器210からのLライン分のサンプリングデータを、L≫L1となるL1点のサンプリングデータとして間引いて出力することで、後段の回路規模を削減している。ただし、当然ながらL1が大きいほど検出精度は向上するので、L1としては回路の設置面積や製造コストなどが許容される範囲内でできるだけ大きな値を選択することが望ましい。   Therefore, the integration processing unit 111 reduces the circuit scale of the subsequent stage by thinning and outputting the sampling data for L lines from the line integrator 210 as the sampling data of the L1 point where L >> L1. However, as L1 is naturally larger, the detection accuracy is improved. Therefore, it is desirable to select a value as large as possible within the range where the circuit installation area, the manufacturing cost, and the like are allowed.

次に、サンプリングデータを間引いた場合の問題点について説明する。ここでは、上記のフリッカ検出アルゴリズムの見地から、サンプリング点数と検出精度との関係を考える。   Next, problems when sampling data is thinned will be described. Here, from the viewpoint of the above flicker detection algorithm, the relationship between the number of sampling points and the detection accuracy is considered.

DFT処理の一般的な性質として、任意の波形をX点でサンプリングしたデータ列に対してDFT処理を行った場合に現れる離散的なスペクトル列は、サンプリング波形を“X点で1周期となる正弦波(余弦波)を基本波(m=1)”としてフーリエ級数展開した場合の各次数の成分に相当することが知られている。   As a general property of DFT processing, a discrete spectrum sequence that appears when DFT processing is performed on a data sequence obtained by sampling an arbitrary waveform at an X point is a sine whose sampling waveform is “one cycle at the X point. It is known that a wave (cosine wave) corresponds to a component of each order when Fourier series expansion is performed with a fundamental wave (m = 1) ”.

ここで、最も単純な例として、積分処理部111のライン積分器210で積分したLライン分の積分値を後段にそのまま渡す場合を考えると、DFT処理部120は、L点のサンプリングデータを1周期としてDFT処理を行い、フリッカ生成部130は低次の項のスペクトル(例えばm=1,2のみ)を利用してフリッカ波形を推定する。すなわち、この例では、フリッカ波形1周期に相当するLラインをL点でサンプリングしているため、DFTにより出力される各次数のスペクトルのそれぞれがそのまま“フリッカ波形をフリッカ波形1周期分の正弦波列でフーリエ級数展開した場合の各次数の成分に相当している”といえるので、適当な次数のスペクトル列のみを抽出してフーリエ級数展開の要領で書き下すだけで、容易にフリッカ波形を精度良く推定することができることになる。   Here, as a simplest example, when considering the case where the integration value for L lines integrated by the line integrator 210 of the integration processing unit 111 is passed to the subsequent stage as it is, the DFT processing unit 120 converts the sampling data of the L point to 1 DFT processing is performed as a period, and the flicker generation unit 130 estimates a flicker waveform using a spectrum of a low-order term (for example, only m = 1, 2). That is, in this example, since the L line corresponding to one cycle of the flicker waveform is sampled at the L point, each order spectrum output by the DFT is “the sine wave for one cycle of the flicker waveform as it is. This is equivalent to the component of each order when the Fourier series is expanded in a sequence. ”By extracting only the spectrum sequence of the appropriate order and writing it down in the manner of Fourier series expansion, the flicker waveform can be accurately obtained. It can be estimated well.

このようなアルゴリズムにおいて、サンプリングデータを間引いた場合について考える。図4は、サンプリングデータの間引き処理の例について説明するための図である。
この図4では、例として、データ点数を1/2にする場合の間引き処理を示している。図4(A)の手法は、ライン積分によるL点のサンプリングデータを単純に間引くことで、データ点数を削減するものであり、回路規模などを最も小さくできる。図4(B)の手法は、LPFを用いて複数点のサンプリングデータから新たなデータを演算により算出するものである。フリッカ波形の周波数はラインごとのサンプリング間隔より十分小さいので、例えばLPFを単純平均を行うものとした場合でも、検出したいフリッカ波形を鈍らせることにはならず、むしろノイズ成分を抑制することにつながるため、検出精度向上の効果も得られる。
Consider a case where sampling data is thinned out in such an algorithm. FIG. 4 is a diagram for explaining an example of sampling data thinning-out processing.
FIG. 4 shows a thinning process when the number of data points is halved as an example. The method of FIG. 4 (A) reduces the number of data points by simply thinning out sampling data of L points by line integration, and the circuit scale can be minimized. In the method of FIG. 4B, new data is calculated by calculation from sampling data at a plurality of points using LPF. Since the frequency of the flicker waveform is sufficiently smaller than the sampling interval for each line, for example, even when the LPF is subjected to simple averaging, the flicker waveform to be detected is not dulled but rather the noise component is suppressed. Therefore, the effect of improving detection accuracy can be obtained.

しかし、上記のフリッカ検出アルゴリズムは、1周期分のフリッカ波形に対応する期間で正確にサンプリングを行うことが前提となっていることから、以下で説明するように、条件によっては検出精度が低下してしまう場合がある。   However, since the flicker detection algorithm described above is premised on accurate sampling in a period corresponding to a flicker waveform for one cycle, as described below, the detection accuracy decreases depending on conditions. May end up.

図5は、サンプリング期間がフリッカ波形1周期と一致する場合の間引き処理の様子を模式的に示す図である。
この図5では、例として、1フィールドのライン数Mを1000、積分処理部111から出力される1フィールド当たりのサンプリング点数L1を100とすることが許容されたシステムにおける処理を示している。この場合、フリッカ波形1周期のライン数Lは、1000×60/100=600となるが、このLライン分のデータをシステムで許容されるL1点に間引くためには、間引き処理の種類に関係なく、間引きのデータ単位(以下、間引き単位と呼ぶ)Dは、L/L1=6となる。すなわち、何らかの間引き処理によりデータ点数をLからL1にする際の間引き単位Dを6にしておけば、システムが許容するL1点(=100点)のデータ(例えば割り当てられたメモリ領域内のデータ)をすべて活用して、フリッカ波形1周期分を正確にサンプリングすることができるため、上記のフリッカ検出アルゴリズムにより精度の高い検出を行うことができる。
FIG. 5 is a diagram schematically showing a thinning process when the sampling period coincides with one flicker waveform cycle.
FIG. 5 shows an example of processing in a system in which the number M of lines in one field is 1000 and the number of sampling points L1 per field output from the integration processing unit 111 is 100. In this case, the number L of lines in one cycle of the flicker waveform is 1000 × 60/100 = 600. In order to thin out the data for the L lines to the L1 point permitted by the system, the number of lines is related to the type of thinning processing. The thinning data unit (hereinafter referred to as the thinning unit) D is L / L1 = 6. That is, if the decimation unit D is set to 6 when the number of data points is changed from L to L1 by some decimation processing, data of L1 point (= 100 points) allowed by the system (for example, data in the allocated memory area) All of the above can be used to accurately sample one cycle of the flicker waveform, and therefore the above flicker detection algorithm can perform highly accurate detection.

これに対して、次に、システムが許容するサンプリング点数L1が100のままで、1フィールドのライン数Mを900とした場合について、図6〜図8を用いて説明する。
図6は、サンプリング期間がフリッカ波形1周期に満たない場合の間引き処理の様子を模式的に示す図である。また、図7は、サンプリング期間がフリッカ波形1周期を超過する場合の間引き処理の様子を模式的に示す図である。さらに、図8は、サンプリング期間がフリッカ波形1周期に一致するように利用するデータ点数を減らした場合の間引き処理の様子を模式的に示す図である。
On the other hand, the case where the number of sampling points L1 allowed by the system remains 100 and the number of lines M per field is 900 will be described with reference to FIGS.
FIG. 6 is a diagram schematically showing a thinning process when the sampling period is less than one flicker waveform cycle. FIG. 7 is a diagram schematically showing a thinning process when the sampling period exceeds one flicker waveform cycle. Further, FIG. 8 is a diagram schematically showing a thinning process when the number of data points used is reduced so that the sampling period matches one cycle of the flicker waveform.

ライン数Mが900のとき、フリッカ波形1周期のライン数Lは、900×60/100=540となるが、このLライン分のデータをシステムで許容されるL1点に間引くためには、間引き処理の種類に関係なく、間引き単位DをL/L1=5.4としなくてはならない。   When the number of lines M is 900, the number of lines L in one cycle of the flicker waveform is 900 × 60/100 = 540. In order to thin out the data for L lines to the L1 point allowed by the system, thinning is performed. Regardless of the type of processing, the thinning unit D must be L / L1 = 5.4.

しかし、間引き単位Dは整数である必要がある。このため、図6に示すように、例えば真のDの値に最も近い値として5を選択すると、システムで許容されたL1点のサンプリングデータをすべて出力したとしても、そのサンプリング期間は500(=5×100)ライン分となり、フリッカ波形1周期分のサンプリングを行うことができない。また、図7に示すように、間引き単位Dとして6を選択した場合、システムで許容されたL1点をすべてサンプリングしようとするためには600(=6×100)ライン分のサンプリングが行われてしまい、フリッカ波形1周期分を超えた期間のサンプリングデータを用いて以後の処理が実行されることになる。   However, the thinning unit D needs to be an integer. Therefore, as shown in FIG. 6, for example, if 5 is selected as the value closest to the true D value, even if all the sampling data of the L1 point allowed by the system is output, the sampling period is 500 (= 5 × 100) lines, and one cycle of flicker waveform cannot be sampled. Also, as shown in FIG. 7, when 6 is selected as the thinning unit D, sampling of 600 (= 6 × 100) lines is performed in order to sample all the L1 points allowed by the system. Therefore, the subsequent processing is executed using sampling data in a period exceeding one flicker waveform.

さらに、間引き単位Dとして6を選択し、間引き後のサンプリング点数L1を90とすると、図8に示すように、フリッカ波形1周期分の期間を正確にサンプリングすることができる。しかし、システムとして100点のデータのサンプリングが許容され、例えばそれに対応するメモリ領域などが用意されているにもかかわらず、それらのうち90点しか利用されないことになるので効率が悪い。当然ながら、このことを見込んで90点のデータのみを処理するシステムを構築しておけばよいが、それでは搭載可能な撮像素子の画素数が限定されてしまい、汎用性がなくなってしまう。また、一般的には、フリッカ波形1周期の期間を正確にサンプリングできるように、間引き単位Dとサンプリング点数L1とをうまく組み合わせてDを整数にすることは難しい。   Further, when 6 is selected as the thinning unit D and the number of sampling points L1 after thinning is 90, as shown in FIG. 8, a period corresponding to one flicker waveform can be sampled accurately. However, 100 points of data are allowed to be sampled as a system, and for example, only 90 points of them are used even though a corresponding memory area is prepared. Of course, it is only necessary to construct a system that processes only 90 points of data in anticipation of this, but this limits the number of pixels of the image sensor that can be mounted, and the versatility is lost. In general, it is difficult to make D an integer by properly combining the thinning unit D and the number of sampling points L1 so that the period of one flicker waveform can be accurately sampled.

図9は、サンプリング期間がフリッカ波形1周期と一致しない場合のDFT処理について説明するための図である。
前述したように、後段のDFT処理部120で得られるスペクトル列は、“サンプリング期間を1周期とする正弦波でフーリエ級数展開した場合の各次数の成分”に相当するため、上記のようにサンプリング期間がフリッカ波形1周期と一致しなかった場合には、得られるスペクトル列はもはや“フリッカ1周期”で展開したものとはいえない。
FIG. 9 is a diagram for describing DFT processing when the sampling period does not match one cycle of the flicker waveform.
As described above, the spectrum sequence obtained by the DFT processing unit 120 in the subsequent stage corresponds to “components of each order when Fourier series expansion is performed with a sine wave having a sampling period of one cycle”. If the period does not coincide with one cycle of the flicker waveform, the obtained spectrum sequence is no longer developed in “one cycle of flicker”.

図9の上段のように、フリッカ波形の1周期分をサンプリングできた場合には、図中破線枠で示したいわゆるDFT窓が本来のフリッカ波形1周期と一致し、DFT処理部120は、“上記破線枠内の波形が無限に繰り返される信号”という仮定下でのフーリエ変換を行う。すなわち、DFT窓を1周期とする正弦波のスペクトル列で窓内の信号を周波数軸上に展開する。   As shown in the upper part of FIG. 9, when one period of the flicker waveform can be sampled, a so-called DFT window indicated by a broken line in the figure coincides with one period of the original flicker waveform, and the DFT processing unit 120 The Fourier transform is performed under the assumption that the waveform in the broken line frame is repeated infinitely. That is, the signal in the window is developed on the frequency axis with a spectrum sequence of a sine wave having one cycle of the DFT window.

一方、図9の中段や下段に示すように、サンプリング期間がフリッカ1周期からずれた場合には、DFT窓の大きさが異なるものとなり、DFT処理部120は、“それぞれの破線枠内の波形が無限に繰り返される信号”という仮定下でのフーリエ変換を行う。このため、このような処理で得られるスペクトル列は、本来のフリッカ波形を1周期の正弦波でフーリエ級数展開したものとは異なる。このように、上記のフリッカ検出アルゴリズムでは、サンプリング期間がフリッカ波形1周期分と一致していない場合には、そのズレ量に応じた検波誤差が発生し、検出精度が低下するという問題があった。   On the other hand, as shown in the middle and lower stages of FIG. 9, when the sampling period deviates from one flicker cycle, the DFT window size is different. The Fourier transform is performed under the assumption that “the signal is repeated indefinitely”. For this reason, the spectrum sequence obtained by such processing is different from the one obtained by expanding the original flicker waveform by Fourier series expansion with a sine wave of one cycle. Thus, in the above flicker detection algorithm, when the sampling period does not coincide with one period of the flicker waveform, there is a problem that a detection error corresponding to the amount of deviation occurs and the detection accuracy is lowered. .

この問題を回避する方法としては、サンプリング点数L1を大幅に増やすことが考えられるが、その数が増えるほどシステム規模が増大してしまう。また、サンプリング点数L1と間引き単位Dとの組み合わせをうまく選択することで、上記問題をある程度回避することはできるが、システムが対応する複数のセンサバリエーション(すなわち1フィールドのライン数Mのバリエーション)のすべてに適切な解があるとは限らず、センサごとに性能にもバラツキが生じてしまうこともあり得る。   As a method for avoiding this problem, it is conceivable to significantly increase the number of sampling points L1, but the system scale increases as the number increases. Further, the above problem can be avoided to some extent by properly selecting the combination of the number of sampling points L1 and the thinning unit D, but a plurality of sensor variations corresponding to the system (that is, variations of the number of lines M in one field) can be avoided. Not all solutions have an appropriate solution, and there may be variations in performance from sensor to sensor.

これに加えて、上記のフリッカ検出アルゴリズムは、DFT処理に必要な回転因子の設定に関しても問題があった。DFT処理は一般に回転因子と呼ばれる正弦波(余弦波)を必要とするが、この回転因子の位相は通常、各サンプリングデータの位相と一致している必要がある。なお、高次項の検出を行うためには、その次数に応じた回転因子も必要である。   In addition, the flicker detection algorithm described above has a problem with respect to setting of a twiddle factor necessary for DFT processing. DFT processing generally requires a sine wave (cosine wave) called a twiddle factor, and the phase of this twiddle factor usually needs to match the phase of each sampling data. In order to detect high-order terms, a twiddle factor corresponding to the order is also necessary.

仮に1つのシステムで複数のセンサバリエーションに対応する場合、センサごとに最も1周期に近くなるようなL1およびDの組み合わせを選んだとしても、DFT処理はそれぞれに適切な回転因子を必要とするため、これらを例えばROMテーブルに設定しておいて読み込む、あるいは通信により読み込むなどして、DFT処理部120に設定する必要がある。このため、すべての検出次数分をセンサの対応数が増えるたびにすべて別々に用意しなくてはならず、システム規模や開発コストなどの観点から実用上大きな問題となっていた。   If a single system supports multiple sensor variations, even if a combination of L1 and D that is closest to one cycle is selected for each sensor, the DFT process requires an appropriate twiddle factor for each. These must be set in the DFT processing unit 120, for example, by setting them in the ROM table and reading them, or reading them by communication. For this reason, every detection order must be prepared separately each time the corresponding number of sensors increases, which is a practically significant problem from the viewpoint of system scale and development cost.

<積分処理部の構成例1>
図10は、積分処理部の第1の構成例を示すブロック図である。
図10に示す積分処理部111は、上述したように、ライン積分器210と間引き処理部220から構成され、間引き処理部220は、V方向間引き演算部221と、補間処理部222とを備えている。
<Configuration Example 1 of Integration Processing Unit>
FIG. 10 is a block diagram illustrating a first configuration example of the integration processing unit.
As described above, the integration processing unit 111 illustrated in FIG. 10 includes the line integrator 210 and the thinning processing unit 220. The thinning processing unit 220 includes the V-direction thinning calculation unit 221 and the interpolation processing unit 222. Yes.

ライン積分器210は、入力された画像信号をラインごとに積分し、全画面に亘る積分値、すなわち1フィールド当たりMライン分の積分値を間引き処理部220に出力する。V方向間引き演算部221は、入力されたラインごとの積分値のデータ点数を、1フィールド当たりMからL2になるように一定の間引き単位で間引き演算する。間引き演算の手法としては、後述するようなLPF間引きなどを適用できる。なお、演算ではなく、単純に入力データを一定数ごとに間引いて出力してもよい。この場合、ライン積分器210での積分タイミングを制御することで間引いてもよく、これにより回路構成を簡略化できる。補間処理部222は、間引いて出力されたL2点のサンプリングデータを基に、フリッカ波形1周期分の期間に正確に対応するL1点のサンプリングデータを補間して生成する。   The line integrator 210 integrates the input image signal for each line, and outputs an integral value over the entire screen, that is, an integral value for M lines per field to the thinning processing unit 220. The V direction decimation unit 221 decimates the number of data points of the input integral value for each line in a decimation unit so that M is L2 per field. As a thinning calculation method, LPF thinning as described later can be applied. In addition, instead of calculation, the input data may be simply thinned out every certain number and output. In this case, thinning may be performed by controlling the integration timing in the line integrator 210, thereby simplifying the circuit configuration. The interpolation processing unit 222 interpolates and generates sampling data at point L1 that accurately corresponds to a period corresponding to one cycle of the flicker waveform based on the sampling data at point L2 output after thinning.

図11は、図10の積分処理部の動作を説明するための図である。
図11の上段は、V方向間引き演算部221が、LPFなどの演算によりD1ライン分の積分値を利用して1つのデータを出力する場合について示している。この例ではD1を4としている。このとき、間引きの結果出力されるデータ点数L2が、フリッカ波形1周期に対応するライン数L以上となるように設定する。すなわち、搭載する撮像素子のライン数によりL/L2が整数とならない場合には、L2をL以上としてL/L2(=D1)が整数となるようにし、これによりフリッカ波形1周期分以上の期間を確実にサンプリングできるようにする。
FIG. 11 is a diagram for explaining the operation of the integration processing unit of FIG.
The upper part of FIG. 11 shows a case where the V-direction thinning-out calculation unit 221 outputs one data using an integration value for the D1 line by an operation such as LPF. In this example, D1 is set to 4. At this time, the number of data points L2 output as a result of thinning is set to be equal to or greater than the number of lines L corresponding to one cycle of the flicker waveform. That is, when L / L2 does not become an integer due to the number of lines of the image pickup device to be mounted, L2 is set to L or more so that L / L2 (= D1) becomes an integer, thereby a period of one flicker waveform or more. Can be sampled reliably.

なお、V方向間引き演算部221では、L2点の全点を並行に処理して出力する必要はない。このブロックをできるだけ時系列的に処理する(すなわち、入力されたサンプリングデータを順次処理する)構成とした場合には、間引き単位D1に応じて回路規模が変わることはあるものの、ラインごとのサンプリング点数により回路規模が大きくなることはない。このため、L2の値がLより大きくなっても回路規模が大幅に増大することはない。   Note that the V-direction thinning calculation unit 221 does not need to process and output all the L2 points in parallel. When this block is processed in time series as much as possible (that is, the input sampling data is sequentially processed), the circuit scale may vary depending on the thinning unit D1, but the number of sampling points per line Therefore, the circuit scale does not increase. For this reason, even if the value of L2 becomes larger than L, the circuit scale does not increase significantly.

また、図11の下段に示すように、補間処理部222は、間引きされたL2点のデータから、フリッカ波形1周期に正確に一致する期間でサンプリングされたL1点のデータを、補間演算により新たに生成して出力する。このサンプリング点数L1は、例えば積分値保持部112におけるメモリ容量など、システムとして許容される範囲内で、サンプリング定理を十分満たし、必要な検出精度を得られるような値とされ、搭載される撮像素子のライン数Mに関係なく一定値とされる。このため、撮像素子のライン数Mによっては、L/L1(=D2)が整数とならない場合もあるが、その場合でもL2点のサンプリングデータから補間演算を行うことでL1点のデータを確実に生成できる。   Further, as shown in the lower part of FIG. 11, the interpolation processing unit 222 newly calculates the L1 point data sampled from the thinned L2 point data in a period that exactly matches one flicker waveform cycle by interpolation. Generated and output. This sampling point number L1 is set to a value that sufficiently satisfies the sampling theorem and obtains necessary detection accuracy within a range allowed for the system, such as a memory capacity in the integral value holding unit 112, and is mounted. Regardless of the number of lines M, the value is constant. For this reason, L / L1 (= D2) may not be an integer depending on the number M of lines of the image sensor, but even in that case, the data at the L1 point is reliably obtained by performing the interpolation calculation from the sampling data at the L2 point. Can be generated.

従って、後段のDFT処理部120におけるDFT窓をフリッカ波形1周期分に正確に一致させることができるので、フリッカ波形を高精度に推定できるようになる。また、フリッカ波形の周期はサンプリング間隔と比較して十分長いので、補間演算としては線形補間程度の処理で十分な検出精度が得られる。   Accordingly, the DFT window in the DFT processing unit 120 at the subsequent stage can be accurately matched with one period of the flicker waveform, so that the flicker waveform can be estimated with high accuracy. Further, since the cycle of the flicker waveform is sufficiently longer than the sampling interval, sufficient detection accuracy can be obtained by a process of linear interpolation as the interpolation calculation.

図12は、V方向間引き演算部の内部構成例を示す図である。
V方向間引き演算部221における間引き処理としては、上述したように、入力データを間欠的に出力する“単純間引き”や、LPFを用いた間引きなどを適用できる。図12ではLPFを用いた場合の構成例を示しており、この図12のように、間引き単位D1が2のn乗(nは0以上の整数)である場合には、V方向間引き演算部221は、加算器223およびnビットシフト部224という簡単な構成とすることができる。加算器223は、D1点の積分値を加算して出力し、nビットシフト部224は、入力データをnビット分だけ下位側にシフトする。
FIG. 12 is a diagram illustrating an internal configuration example of the V-direction thinning-out calculation unit.
As the decimation process in the V-direction decimation unit 221, as described above, “simple decimation” that intermittently outputs input data, decimation using LPF, or the like can be applied. FIG. 12 shows a configuration example when LPF is used. As shown in FIG. 12, when the decimation unit D1 is 2 to the nth power (n is an integer of 0 or more), the V-direction decimation unit 221 can have a simple configuration of an adder 223 and an n-bit shift unit 224. The adder 223 adds and outputs the integral value at the point D1, and the n-bit shift unit 224 shifts the input data to the lower side by n bits.

また、間引き単位D1は2のn乗でない場合でも、例えば、上記の加算器223で2のn乗分のデータの加算処理を常に行い、この加算器223への入力データを間引き単位D1の間隔で順次シフトしていくことで、一部のデータを捨てることになるものの回路構成を簡易化することができる。また、多様なライン数の撮像素子に対して容易に対応できるようになる。逆に、回路面積や製造コストの制約が緩い場合には、nビットシフト部224を除算器として完全な平均値を演算することで、検出精度を向上させることができる。   Further, even when the thinning unit D1 is not 2 to the nth power, for example, the adder 223 always performs addition processing of data of 2n, and the input data to the adder 223 is the interval of the thinning unit D1. In this case, the circuit configuration can be simplified although some data is discarded. Further, it becomes possible to easily cope with image pickup devices having various numbers of lines. On the other hand, when the restrictions on the circuit area and the manufacturing cost are loose, the detection accuracy can be improved by calculating a complete average value using the n-bit shift unit 224 as a divider.

なお、上述したように、フリッカ波形の周期はラインごとのサンプリング間隔と比較して十分長いので、上記のような平均化を行うLPFの構成でも検出対象のフリッカ波形を鈍らせることにはならず、むしろノイズ成分を抑制する効果が得られる。このため、上記構成とすることで、回路構成の単純化と検出精度の向上とを両立できる。   As described above, the flicker waveform cycle is sufficiently longer than the sampling interval for each line, so that the flicker waveform to be detected is not blunt even in the configuration of the LPF that performs the averaging described above. Rather, the effect of suppressing noise components can be obtained. For this reason, with the above configuration, both simplification of the circuit configuration and improvement of detection accuracy can be achieved.

以上の図10の積分処理部111を適用したフリッカ低減部20によれば、搭載される撮像素子の画素数による制約を受けることなく、フリッカ波形1周期分の期間を常に正確にサンプリングして検出・低減処理を実行できるので、フリッカ検出精度を安定的に向上させ、センサバリエーションごとの検出性能バラツキを低減することができる。また、DFT処理に必要な回転因子を常に同じ値に設定できるので、例えばパラメータ保持のためのメモリなどの回路規模を大きくすることなく、フリッカ検出精度を向上させることができる。さらに、システムが許容している点数分のサンプリングデータ(例えば積分値保持部112に記憶したすべてのサンプリングデータ)をすべて利用して以降の演算が行われるので、回路規模や製造コストが余計に増加することを防止できる。   According to the flicker reduction unit 20 to which the integration processing unit 111 of FIG. 10 is applied, the period for one cycle of the flicker waveform is always accurately sampled and detected without being restricted by the number of pixels of the mounted image sensor. -Since reduction processing can be executed, flicker detection accuracy can be stably improved, and variation in detection performance for each sensor variation can be reduced. Further, since the twiddle factor necessary for the DFT processing can always be set to the same value, for example, the flicker detection accuracy can be improved without increasing the circuit scale such as a memory for holding parameters. Furthermore, since the subsequent calculations are performed using all sampling data (for example, all sampling data stored in the integral value holding unit 112) as many points as the system allows, the circuit scale and manufacturing cost are further increased. Can be prevented.

そして、このような効果を、サンプリングデータの間引きにより回路規模を小さくした従来のフリッカ検出・低減の回路に対して、積分処理部の構成を小変更するだけで得ることができ、また画素数の異なる撮像素子に最適化する際の回路構成や制御手順の変更も少なく済む。従って、フリッカ検出性能が向上された汎用性の高い小規模の回路を実現できる。   Such an effect can be obtained by simply changing the configuration of the integration processing unit with respect to the conventional flicker detection / reduction circuit in which the circuit scale is reduced by thinning sampling data. Changes in the circuit configuration and control procedure when optimizing for different image sensors are reduced. Therefore, it is possible to realize a small circuit with high versatility and improved flicker detection performance.

<積分処理部の構成例2>
図13は、積分処理部の第2の構成例を示すブロック図である。
図13に示す積分処理部111は、間引き処理部220内の構成が図10の場合と異なる。この間引き処理部220は、V方向ゲート225と、補間処理部226とを備えている。
<Configuration Example 2 of Integration Processing Unit>
FIG. 13 is a block diagram illustrating a second configuration example of the integration processing unit.
The integration processing unit 111 illustrated in FIG. 13 is different from the configuration illustrated in FIG. 10 in the configuration of the thinning processing unit 220. The thinning processing unit 220 includes a V-direction gate 225 and an interpolation processing unit 226.

V方向ゲート225は、ライン積分器210からの全画面に亘る積分値を受け取り、フリッカ波形1周期分をサンプリングするための最小期間、すなわちLライン分の期間だけ積分値を後段に出力し、その他の期間には出力を停止する。補間処理部226は、入力されたLライン分の積分値を用いて、補間演算によりフリッカ波形1周期分の期間に正確に対応するL1点のサンプリングデータを生成する。この補間処理部226は、ライン積分の結果から演算によりL1点のサンプリングデータを直接的に生成する構成とされ、これにより、第1の実施の形態のようにサンプリングデータを2段階で変換する場合と比較して、フリッカ波形の検出性能を高めることができる。   The V-direction gate 225 receives the integral value over the entire screen from the line integrator 210, and outputs the integral value to the subsequent stage for the minimum period for sampling one period of the flicker waveform, that is, the period for the L line. During this period, output is stopped. The interpolation processing unit 226 generates sampling data of L1 point that accurately corresponds to a period of one flicker waveform by interpolation calculation using the input integral value of L lines. The interpolation processing unit 226 is configured to directly generate sampling data of the L1 point by calculation from the result of line integration, and thereby, when sampling data is converted in two stages as in the first embodiment. As compared with the above, the flicker waveform detection performance can be improved.

図14は、図13の積分処理部の動作を説明するための図である。
補間処理部226における補間処理としては、フリッカ波形の周期がサンプリング間隔と比較して十分長いことから、適当な補間関数を用いた一般的な処理で必要十分な検出精度を維持できる。フリッカ波形の周期が十分長いことから、原理的には線形補間程度の処理でも十分であるが、より多数のサンプリングデータを利用してL1点のデータを生成することで、前述したLPF効果を高めることができ、検出精度を高められる。
FIG. 14 is a diagram for explaining the operation of the integration processing unit in FIG. 13.
As the interpolation processing in the interpolation processing unit 226, since the cycle of the flicker waveform is sufficiently longer than the sampling interval, necessary and sufficient detection accuracy can be maintained by general processing using an appropriate interpolation function. Since the cycle of the flicker waveform is sufficiently long, in principle, the processing of the degree of linear interpolation is sufficient, but the above-mentioned LPF effect is enhanced by generating data of the L1 point using a larger number of sampling data. And detection accuracy can be increased.

そのような例として、いわゆるキュービック(Cubic)補間を適用できる。この手法では、図14に示すように、L1点の各データのサンプリング位置を挟んだ一定数(図14では4ライン分)の積分値を基に、3次の補間関数を適用して各点のデータを生成する。これにより、新たに生成するデータの重心を元のデータ間隔(すなわちラインごとのデータ間隔)の間の位置に自由に設定できるので、搭載する撮像素子の画素数に関係なく、フリッカ検出精度を安定的に向上させることができる。すなわち、搭載する撮像素子のライン数Mにより間引き単位D2(=L/L1)が整数とならない場合でも、そのライン数Mに合わせて補間関数をあらかじめメモリなどに用意しておくことで、フリッカ波形1周期分の期間で正確にサンプリングし、DFT窓をその期間に一致させることができる。従って、図10の場合と同様に、フリッカ検出性能が向上された汎用性の高い小規模の回路を実現できる。   As such an example, so-called cubic interpolation can be applied. In this method, as shown in FIG. 14, a cubic interpolation function is applied to each point based on a certain number of integrated values (four lines in FIG. 14) sandwiching the sampling positions of the data at point L1. Generate data for This makes it possible to freely set the center of gravity of newly generated data at a position between the original data intervals (that is, the data interval for each line), so that the flicker detection accuracy is stable regardless of the number of pixels of the mounted image sensor Can be improved. That is, even when the thinning unit D2 (= L / L1) does not become an integer due to the number M of lines of the image pickup device to be mounted, a flicker waveform is prepared by preparing an interpolation function in advance in accordance with the number M of lines. It is possible to accurately sample in a period of one cycle, and to match the DFT window with that period. Therefore, as in the case of FIG. 10, a small-scale circuit with high versatility and improved flicker detection performance can be realized.

なお、上記の第1の実施の形態では、積分処理部111において入力画像信号In’(x,y)を1ラインごとに積分した場合を示したが、その各積分期間は1ラインに限らない。ただし、積分期間を長くするほど、絵柄の影響を排除してフリッカ成分をより正確にサンプリングできるので、1ライン以上の時間に亘って積分を行ってもよい。例えば、ライン積分器210の積分期間を複数ラインとしてもよい。例として2ライン単位で積分した場合には、間引き処理部220に対しては1フィールド当たり(M/2)点のサンプリングデータが供給される。また、各積分期間では全画素のデータを積分対象として利用せず、例えば間欠的に利用する、あるいは特定の領域のみ利用するようにしてもよい。   In the first embodiment, the case where the input image signal In ′ (x, y) is integrated for each line in the integration processing unit 111 has been described. However, each integration period is not limited to one line. . However, the longer the integration period is, the more precisely the flicker component can be sampled by eliminating the influence of the pattern, so the integration may be performed over a time of one line or more. For example, the integration period of the line integrator 210 may be a plurality of lines. For example, when integration is performed in units of two lines, sampling data of (M / 2) points per field is supplied to the thinning processing unit 220. Further, in each integration period, the data of all pixels may not be used as an integration target, but may be used intermittently or only in a specific area.

また、上記の第1の実施の形態では、間引き処理部220によりフリッカ波形1周期分の期間でサンプリングしたデータを出力するようにしたが、このサンプリング期間は必ずしも1周期である必要はなく、複数周期分の期間であってもよい。   In the first embodiment, data sampled by the thinning processing unit 220 in a period corresponding to one cycle of the flicker waveform is output. However, this sampling period does not necessarily need to be one cycle, and a plurality of data are output. It may be a period of a period.

さらに、上記の第1の実施の形態において、間引き処理部220から出力されるフリッカ波形1周期当たりのデータ点数L1を2のべき乗とすることで、フリッカ成分を周波数成分に変換する手法としてDFTの代わりにFFTを利用できるようになる。FFTを利用した場合、DFTより演算量を低減できるので、フリッカ低減部20の回路規模を抑制することができる。また、DFT処理機能をソフトウェア処理で実現することも容易になる。   Further, in the first embodiment, the DFT is used as a method for converting the flicker component to the frequency component by setting the number of data points L1 per cycle of the flicker waveform output from the thinning processing unit 220 to a power of 2. Instead, FFT can be used. When FFT is used, the amount of calculation can be reduced as compared with DFT, so that the circuit scale of the flicker reduction unit 20 can be suppressed. In addition, the DFT processing function can be easily realized by software processing.

また、上記の第1の実施の形態では、画面レート(フレーム周波数またはフィールド周波数)が一定である場合を想定して説明した。しかし、例えば、撮像装置の付加機能としてより高速な画面レートで撮像できるようにするなど、画面レートを可変とした撮像装置などが考えられている。このように、撮像素子上のライン数だけでなく、画面レートが変化した場合には、積分処理部111によるサンプリング間隔の整数倍がフリッカ波形の1周期分と一致しないことが多くなるだけでなく、フリッカ波形の1周期分に相当するライン数が整数になることも極めて希になる。従って、上記のようにフリッカ波形の1周期分の期間に正確に対応するサンプリングデータを補間により求めることで、フリッカ検出の精度が高く、かつ、撮像素子の画素数や画面レートの変化に対してより広い汎用性を持った回路を実現できる。   In the first embodiment, the case where the screen rate (frame frequency or field frequency) is constant has been described. However, for example, an imaging device with a variable screen rate is conceivable as an additional function of the imaging device, such as enabling imaging at a higher screen rate. As described above, when not only the number of lines on the image sensor but also the screen rate is changed, not only the integral multiple of the sampling interval by the integration processing unit 111 often does not coincide with one period of the flicker waveform. It is extremely rare that the number of lines corresponding to one cycle of the flicker waveform becomes an integer. Therefore, as described above, the sampling data accurately corresponding to the period of one cycle of the flicker waveform is obtained by interpolation, so that the flicker detection accuracy is high and the change in the number of pixels of the image sensor and the change in the screen rate is achieved. A circuit with wider versatility can be realized.

〔第2の実施の形態〕
図15は、本発明の第2の実施の形態に係るフリッカ低減部の内部構成を示すブロック図である。なお、この図15では、図3に対応するブロックには同じ符号を付して示しており、それらの説明は省略する。
[Second Embodiment]
FIG. 15 is a block diagram showing an internal configuration of the flicker reducing unit according to the second embodiment of the present invention. In FIG. 15, blocks corresponding to those in FIG. 3 are denoted by the same reference numerals, and description thereof is omitted.

図15に示す第2の実施の形態では、上述した第1の実施の形態のように、ライン積分器210による積分値を、フリッカ波形1周期(または複数周期)の期間に正確に対応するL1点のデータとして補間する代わりに、フレームまたはフィールドごとの積分値に基づく差分演算や正規化処理によって算出されたフリッカ成分(すなわち差分値gn(y))を基に、フリッカ波形1周期(または複数周期)の期間に正確に対応するサンプリングデータを補間演算により生成し、DFT処理部120に供給する。   In the second embodiment shown in FIG. 15, as in the first embodiment described above, the integrated value by the line integrator 210 is exactly L1 corresponding to the period of one flicker waveform (or a plurality of periods). Instead of interpolating as point data, one cycle (or a plurality of flicker waveforms) based on a flicker component (that is, a difference value gn (y)) calculated by a difference calculation based on an integral value for each frame or field or a normalization process. Sampling data accurately corresponding to the period of period) is generated by interpolation calculation and supplied to the DFT processing unit 120.

図15に示すフリッカ低減部20aにおいて、積分処理部111aは、ライン積分器210および間引き処理部230を具備する。ライン積分器210は、第1の実施の形態と同様に、入力された画像信号をラインごとに積分する。間引き処理部230は、図10に示したV方向間引き演算部221とほぼ同じ機能を備えるブロックであり、入力されたラインごとの積分値のデータ点数を、一定の間引き単位で間引いて出力する。なお、間引き処理部230における間引き演算の手法としては、上述したLPF間引きなどを適用できる。また、演算ではなく、単純に入力データを一定数ごとに間引いて出力してもよい。   In the flicker reducing unit 20a shown in FIG. 15, the integration processing unit 111a includes a line integrator 210 and a thinning processing unit 230. Similar to the first embodiment, the line integrator 210 integrates the input image signal for each line. The decimation processing unit 230 is a block having substantially the same function as the V-direction decimation unit 221 shown in FIG. 10, and outputs the number of data points of the input integral values for each line by decimation in a certain decimation unit. Note that the above-described LPF thinning or the like can be applied as a thinning calculation method in the thinning processing unit 230. Further, instead of the calculation, the input data may be simply thinned out every certain number and output.

この間引き処理部230は、フリッカ波形の1周期分以上の期間ごとに所定数(例えばL2点)のデータを出力する。すなわち、これらのデータによるサンプリング期間は、搭載される撮像素子の画素数により必ずしもフリッカ波形1周期の期間に対応しないため、この期間より少し長い期間でサンプリングを行い、後のフリッカ成分補間処理部150においてフリッカ波形1周期分ちょうどの期間に対応する補間データを得られるようにする。   The thinning processing unit 230 outputs a predetermined number (for example, L2 points) of data for each period of one cycle or more of the flicker waveform. That is, since the sampling period based on these data does not necessarily correspond to the period of one flicker waveform depending on the number of pixels of the mounted image sensor, sampling is performed in a slightly longer period than this period, and the subsequent flicker component interpolation processing unit 150 The interpolation data corresponding to the period exactly corresponding to one flicker waveform is obtained.

なお、第1の実施の形態と同様に、ライン積分器210による積分期間は、例えば複数ラインなど、1ライン以上の期間であってもよい。また、各積分期間では全画素のデータを積分対象として利用せず、例えば間欠的に利用する、あるいは特定の領域のみ利用するようにしてもよい。さらに、間引き処理部230を設けずに、ライン積分器210による積分値をそのまま後段に出力してもよい。要するに、積分処理部111aからは、画面上での所定領域を代表する積分値が、一定間隔で出力されればよい。   As in the first embodiment, the integration period by the line integrator 210 may be a period of one line or more, such as a plurality of lines. Further, in each integration period, the data of all pixels may not be used as an integration target, but may be used intermittently or only in a specific area. Further, the integrated value obtained by the line integrator 210 may be output to the subsequent stage without providing the thinning processing unit 230. In short, the integration processing unit 111a only needs to output integration values representing a predetermined area on the screen at regular intervals.

また、図15において、フリッカ成分補間処理部150は、正規化積分値算出部110により抽出されたフリッカ成分、すなわち、正規化処理部115から出力された正規化後の差分値gn(y)を基に、フリッカ波形の1周期分の期間を均等分割した所定個数のデータを補間演算により生成して、DFT処理部120に供給する。このフリッカ成分補間処理部150は、正規化処理部115からの出力データのうち、補間後の各点を中心とした2つ以上のデータを選択し、これらのデータを基に補間演算を行う。補間演算の手法は、線形補間や、図13で説明したキュービック補間などの補間関数を用いた手法などを適用できる。   In FIG. 15, the flicker component interpolation processing unit 150 uses the flicker component extracted by the normalized integral value calculation unit 110, that is, the normalized difference value gn (y) output from the normalization processing unit 115. Based on this, a predetermined number of data obtained by equally dividing the period of one cycle of the flicker waveform is generated by interpolation calculation and supplied to the DFT processing unit 120. The flicker component interpolation processing unit 150 selects two or more data centered on each point after interpolation from the output data from the normalization processing unit 115, and performs an interpolation operation based on these data. As the interpolation calculation method, linear interpolation, a method using an interpolation function such as cubic interpolation described with reference to FIG. 13, or the like can be applied.

このようなフリッカ成分補間処理部150により、フリッカ波形の1周期分の期間に正確に対応するL1点のデータがDFT処理部120に入力されるので、DFT処理部120は、1周期分のフリッカ成分を高精度に推定できるようになる。従って、第1の実施の形態と同様に、フリッカ成分の検出・補正精度が高く、かつ、撮像素子の画素数や画面レートに対する汎用性の高い回路を実現できる。   Since the flicker component interpolation processing unit 150 inputs the data of the L1 point accurately corresponding to the period of one cycle of the flicker waveform to the DFT processing unit 120, the DFT processing unit 120 performs the flicker for one cycle. The component can be estimated with high accuracy. Therefore, as in the first embodiment, it is possible to realize a circuit with high flicker component detection / correction accuracy and high versatility with respect to the number of pixels of the image sensor and the screen rate.

なお、第1の実施の形態の場合と同様に、フリッカ成分補間処理部150から出力されるフリッカ波形1周期当たりのデータ点数を2のべき乗とすることで、フリッカ成分を周波数成分に変換する手法としてDFTの代わりにFFTを利用できるようになり、フリッカ低減部20aの回路規模を抑制することができ、また、DFT処理機能をソフトウェア処理で実現することも容易になる。   As in the case of the first embodiment, a method of converting a flicker component into a frequency component by setting the number of data points per flicker waveform output from the flicker component interpolation processing unit 150 to a power of two. As a result, FFT can be used instead of DFT, the circuit scale of the flicker reduction unit 20a can be suppressed, and the DFT processing function can be easily realized by software processing.

〔第3の実施の形態〕
図16は、本発明の第3の実施の形態に係るフリッカ低減部の内部構成を示すブロック図である。なお、この図16では、図15に対応するブロックには同じ符号を付して示しており、それらの説明は省略する。
[Third Embodiment]
FIG. 16 is a block diagram showing an internal configuration of the flicker reducing unit according to the third embodiment of the present invention. In FIG. 16, blocks corresponding to those in FIG. 15 are denoted by the same reference numerals, and description thereof is omitted.

図16に示すフリッカ低減部20bは、図15のフリッカ低減部20aの構成に対して、フリッカ成分補間処理部150の代わりに、フリッカ生成部130と演算部140との間に推定成分補間処理部160を設けたものである。ここで、DFT処理部120およびフリッカ生成部130の演算により推定されたフリッカ成分(フリッカ係数Γn(y)に対応)は、実際には、例えばDFT処理部120に入力されるデータなどに同期した離散データとして、フリッカ生成部130から出力される。推定成分補間処理部160は、フリッカ生成部130から出力されたフリッカ成分の離散データ群を、演算部140において補正すべきデータ群の位相に合うように補間する。   The flicker reduction unit 20b shown in FIG. 16 is different from the flicker reduction unit 20a in FIG. 15 in that an estimated component interpolation processing unit is provided between the flicker generation unit 130 and the calculation unit 140 instead of the flicker component interpolation processing unit 150. 160 is provided. Here, the flicker component (corresponding to the flicker coefficient Γn (y)) estimated by the operations of the DFT processing unit 120 and the flicker generation unit 130 is actually synchronized with, for example, data input to the DFT processing unit 120 The data is output from the flicker generation unit 130 as discrete data. The estimated component interpolation processing unit 160 interpolates the discrete data group of the flicker component output from the flicker generation unit 130 so as to match the phase of the data group to be corrected by the calculation unit 140.

図17は、推定成分補間処理部による補間演算を説明するための図である。
図16のフリッカ低減部20bでは、サンプリング間隔をフリッカ波形の1周期に合わせるようにサンプリングデータを補間する機能(図3の間引き処理部220、あるいは図15のフリッカ成分補間処理部150の機能)が設けられていない。このような場合には、上述したように、撮像素子の画素数や画面レートに違いにより、ライン積分器210によるサンプリング間隔の整数倍、あるいはその後の間引き処理部230のデータ出力間隔の整数倍が、フリッカ波形の1周期分の期間と一致することは、極めて少ない。従って、DFT処理により推定された波形の離散データの位相と、演算部140に入力される補正対象のデータの位相とが一致しないため、補正誤差が生じることになる。
FIG. 17 is a diagram for explaining the interpolation calculation by the estimated component interpolation processing unit.
The flicker reducing unit 20b in FIG. 16 has a function of interpolating sampling data so that the sampling interval matches one cycle of the flicker waveform (a function of the thinning processing unit 220 in FIG. 3 or the flicker component interpolation processing unit 150 in FIG. 15). Not provided. In such a case, as described above, depending on the number of pixels of the image sensor and the screen rate, an integer multiple of the sampling interval by the line integrator 210 or an integer multiple of the data output interval of the thinning processing unit 230 thereafter is Very little coincides with the period of one cycle of the flicker waveform. Therefore, since the phase of the discrete data of the waveform estimated by the DFT processing and the phase of the correction target data input to the calculation unit 140 do not match, a correction error occurs.

例えば、図17の例では、フリッカ波形1周期分に満たない期間のサンプリングデータを基にDFT処理が行われたために、DFT処理部120は、補正対象の画像データに含まれる実際のフリッカ波形(図中下段の波形に対応)より、周期の短い波形(図中上段の波形に対応)を推定してしまう。このため、推定の結果得られた離散データをそのまま用いて補正を行うと、補正誤差が生じてしまい、入力画像信号からフリッカ成分を精度よく除去できない。   For example, in the example of FIG. 17, since the DFT processing is performed based on the sampling data in a period that is less than one period of the flicker waveform, the DFT processing unit 120 causes the actual flicker waveform (included in the correction target image data ( A waveform having a short cycle (corresponding to the upper waveform in the figure) is estimated from the lower waveform in the figure. For this reason, if correction is performed using discrete data obtained as a result of estimation as it is, a correction error occurs, and flicker components cannot be accurately removed from the input image signal.

そこで、本実施の形態では、推定成分補間処理部160において、フリッカ生成部130から出力される離散データを、演算部140での補正タイミングに同期するようにスケーリングして出力する。すなわち、フリッカ生成部130からの離散データを基にして、演算部140での補正タイミングにそれぞれ同期した任意点数のデータを、補間演算により生成して出力する。   Therefore, in the present embodiment, the estimated component interpolation processing unit 160 scales and outputs the discrete data output from the flicker generation unit 130 in synchronization with the correction timing in the calculation unit 140. That is, based on the discrete data from the flicker generation unit 130, data of arbitrary points synchronized with the correction timing in the calculation unit 140 is generated by interpolation calculation and output.

図17の例では、フリッカ生成部130からの離散データのうち、連続する4個を利用して補間演算を行い、1個のデータを生成している。フリッカ生成部130からのフリッカ波形は、補正対象の実際のフリッカ波形とは周期が異なっているので、フリッカ生成部130からのフリッカ波形の周期が実際のフリッカ波形の周期に合わせて変換され、変換後の離散データのうち、演算部140での補正タイミングに同期する各点を中心とした近傍の4点が選択されて、補間演算に適用される。実際には、推定されたフリッカ成分の特定数の離散データが、あらかじめ決められた任意の個数のデータに変換されて、変換後の各データが、演算部140における補正タイミングに同期して順次出力されることになる。   In the example of FIG. 17, one piece of data is generated by performing an interpolation operation using four consecutive pieces of discrete data from the flicker generation unit 130. The flicker waveform from the flicker generation unit 130 has a period different from that of the actual flicker waveform to be corrected. Therefore, the period of the flicker waveform from the flicker generation unit 130 is converted in accordance with the period of the actual flicker waveform. Of the subsequent discrete data, four points in the vicinity centering on each point synchronized with the correction timing in the calculation unit 140 are selected and applied to the interpolation calculation. Actually, a specific number of discrete data of the estimated flicker component is converted into an arbitrary number of predetermined data, and each converted data is sequentially output in synchronization with the correction timing in the calculation unit 140. Will be.

また、本実施の形態では、積分処理部111aにおける積分処理の最小単位は1ラインであることから、推定成分補間処理部160では、1ライン分またはその整数倍に対応する画像データが演算部140に入力されるタイミングに同期するように、スケーリング後のデータ個数が決定される。例えば、推定成分補間処理部160で生成される、フリッカ波形1周期当たりのデータ個数を、ライン積分器210または間引き処理部230から出力される、フリッカ波形1周期当たりのデータ個数に一致させればよい。すなわち、スケーリング後の各データは、画像信号中の実際のフリッカ成分の1周期または複数周期を、1ラインまたはその整数倍により分割した期間のそれぞれに対応するように生成され、それらの期間にそれぞれ対応する画像信号の演算部140に対する入力タイミングに同期して、生成されたデータが順次出力される。   In the present embodiment, since the minimum unit of integration processing in the integration processing unit 111a is one line, in the estimated component interpolation processing unit 160, image data corresponding to one line or an integer multiple thereof is calculated by the calculation unit 140. The number of data after scaling is determined so as to synchronize with the timing input to. For example, if the number of data per flicker waveform generated by the estimated component interpolation processing unit 160 matches the number of data per flicker waveform output from the line integrator 210 or the thinning processing unit 230, Good. That is, each scaled data is generated so as to correspond to each period obtained by dividing one period or a plurality of periods of the actual flicker component in the image signal by one line or an integral multiple thereof, and in each of these periods The generated data is sequentially output in synchronization with the input timing of the corresponding image signal to the calculation unit 140.

また、推定成分補間処理部160での補間手法としては、線形補間や、上述したキュービック補間などの補間関数を用いた手法などを適用できる。
以上の処理により、演算部140では、誤差を生じることなくフリッカ成分を高精度で低減できるようになり、画質の高い撮像画像を得ることが可能になる。
Further, as an interpolation method in the estimated component interpolation processing unit 160, a method using linear interpolation, an interpolation function such as the cubic interpolation described above, or the like can be applied.
Through the above processing, the calculation unit 140 can reduce flicker components with high accuracy without causing an error, and can obtain a captured image with high image quality.

〔第4の実施の形態〕
図18は、本発明の第4の実施の形態に係るフリッカ低減部の内部構成を示すブロック図である。なお、この図18では、図16に対応するブロックには同じ符号を付して示しており、それらの説明は省略する。
[Fourth Embodiment]
FIG. 18 is a block diagram showing an internal configuration of the flicker reducing unit according to the fourth embodiment of the present invention. In FIG. 18, blocks corresponding to those in FIG. 16 are denoted by the same reference numerals, and description thereof is omitted.

図18に示すフリッカ低減部20cにおいて、演算部140cは、補正ゲイン算出部141、ゲイン補間処理部142、および画像補正部143を備えている。補正ゲイン算出部141は、フリッカ生成部130からのフリッカ成分の離散データを基に、フリッカ成分を打ち消すための補正パラメータである補正ゲインを算出する。この補正ゲインは、例えば、上述した式(21)における1/[1+Γn(y)]に対応する。ゲイン補間処理部142は、補正ゲイン算出部141で算出された補正ゲインの離散データを、画像補正部143での補正タイミングに同期するようにスケーリングして出力する。画像補正部143は、ゲイン補間処理部142によりスケーリングされた補正ゲインを、式(21)に従って入力画像信号に対して乗算して、フリッカ成分を除去するための演算を行う。   In the flicker reduction unit 20c shown in FIG. 18, the calculation unit 140c includes a correction gain calculation unit 141, a gain interpolation processing unit 142, and an image correction unit 143. The correction gain calculation unit 141 calculates a correction gain that is a correction parameter for canceling the flicker component based on the discrete data of the flicker component from the flicker generation unit 130. This correction gain corresponds to, for example, 1 / [1 + Γn (y)] in Equation (21) described above. The gain interpolation processing unit 142 scales and outputs discrete data of the correction gain calculated by the correction gain calculation unit 141 so as to be synchronized with the correction timing of the image correction unit 143. The image correction unit 143 multiplies the input image signal by the correction gain scaled by the gain interpolation processing unit 142 according to the equation (21), and performs an operation for removing the flicker component.

このフリッカ低減部20cでは、図16の推定成分補間処理部160の代わりにゲイン補間処理部142を設け、推定されたフリッカ波形から得た補正ゲインを基に、補正時のタイミングに同期するようにスケーリングすることで、補正誤差の発生を防止している。スケーリング後に出力されるデータ個数や、スケーリングに利用する補間演算の手法などは、上記の推定成分補間処理部160と同様である。このような構成により、図16の場合と同様に、フリッカ成分を高精度で低減できるようになり、画質の高い撮像画像を得ることが可能になる。   In the flicker reducing unit 20c, a gain interpolation processing unit 142 is provided instead of the estimated component interpolation processing unit 160 in FIG. 16, and is synchronized with the timing at the time of correction based on the correction gain obtained from the estimated flicker waveform. Scaling prevents the occurrence of correction errors. The number of data output after scaling, the interpolation calculation method used for scaling, and the like are the same as those of the estimated component interpolation processing unit 160 described above. With this configuration, as in the case of FIG. 16, flicker components can be reduced with high accuracy, and a captured image with high image quality can be obtained.

〔第5の実施の形態〕
図19は、本発明の第5の実施の形態に係るフリッカ低減部の内部構成を示すブロック図である。なお、この図19では、図15および図16に対応するブロックには同じ符号を付して示しており、それらの説明は省略する。
[Fifth Embodiment]
FIG. 19 is a block diagram showing an internal configuration of the flicker reducing unit according to the fifth embodiment of the present invention. In FIG. 19, blocks corresponding to those in FIGS. 15 and 16 are denoted by the same reference numerals, and description thereof is omitted.

図19に示すフリッカ低減部20dは、上述した第1および第2の実施の形態のように、サンプリングしたデータを、フリッカ波形の1周期(または複数周期)に合わせて補間する機能と、DFT処理により推定されたフリッカ波形の離散データを、演算部140における補正タイミングに同期するようにスケーリングする機能とを、ともに備えている。この例では、前者の機能として、図15で説明したフリッカ成分補間処理部150が設けられ、後者の機能として、図16で説明した推定成分補間処理部160が設けられている。これにより、DFT処理によるフリッカ検出時の検出誤差の低減効果と、DFT処理により推定されたフリッカ成分を補正に適用する際の補正誤差の低減効果の両方を得ることができる。なお、前者の機能として、図3で説明した積分処理部111を設けた場合でも、あるいは、後者の機能として、図18で説明した演算部140cを設けた場合でも、同様の効果を得ることができる。   The flicker reducing unit 20d shown in FIG. 19 has a function of interpolating the sampled data in accordance with one period (or a plurality of periods) of the flicker waveform and the DFT processing as in the first and second embodiments described above. And a function of scaling the discrete data of the flicker waveform estimated by the method so as to synchronize with the correction timing in the calculation unit 140. In this example, the flicker component interpolation processing unit 150 described in FIG. 15 is provided as the former function, and the estimated component interpolation processing unit 160 described in FIG. 16 is provided as the latter function. As a result, it is possible to obtain both a detection error reduction effect when flicker is detected by the DFT processing and a correction error reduction effect when the flicker component estimated by the DFT processing is applied to the correction. The same effect can be obtained even when the integration processing unit 111 described in FIG. 3 is provided as the former function or when the calculation unit 140c described in FIG. 18 is provided as the latter function. it can.

図20は、図19の推定成分補間処理部による補間演算を説明するための図である。
図19のフリッカ低減部20dでは、フリッカ成分補間処理部150の処理により、フリッカ波形の1周期(または複数周期)に正確に対応する期間において等間隔でサンプリングされたデータが、DFT処理部120に入力される。このため、フリッカ生成部130から出力されるフリッカ波形(図20の上段の波形)の周期は、画像信号に含まれる実際のフリッカ波形(図20の下段の波形)の周期と一致している。しかし、推定されたフリッカ波形上の離散データの間隔は、積分処理部111aでサンプリングされたデータの間隔とは異なるものとなるので、推定されたフリッカ波形を、演算部140での補正時にそのまま用いた場合には、補正誤差が生じてしまう。
FIG. 20 is a diagram for explaining the interpolation calculation by the estimated component interpolation processing unit of FIG.
In the flicker reduction unit 20d of FIG. 19, the data sampled at equal intervals in the period corresponding to one cycle (or a plurality of cycles) of the flicker waveform by the processing of the flicker component interpolation processing unit 150 is sent to the DFT processing unit 120. Entered. For this reason, the cycle of the flicker waveform (the upper waveform in FIG. 20) output from the flicker generation unit 130 matches the cycle of the actual flicker waveform (the lower waveform in FIG. 20) included in the image signal. However, since the interval of the discrete data on the estimated flicker waveform is different from the interval of the data sampled by the integration processing unit 111a, the estimated flicker waveform is used as it is when the calculation unit 140 corrects it. If it does, a correction error will occur.

そこで、推定されたフリッカ波形に対応する離散データ群を、推定成分補間処理部160での補間演算により、演算部140での補正タイミングに同期するデータ群に変換する。図20では、例として、推定されたフリッカ波形内の4個の離散データを補間演算に適用して、1個のデータを生成している。これにより、演算部140での補正タイミングの同期が図られ、補正誤差の発生を防止することができる。なお、DFT処理部120へのサンプリングデータが補間された場合であっても、推定成分補間処理部160では、推定されたフリッカ波形の周期を変換する必要がある場合もある。   Therefore, the discrete data group corresponding to the estimated flicker waveform is converted into a data group synchronized with the correction timing in the calculation unit 140 by the interpolation calculation in the estimated component interpolation processing unit 160. In FIG. 20, as an example, four pieces of discrete data in the estimated flicker waveform are applied to the interpolation calculation to generate one piece of data. Thereby, the synchronization of the correction timing in the calculating part 140 is achieved, and generation | occurrence | production of a correction error can be prevented. Even when the sampling data to the DFT processing unit 120 is interpolated, the estimated component interpolation processing unit 160 may need to convert the estimated flicker waveform cycle.

以上のように、サンプリングしたデータをフリッカ波形の1周期(または複数周期)に合わせて補間する機能と、DFT処理により推定されたフリッカ波形の離散データを補正タイミングに同期するようにスケーリングする機能とをともに設けたことにより、DFT処理時のフリッカ検出誤差と、補正誤差とをともに低減できるので、フリッカ成分をより正確に除去できるようになり、撮像画像の品質をより一層向上させることができる。   As described above, the function of interpolating the sampled data in accordance with one period (or a plurality of periods) of the flicker waveform, and the function of scaling the discrete data of the flicker waveform estimated by the DFT processing so as to synchronize with the correction timing. Since both the flicker detection error and the correction error during the DFT processing can be reduced, the flicker component can be more accurately removed, and the quality of the captured image can be further improved.

なお、以上の各実施の形態では、ライン積分器210の出力データを間引いた場合について説明したが、間引きを行わない場合でも本発明を適用可能である。例えば、フリッカ低減部内の演算性能や、積分値を保持するメモリ回路の設置面積、これらの製造コストなどに余裕がある場合には、積分値のサンプリング単位は最短で1ライン単位とすることができる。上述したように、撮像素子上のライン数や画面レートによっては、フリッカ波形の1周期分に相当するライン数が整数にならない場合があり、このような場合に本発明を適用することで、フリッカ検出誤差や補正誤差を低減できる。   In each of the above embodiments, the case where the output data of the line integrator 210 is thinned has been described. However, the present invention can be applied even when thinning is not performed. For example, when there is a margin in the calculation performance in the flicker reduction unit, the installation area of the memory circuit holding the integrated value, and the manufacturing cost thereof, the sampling unit of the integrated value can be set to one line unit at the shortest. . As described above, depending on the number of lines on the image sensor and the screen rate, the number of lines corresponding to one cycle of the flicker waveform may not be an integer. In such a case, the present invention is applied to the flicker. Detection errors and correction errors can be reduced.

また、上記の各実施の形態では、撮像素子としてCMOSイメージセンサを用いた場合について説明したが、CMOSイメージセンサ以外のMOS型イメージセンサなど、他のXYアドレス走査型の撮像素子を用いた場合にも本発明を適用可能である。また、本発明は、XYアドレス走査型の撮像素子を用いた様々な撮像装置、およびこのような撮像機能を具備する携帯電話機やPDA(Personal Digital Assistants)などの機器に対して適用することもできる。   In each of the above-described embodiments, a case where a CMOS image sensor is used as an image sensor has been described. However, when another XY address scanning image sensor such as a MOS image sensor other than a CMOS image sensor is used. The present invention is also applicable. The present invention can also be applied to various imaging devices using XY address scanning type imaging devices, and devices such as mobile phones and PDAs (Personal Digital Assistants) having such an imaging function. .

さらに、例えばPC(パーソナルコンピュータ)などに接続されるテレビ電話用あるいはゲームソフト用などの小型カメラによる撮像信号に対する処理や、撮像された画像を補整するための処理などを行う画像処理装置に対しても、本発明を適用することができる。   Furthermore, for an image processing apparatus that performs processing on an image signal by a small camera such as a videophone or game software connected to a PC (personal computer) or the like, or processing for correcting a captured image. Also, the present invention can be applied.

また、上記の処理機能は、コンピュータによって実現することができる。その場合、この装置が有すべき機能(上記のフリッカ低減部などに対応する機能)の処理内容を記述したプログラムが提供される。そして、そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記録装置、光ディスク、光磁気ディスク、半導体メモリなどがある。   Further, the above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the apparatus should have (functions corresponding to the above-described flicker reducing section) is provided. And the said processing function is implement | achieved on a computer by running the program with a computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic recording device, an optical disk, a magneto-optical disk, and a semiconductor memory.

プログラムを流通させる場合には、例えば、そのプログラムが記録された光ディスクや半導体メモリなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   In order to distribute the program, for example, portable recording media such as an optical disk and a semiconductor memory on which the program is recorded are sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムまたはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

11……光学ブロック、11a……ドライバ、12……CMOS型イメージセンサ(CMOSセンサ)、12a……タイミングジェネレータ(TG)、13……アナログフロントエンド(AFE)回路、14……カメラ処理回路、15……システムコントローラ、16……入力部、17……グラフィックI/F、17a……ディスプレイ、20……フリッカ低減部、110……正規化積分値算出部、111……積分処理部、112……積分値保持部、113……平均値演算部、114……差分演算部、115……正規化処理部、120……DFT処理部、130……フリッカ生成部、140……演算部、210……ライン積分器、220……間引き処理部   DESCRIPTION OF SYMBOLS 11 ... Optical block, 11a ... Driver, 12 ... CMOS type image sensor (CMOS sensor), 12a ... Timing generator (TG), 13 ... Analog front end (AFE) circuit, 14 ... Camera processing circuit, DESCRIPTION OF SYMBOLS 15 ... System controller, 16 ... Input part, 17 ... Graphic I / F, 17a ... Display, 20 ... Flicker reduction part, 110 ... Normalization integral value calculation part, 111 ... Integration processing part, 112 …… Integral value holding unit, 113 …… Average value calculating unit, 114 …… Difference calculating unit, 115 …… Normalization processing unit, 120 …… DFT processing unit, 130 …… Flicker generation unit, 140 …… Calculation unit, 210 …… Line integrator, 220 …… Thinning processing unit

Claims (12)

入力画像信号を1水平同期期間以上の単位で積分する積分手段と、Integration means for integrating the input image signal in units of one horizontal synchronization period or more;
前記積分手段による積分値、または隣接するフィールドもしくはフレームにおける積分値の差分値を、正規化する正規化手段と、Normalization means for normalizing the integration value by the integration means or the difference value of the integration values in adjacent fields or frames;
フリッカの所定周期分の期間にあらかじめ規定された一定数のサンプリング位置に対応するデータを、前記正規化手段による正規化後の積分値または差分値を基に補間して生成し、当該サンプリング位置に対応するデータを画像信号として出力する補間処理手段と、Data corresponding to a predetermined number of sampling positions defined in advance during a predetermined period of flicker is generated by interpolating based on the integrated value or difference value after normalization by the normalizing means, and Interpolation processing means for outputting corresponding data as an image signal;
前記補間処理手段により生成された前記画像信号を解析することによりスペクトルを抽出する周波数解析手段と、Frequency analysis means for extracting a spectrum by analyzing the image signal generated by the interpolation processing means;
前記周波数解析手段により抽出されたスペクトルからフリッカ成分を推定するフリッカ推定手段と、Flicker estimation means for estimating a flicker component from the spectrum extracted by the frequency analysis means;
前記フリッカ推定手段により推定されたフリッカ成分から、前記入力画像信号と位相が等しく、かつライン数が等しい補正用のフリッカ成分を生成する補正用フリッカ成分生成手段と、Correction flicker component generation means for generating a flicker component for correction having the same phase as the input image signal and the same number of lines from the flicker component estimated by the flicker estimation means;
前記補正用のフリッカ成分により前記入力画像信号からフリッカ成分を除去する画像補正手段と、Image correction means for removing the flicker component from the input image signal by the correction flicker component;
を有することを特徴とする画像処理装置。An image processing apparatus comprising:
前記補間処理手段は、前記サンプリング位置ごとに、前記正規化手段による所定数の正規化後の積分値または差分値を基に補間関数を利用して補間演算を行い、当該サンプリング位置に対応するデータを生成することを特徴とする請求項1記載の画像処理装置。The interpolation processing means performs an interpolation operation using an interpolation function based on a predetermined number of integrated values or difference values after normalization by the normalizing means for each sampling position, and data corresponding to the sampling position The image processing apparatus according to claim 1, wherein: 前記補間処理手段は、前記フリッカの1周期分または複数周期分の期間における前記正規化手段による正規化後の積分値または差分値から、前記所定数の正規化後の積分値または差分値を選択して補間演算を行い、前記各サンプリング位置に対応するデータを生成することを特徴とする請求項2記載の画像処理装置。The interpolation processing means selects the predetermined number of normalized integration values or difference values from the integration values or difference values after normalization by the normalization means in a period of one cycle or a plurality of cycles of the flicker. The image processing apparatus according to claim 2, wherein interpolation processing is performed to generate data corresponding to each sampling position. 入力画像信号を1水平同期期間以上の単位で積分する積分手段と、Integration means for integrating the input image signal in units of one horizontal synchronization period or more;
前記積分手段による積分値、または隣接するフィールドもしくはフレームにおける積分値の差分値を正規化し、正規化後の積分値または差分値を画像信号として出力する正規化手段と、Normalizing means for normalizing the integrated value by the integrating means, or the difference value of the integrated values in adjacent fields or frames, and outputting the normalized integrated value or difference value as an image signal;
前記正規化手段により生成された前記画像信号を解析することによりスペクトルを抽出する周波数解析手段と、Frequency analysis means for extracting a spectrum by analyzing the image signal generated by the normalization means;
前記周波数解析手段により抽出されたスペクトルからフリッカ成分を推定するフリッカ推定手段と、Flicker estimation means for estimating a flicker component from the spectrum extracted by the frequency analysis means;
前記入力画像信号に含まれるフリッカ成分の1周期分または複数周期分の期間に一定数だけ規定され、それぞれの出力タイミングが前記積分手段による積分単位またはその整数倍の期間に同期するように規定されたデータを、前記フリッカ推定手段により推定されたフリッカ成分の離散値を基に補間して生成し、補正用のフリッカ成分として出力する補正用フリッカ成分生成手段と、A predetermined number of flicker components included in the input image signal are defined for one period or a plurality of periods, and each output timing is defined so as to be synchronized with an integration unit by the integration means or a period of an integral multiple thereof. Correction flicker component generation means for generating the data by interpolation based on the discrete value of the flicker component estimated by the flicker estimation means, and outputting as a correction flicker component;
前記補正用のフリッカ成分により前記入力画像信号からフリッカ成分を除去する画像補正手段と、Image correction means for removing the flicker component from the input image signal by the correction flicker component;
を有することを特徴とする画像処理装置。An image processing apparatus comprising:
前記補正用フリッカ成分生成手段は、前記推定されたフリッカ成分の所定数の離散値を基に線形補間を行うことで、前記入力画像信号に含まれるフリッカ成分の1周期分または複数周期分の期間に規定された各データを生成することを特徴とする請求項4記載の画像処理装置。The correction flicker component generation means performs a linear interpolation based on a predetermined number of discrete values of the estimated flicker component, so that a period corresponding to one period or a plurality of periods of the flicker component included in the input image signal The image processing apparatus according to claim 4, wherein each data defined in the above is generated. 前記補正用フリッカ成分生成手段は、前記推定されたフリッカ成分の所定数の離散値を基に補間関数を利用して補間演算を行うことで、前記入力画像信号に含まれるフリッカ成分の1周期分または複数周期分の期間に規定された各データを生成することを特徴とする請求項4記載の画像処理装置。The correction flicker component generation means performs an interpolation operation using an interpolation function based on a predetermined number of discrete values of the estimated flicker component, thereby performing one cycle of the flicker component included in the input image signal. The image processing apparatus according to claim 4, wherein each data defined in a period of a plurality of cycles is generated. 入力画像信号を1水平同期期間以上の単位で積分する積分手段と、Integration means for integrating the input image signal in units of one horizontal synchronization period or more;
前記積分手段による積分値、または隣接するフィールドもしくはフレームにおける積分値の差分値を正規化し、正規化後の積分値または差分値を画像信号として出力する正規化手段と、Normalizing means for normalizing the integrated value by the integrating means, or the difference value of the integrated values in adjacent fields or frames, and outputting the normalized integrated value or difference value as an image signal;
前記正規化手段により生成された前記画像信号を解析することによりスペクトルを抽出する周波数解析手段と、Frequency analysis means for extracting a spectrum by analyzing the image signal generated by the normalization means;
前記周波数解析手段により抽出されたスペクトルからフリッカ成分を推定するフリッカ推定手段と、  Flicker estimation means for estimating a flicker component from the spectrum extracted by the frequency analysis means;
前記フリッカ推定手段によるフリッカ成分の推定値を基に、フリッカ成分を打ち消すための補正パラメータを算出するとともに、前記入力画像信号に含まれるフリッカ成分の1周期分または複数周期分の期間に一定数だけ規定され、それぞれの出力タイミングが前記積分手段による積分単位またはその整数倍の期間に同期するように規定されたデータを、前記補正パラメータの離散値を基に補間して生成し、補正用のフリッカ成分として出力する補正用フリッカ成分生成手段と、A correction parameter for canceling the flicker component is calculated based on an estimated value of the flicker component by the flicker estimation means, and a fixed number of flicker components included in the input image signal for one period or a plurality of periods. Flicker for correction is generated by interpolating data defined so that each output timing is synchronized with an integration unit by the integration means or a period that is an integral multiple of the integration unit based on the discrete value of the correction parameter. Correction flicker component generation means for outputting as a component;
前記補正用のフリッカ成分により前記入力画像信号からフリッカ成分を除去する画像補正手段と、Image correction means for removing the flicker component from the input image signal by the correction flicker component;
を有することを特徴とする画像処理装置。An image processing apparatus comprising:
前記補正用フリッカ成分生成手段は、前記補正パラメータの所定数の離散値を基に線形補間を行うことで、フリッカ成分の1周期分または複数周期分の期間に規定された各データを生成することを特徴とする請求項7記載の画像処理装置。The correction flicker component generation means generates each data defined in one period or a plurality of periods of the flicker component by performing linear interpolation based on a predetermined number of discrete values of the correction parameter. The image processing apparatus according to claim 7. 前記補正用フリッカ成分生成手段は、前記補正パラメータの所定数の離散値を基に補間関数を利用して補間演算を行うことで、フリッカ成分の1周期分または複数周期分の期間に規定された各データを生成することを特徴とする請求項7記載の画像処理装置。The correction flicker component generation means performs an interpolation operation using an interpolation function based on a predetermined number of discrete values of the correction parameter, thereby defining a period corresponding to one cycle or a plurality of cycles of the flicker component. 8. The image processing apparatus according to claim 7, wherein each data is generated. XYアドレス走査型の固体撮像素子を用いて画像を撮像する撮像装置において、In an imaging apparatus that captures an image using an XY address scanning type solid-state imaging device,
撮像により得られた入力画像信号を1水平同期期間以上の単位で積分する積分手段と、Integrating means for integrating the input image signal obtained by imaging in units of one horizontal synchronization period or more;
前記積分手段による積分値、または隣接するフィールドもしくはフレームにおける積分値の差分値を、正規化する正規化手段と、Normalization means for normalizing the integration value by the integration means or the difference value of the integration values in adjacent fields or frames;
フリッカの所定周期分の期間にあらかじめ規定された一定数のサンプリング位置に対応するデータを、前記正規化手段による正規化後の積分値または差分値を基に補間して生成し、当該サンプリング位置に対応するデータを画像信号として出力する補間処理手段と、Data corresponding to a predetermined number of sampling positions defined in advance during a predetermined period of flicker is generated by interpolating based on the integrated value or difference value after normalization by the normalizing means, and Interpolation processing means for outputting corresponding data as an image signal;
前記補間処理手段により生成された前記画像信号を解析することによりスペクトルを抽出する周波数解析手段と、Frequency analysis means for extracting a spectrum by analyzing the image signal generated by the interpolation processing means;
前記周波数解析手段により抽出されたスペクトルからフリッカ成分を推定するフリッカ推定手段と、Flicker estimation means for estimating a flicker component from the spectrum extracted by the frequency analysis means;
前記フリッカ推定手段により推定されたフリッカ成分から、前記入力画像信号と位相が等しく、かつライン数が等しい補正用のフリッカ成分を生成する補正用フリッカ成分生成手段と、Correction flicker component generation means for generating a flicker component for correction having the same phase as the input image signal and the same number of lines from the flicker component estimated by the flicker estimation means;
前記補正用のフリッカ成分により前記入力画像信号からフリッカ成分を除去する画像補正手段と、Image correction means for removing the flicker component from the input image signal by the correction flicker component;
を有することを特徴とする撮像装置。An imaging device comprising:
入力画像信号を1水平同期期間以上の単位で積分し、
積分値、または隣接するフィールドもしくはフレームにおける積分値の差分値を、正規化し、
フリッカの所定周期分の期間にあらかじめ規定された一定数のサンプリング位置に対応するデータを、正規化後の積分値または差分値を基に補間して生成し、当該サンプリング位置に対応するデータを画像信号として生成し
生成された前記画像信号を解析することによりスペクトルを抽出し、
抽出されたスペクトルからフリッカ成分を推定し、
推定されたフリッカ成分から、前記入力画像信号と位相が等しく、かつライン数が等しい補正用のフリッカ成分を生成し、
前記補正用のフリッカ成分により前記入力画像信号からフリッカ成分を除去する、
ことを特徴とする画像処理方法。
Integrate the input image signal in units of one horizontal synchronization period or more,
Normalize the integral value or the difference value of the integral value in the adjacent field or frame,
Data corresponding to a predetermined number of sampling positions defined in advance for a predetermined period of flicker is generated by interpolation based on the normalized integral value or difference value, and the data corresponding to the sampling positions is imaged As a signal ,
Extracting the spectrum by analyzing the generated image signal,
Estimate the flicker component from the extracted spectrum,
From the estimated flicker component, a correction flicker component having the same phase as the input image signal and the same number of lines is generated,
Removing the flicker component from the input image signal by the correction flicker component;
An image processing method.
蛍光灯照明下で画像上に生じるフリッカを検出する処理をコンピュータに実行させる画像処理プログラムにおいて、In an image processing program for causing a computer to execute processing for detecting flicker generated on an image under fluorescent lamp illumination,
入力画像信号を1水平同期期間以上の単位で積分する積分手段、Integration means for integrating the input image signal in units of one horizontal synchronization period or more;
前記積分手段による積分値、または隣接するフィールドもしくはフレームにおける積分値の差分値を、正規化する正規化手段、Normalization means for normalizing the integration value by the integration means or the difference value of the integration values in adjacent fields or frames
フリッカの所定周期分の期間にあらかじめ規定された一定数のサンプリング位置に対応するデータを、前記正規化手段による正規化後の積分値または差分値を基に補間して生成し、当該サンプリング位置に対応するデータを画像信号として出力する補間処理手段、Data corresponding to a predetermined number of sampling positions defined in advance during a predetermined period of flicker is generated by interpolating based on the integrated value or difference value after normalization by the normalizing means, and Interpolation processing means for outputting corresponding data as an image signal,
前記補間処理手段により生成された前記画像信号を解析することによりスペクトルを抽出する周波数解析手段、Frequency analysis means for extracting a spectrum by analyzing the image signal generated by the interpolation processing means;
前記周波数解析手段により抽出されたスペクトルからフリッカ成分を推定するフリッカ推定手段、Flicker estimation means for estimating a flicker component from the spectrum extracted by the frequency analysis means;
前記フリッカ推定手段により推定されたフリッカ成分から、前記入力画像信号と位相が等しく、かつライン数が等しい補正用のフリッカ成分を生成する補正用フリッカ成分生成手段、  A correction flicker component generation unit that generates a correction flicker component having the same phase as the input image signal and the same number of lines from the flicker component estimated by the flicker estimation unit;
前記補正用のフリッカ成分により前記入力画像信号からフリッカ成分を除去する画像補正手段、  Image correction means for removing a flicker component from the input image signal by the correction flicker component;
として前記コンピュータを機能させることを特徴とする画像処理プログラム。  An image processing program for causing the computer to function as:
JP2009283142A 2005-06-13 2009-12-14 Image processing apparatus and imaging apparatus Expired - Fee Related JP5088361B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009283142A JP5088361B2 (en) 2005-06-13 2009-12-14 Image processing apparatus and imaging apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005172109 2005-06-13
JP2005172109 2005-06-13
JP2009283142A JP5088361B2 (en) 2005-06-13 2009-12-14 Image processing apparatus and imaging apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005325268A Division JP4453648B2 (en) 2005-06-13 2005-11-09 Image processing apparatus and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2010063169A JP2010063169A (en) 2010-03-18
JP5088361B2 true JP5088361B2 (en) 2012-12-05

Family

ID=37520001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009283142A Expired - Fee Related JP5088361B2 (en) 2005-06-13 2009-12-14 Image processing apparatus and imaging apparatus

Country Status (2)

Country Link
JP (1) JP5088361B2 (en)
CN (1) CN1882047B (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101919479B1 (en) * 2012-05-02 2018-11-19 삼성전자주식회사 Apparatus and method for detecting flicker in a camera module
WO2014167865A1 (en) * 2013-04-12 2014-10-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Flicker reducing device, imaging device, and flicker reducing method
WO2018079390A1 (en) * 2016-10-27 2018-05-03 ソニー株式会社 Video signal processing device, imaging device, method for checking for flickering in imaging device, and server

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0416771A (en) * 1990-05-11 1992-01-21 Hioki Ee Corp Method for measuring higher harmonic by memory recorder
JP2000055949A (en) * 1998-08-10 2000-02-25 Hitachi Building Systems Co Ltd Method and apparatus for analyzing frequency
JP3476400B2 (en) * 1999-10-19 2003-12-10 松下電器産業株式会社 Flicker detection / correction apparatus and flicker detection / correction method
US7187405B2 (en) * 2001-10-02 2007-03-06 Avago Technologies General Ip (Singapore) Pte. Ltd. Automatic flicker frequency detection device and method
JP2003198932A (en) * 2001-12-27 2003-07-11 Sharp Corp Flicker correction device, flicker correction method, and recording medium with flicker correction program recorded
JP4423889B2 (en) * 2002-11-18 2010-03-03 ソニー株式会社 Flicker reduction method, imaging apparatus, and flicker reduction circuit
JP3826904B2 (en) * 2003-07-08 2006-09-27 ソニー株式会社 Imaging apparatus and flicker reduction method

Also Published As

Publication number Publication date
CN1882047B (en) 2011-06-15
CN1882047A (en) 2006-12-20
JP2010063169A (en) 2010-03-18

Similar Documents

Publication Publication Date Title
JP4453648B2 (en) Image processing apparatus and imaging apparatus
JP4539449B2 (en) Image processing apparatus and imaging apparatus
US9036050B2 (en) Image processing device, image processing method, and program
KR100515225B1 (en) Flicker correction apparatus and flicker correction method, and recording medium storing flicker correction program
WO2017090300A1 (en) Image processing apparatus and image processing method, and program
US8072511B2 (en) Noise reduction processing apparatus, noise reduction processing method, and image sensing apparatus
US7454131B2 (en) Image sensing apparatus with camera shake correction function
JP4631558B2 (en) Imaging apparatus and image processing program
JP5523124B2 (en) Imaging device
JP4539432B2 (en) Image processing apparatus and imaging apparatus
JP4883772B2 (en) Image processing apparatus and method
WO2019069633A1 (en) Two-dimensional flicker measurement apparatus and two-dimensional flicker measurement method
JP5088361B2 (en) Image processing apparatus and imaging apparatus
US20130083206A1 (en) Imaging apparatus, computer readable medium and imaging method
WO2012070440A1 (en) Image processing device, image processing method, and image processing program
JP4867822B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP2011130167A (en) Imaging apparatus and image processing method thereof
JP6525525B2 (en) Imaging device, control method therefor, program, storage medium
JP2007158964A (en) Image processing apparatus and imaging device
WO2016098155A1 (en) Image processing apparatus and image processing method
JP3865125B2 (en) Image processing apparatus and method, recording medium, and program
KR100745289B1 (en) Apparatus and method for distortion compensation of camera lens in the mobile terminal
JP2011164356A (en) Display device and display method
JP5004693B2 (en) Image processing apparatus, noise removal method thereof, and program
JP2013020584A (en) Image processing system, method, program and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120814

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120827

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5088361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees