JP2017188837A - Image processing apparatus, control method thereof, and program - Google Patents

Image processing apparatus, control method thereof, and program Download PDF

Info

Publication number
JP2017188837A
JP2017188837A JP2016077930A JP2016077930A JP2017188837A JP 2017188837 A JP2017188837 A JP 2017188837A JP 2016077930 A JP2016077930 A JP 2016077930A JP 2016077930 A JP2016077930 A JP 2016077930A JP 2017188837 A JP2017188837 A JP 2017188837A
Authority
JP
Japan
Prior art keywords
image
flicker
signal
correction value
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016077930A
Other languages
Japanese (ja)
Other versions
JP6659168B2 (en
Inventor
茂夫 網代
Shigeo Ajiro
茂夫 網代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016077930A priority Critical patent/JP6659168B2/en
Publication of JP2017188837A publication Critical patent/JP2017188837A/en
Application granted granted Critical
Publication of JP6659168B2 publication Critical patent/JP6659168B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing technology that can perform appropriate flicker correction on an image even when a driving method of an imaging device changes within a frame.SOLUTION: An image processing device 100 comprises flicker detection means 105 that detects a flicker component of an image read from an imaging device 102 in which a driving method in acquiring the image changes in a frame, correction value calculation means 106 that generates a flicker correction value based on the flicker component detected by the flicker detection means 105, and pixel-based information read from an imaging device 102 according to a change of the driving method, and flicker correction means 108 that removes the flicker component of the image read from the imaging device 102 using the flicker correction value.SELECTED DRAWING: Figure 1

Description

本発明は、例えばデジタルカメラ等の撮像装置を含む画像処理装置に関し、特に撮像素子の駆動方式がフレーム内で変化する場合に画像に対して適切なフリッカ補正を行う画像処理技術に関する。   The present invention relates to an image processing apparatus including an imaging apparatus such as a digital camera, and more particularly to an image processing technique for performing an appropriate flicker correction on an image when a driving method of an imaging element changes within a frame.

デジタルカメラ等の撮像装置では、CMOSセンサなど撮像素子を用いた多機能化が進み、瞳分割方式で焦点検出可能な技術や画像中の周期的な信号レベルの変動(以下、フリッカ)成分を補正する技術がある。   In imaging devices such as digital cameras, multi-functionalization using image sensors such as CMOS sensors has progressed, and technologies that can detect the focus using the pupil division method and periodic signal level fluctuation (hereinafter referred to as flicker) components in images are corrected. There is technology to do.

例えば、撮像素子の焦点検出処理に用いる画素行では、各画素のフォトダイオード(以下、PDという。)毎に信号を独立に読み出し、焦点検出処理に用いない画素行では、画素内でPDの信号を加算して画像生成用の信号を読み出す技術が提案されている。この提案では、撮像素子からの信号の読み出し時間の増大を抑制できるとしている(特許文献1)。   For example, in a pixel row used for focus detection processing of an image sensor, a signal is read out independently for each photodiode (hereinafter referred to as PD) of each pixel, and in a pixel row not used for focus detection processing, a PD signal is stored in the pixel. A technique has been proposed in which signals for image generation are read out by adding. In this proposal, an increase in signal readout time from the image sensor can be suppressed (Patent Document 1).

また、撮像素子の蓄積時間と点滅光源による輝度信号の変調度をあらかじめテーブル化して記憶しておくことで、現フレームから次フレームの補正値を予測してフリッカ補正する技術が提案されている(特許文献2)。   In addition, a technique for predicting a correction value of the next frame from the current frame and correcting the flicker by preliminarily storing the storage time of the image sensor and the degree of modulation of the luminance signal by the blinking light source has been proposed ( Patent Document 2).

特開2016−021052号公報JP 2006-021052 A 特開2013−17238号公報JP 2013-17238 A

しかし、上記特許文献1に開示された従来技術では、焦点検出に用いる画素行とそうではない画素行の画素信号をローリングシャッタで読み出ししてしまうと、読み出しに要する時間が互いに異なってしまう。その為、焦点検出用の画素信号の読み出しの有無によってフリッカの周期がフレーム内で変化してしまい、上記特許文献2に開示された従来技術には適用することができない。   However, in the conventional technique disclosed in Patent Document 1, when pixel signals of a pixel row used for focus detection and a pixel row that is not so are read by a rolling shutter, the time required for reading differs from each other. For this reason, the flicker cycle changes within the frame depending on whether or not the focus detection pixel signal is read out, and thus cannot be applied to the conventional technique disclosed in Patent Document 2.

そこで、本発明は、撮像素子の駆動方式がフレーム内で変化する場合でも、画像に対して適切なフリッカ補正を可能とする画像処理技術を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing technique that enables appropriate flicker correction on an image even when the driving method of an image sensor changes within a frame.

上記目的を達するために、本発明の画像処理装置は、画像を取得する際の駆動方式がフレーム内で変化する撮像素子から読み出された画像のフリッカ成分を検出するフリッカ検出手段と、前記フリッカ検出手段によって検出された前記フリッカ成分と前記駆動方式の変化に応じて前記撮像素子から読み出された画素に基づく情報とに基づいてフリッカ補正値を生成する補正値算出手段と、前記フリッカ補正値を用いて前記撮像素子から読み出された画像のフリッカ成分を除去するフリッカ補正手段と、を備えることを特徴とする。   In order to achieve the above object, an image processing apparatus according to the present invention includes a flicker detection unit that detects a flicker component of an image read from an image sensor whose driving method for acquiring an image changes in a frame, and the flicker Correction value calculation means for generating a flicker correction value based on the flicker component detected by the detection means and information based on the pixels read from the image sensor in accordance with a change in the driving method; and the flicker correction value And flicker correction means for removing a flicker component of an image read from the image sensor using the image sensor.

本発明によれば、撮像素子の駆動方式がフレーム内で変化する場合でも、画像に対して適切にフリッカ補正を行うことができる。   According to the present invention, it is possible to appropriately perform flicker correction on an image even when the driving method of the image sensor changes within a frame.

本発明の画像処理装置の第1の実施形態であるデジタルカメラのシステム構成を示す制御ブロック図である。1 is a control block diagram illustrating a system configuration of a digital camera which is a first embodiment of an image processing apparatus of the present invention. 撮像素子の単位画素の回路構成図である。It is a circuit block diagram of the unit pixel of an image sensor. (a)は着目ラインの時間軸方向の輝度の変動を示すグラフ図、(b)は撮像素子に対する点滅光源による輝度変動と位相の関係を示すグラフ図である。(A) is a graph showing the luminance variation in the time axis direction of the line of interest, and (b) is a graph showing the relationship between the luminance variation due to the blinking light source and the phase with respect to the image sensor. 撮像素子で撮像された画像とフリッカとの関係を模式的に示す図である。It is a figure which shows typically the relationship between the image imaged with the image pick-up element, and flicker. 撮像素子の駆動方式がフレーム内で変化することによって発生するフリッカ成分について説明する図である。It is a figure explaining the flicker component which arises when the drive system of an image sensor changes within a frame. 拡張フリッカ補正値算出部の具体的構成を示すブロック図である。It is a block diagram which shows the specific structure of an extended flicker correction value calculation part. 拡張フリッカ補正値算出部の動作を説明するタイミングチャート図である。It is a timing chart explaining operation | movement of an extended flicker correction value calculation part. 撮像素子から読み出される信号とフリッカ補正値信号との関係を説明する図である。It is a figure explaining the relationship between the signal read from an image sensor, and a flicker correction value signal. システム制御部の制御に基づくカメラのフリッカ補正の動作を説明するフローチャート図である。It is a flowchart explaining the operation | movement of the flicker correction of a camera based on control of a system control part. 本発明の画像処理装置の第2の実施形態であるデジタルカメラにおいて、画像信号と焦点検出信号のライン毎の読み出し時間の比率が1:2の場合について説明するグラフ図である。In the digital camera which is 2nd Embodiment of the image processing apparatus of this invention, it is a graph explaining the case where the ratio of the reading time for every line of an image signal and a focus detection signal is 1: 2. 拡張フリッカ補正値算出部の具体的構成を説明するブロック図である。It is a block diagram explaining the specific structure of an extended flicker correction value calculation part. 撮像素子から読み出される信号とフリッカ補正値信号との関係を説明するグラフ図である。It is a graph explaining the relationship between the signal read from an image sensor, and a flicker correction value signal.

以下、図面を参照して、本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
図1は、本発明の画像処理装置の第1の実施形態であるデジタルカメラのシステム構成を示す制御ブロック図である。なお、本実施形態では、本発明の画像処理装置として、撮像装置の一例であるデジタルカメラを例示するが、これに限定されない。
(First embodiment)
FIG. 1 is a control block diagram showing a system configuration of a digital camera which is a first embodiment of an image processing apparatus of the present invention. In the present embodiment, a digital camera that is an example of an imaging apparatus is illustrated as an image processing apparatus of the present invention, but the present invention is not limited to this.

図1に示すように、本実施形態のデジタルカメラ100(以下、カメラ100という。)は、撮像光学系101、撮像素子102、A/D変換部103、キャプチャ部104、フリッカ検出部105、及び拡張フリッカ補正値算出部106を備える。また、カメラ100は、フリッカ補正部108、デジタル信号処理部109、システム制御部110、AF評価値算出部111、及びメモリ112を備える。   As shown in FIG. 1, a digital camera 100 (hereinafter referred to as a camera 100) of the present embodiment includes an imaging optical system 101, an imaging element 102, an A / D conversion unit 103, a capture unit 104, a flicker detection unit 105, and An extended flicker correction value calculation unit 106 is provided. The camera 100 also includes a flicker correction unit 108, a digital signal processing unit 109, a system control unit 110, an AF evaluation value calculation unit 111, and a memory 112.

撮像素子102は、フォーカスレンズを含む撮像光学系101を通過して結像した被写体像を光電変換してA/D変換部103に出力する。撮像素子102は、正面側(被写体側)に瞳分割手段としての不図示のマイクロレンズアレイが設けられ、各マイクロレンズに対応する単位画素セルの二次元配列構造を有して、撮像光学系101を構成するシャッタによって露光量の制御が行われる。   The image sensor 102 photoelectrically converts the subject image formed through the imaging optical system 101 including the focus lens and outputs the subject image to the A / D converter 103. The imaging element 102 is provided with a microlens array (not shown) as pupil dividing means on the front side (subject side), has a two-dimensional array structure of unit pixel cells corresponding to each microlens, and the imaging optical system 101. The amount of exposure is controlled by a shutter that constitutes.

そして、撮像素子102は、結像した被写体像を光電変換して撮像し、読み出し制御時において、単位画素を構成するPDに蓄積された電荷を順次電圧に変換して、A/D変換部103に出力する。単体画素セルは、行方向に配列されて、2つに瞳分割された画素(以下、分割画素(第1の光電変換部)a,分割画素(第2の光電変換部)bという。)を有する。分割画素a,bの位相差により焦点検出が行われ、分割画素a,bを加算することにより撮影画像が生成される。なお、撮像素子102に蓄積された電荷の転送および読み出しはラインごとに実行される。   Then, the image sensor 102 photoelectrically converts the image of the formed subject image, captures it, and sequentially converts the charges accumulated in the PD constituting the unit pixel to a voltage at the time of readout control, thereby converting the A / D converter 103. Output to. The single pixel cell is a pixel arrayed in the row direction and divided into two pupils (hereinafter referred to as a divided pixel (first photoelectric conversion unit) a and a divided pixel (second photoelectric conversion unit) b). Have. Focus detection is performed based on the phase difference between the divided pixels a and b, and a captured image is generated by adding the divided pixels a and b. Note that the transfer and reading of the charges accumulated in the image sensor 102 are executed for each line.

A/D変換部103は、ISO感度の増幅するアナログ信号処理部や不図示のCDS回路を介して撮像素子102から出力されたアナログ信号をデジタル信号に変換してキャプチャ部104へ出力する。   The A / D conversion unit 103 converts an analog signal output from the image sensor 102 via an analog signal processing unit that amplifies ISO sensitivity or a CDS circuit (not shown) into a digital signal and outputs the digital signal to the capture unit 104.

キャプチャ部104は、A/D変換部103から出力された画素データの有効走査期間及び種別を判定し、分割画素a,bを加算したデータを画像信号としてフリッカ検出部105及びフリッカ補正部108へ出力する。また、キャプチャ部104は、分割画素a,bのデータを焦点検出信号として、及び画像信号をAF評価値算出部111へ出力する。更に、キャプチャ部104は、システム制御部110に対して、画像信号及び焦点検出信号の有効走査期間の制御信号を出力する。   The capture unit 104 determines the effective scanning period and type of the pixel data output from the A / D conversion unit 103, and uses the data obtained by adding the divided pixels a and b as an image signal to the flicker detection unit 105 and the flicker correction unit 108. Output. Further, the capture unit 104 outputs the data of the divided pixels a and b as a focus detection signal and outputs an image signal to the AF evaluation value calculation unit 111. Further, the capture unit 104 outputs a control signal for the effective scanning period of the image signal and the focus detection signal to the system control unit 110.

フリッカ検出部105は、キャプチャ部104から出力された画像信号のフリッカ成分(周波数の振幅・位相)を検出し、拡張フリッカ補正値算出部106へ出力する。なお、フリッカ成分としてフリッカのピークおよびボトムを検出する構成であってもよい。   The flicker detection unit 105 detects the flicker component (frequency amplitude / phase) of the image signal output from the capture unit 104 and outputs the detected flicker component to the extended flicker correction value calculation unit 106. The flicker component may be detected as a flicker peak and bottom.

拡張フリッカ補正値算出部106は、フリッカ検出部105からのフリッカ成分と、システム制御部110から出力される画像信号及び焦点検出信号の有効走査期間に基づいて垂直カウント数を算出し、フリッカ補正値を生成する。なお、フリッカ補正値の算出方法の詳細について、後述する。   The extended flicker correction value calculation unit 106 calculates the vertical count number based on the flicker component from the flicker detection unit 105 and the effective scanning period of the image signal and focus detection signal output from the system control unit 110, and the flicker correction value. Is generated. Details of the flicker correction value calculation method will be described later.

フリッカ補正部108は、フリッカの影響を低減した画像信号を出力することで、フリッカ補正を実行するフリッカ補正手段である。具体的に、フリッカ補正部108は、キャプチャ部104から出力された画像信号と拡張フリッカ補正値算出部106で生成されたフリッカ補正値との減算処理によりフリッカ成分を除去した画像信号をデジタル信号処理部109へ出力する。   The flicker correction unit 108 is flicker correction means for performing flicker correction by outputting an image signal in which the influence of flicker is reduced. Specifically, the flicker correction unit 108 performs digital signal processing on the image signal from which the flicker component has been removed by subtraction processing between the image signal output from the capture unit 104 and the flicker correction value generated by the extended flicker correction value calculation unit 106. Output to the unit 109.

デジタル信号処理部109は、フリッカ補正部108からベイヤー配列で出力された画像信号に対して同時化処理、ガンマ処理やノイズリダクション処理に代表されるデジタル信号処理を行い、システム制御部110を介してメモリ112に出力する。なお、同時化処理、ガンマ処理、ノイズリダクション等のデジタル信号処理については公知であるため、その詳細な説明を省略する。   The digital signal processing unit 109 performs digital signal processing typified by synchronization processing, gamma processing, and noise reduction processing on the image signal output in a Bayer array from the flicker correction unit 108, and passes through the system control unit 110. Output to the memory 112. Since digital signal processing such as synchronization processing, gamma processing, and noise reduction is well known, detailed description thereof is omitted.

システム制御部110は、CPUやMPU等で構成され、カメラ100全体の制御を司る。   The system control unit 110 includes a CPU, an MPU, and the like, and controls the entire camera 100.

AF評価値算出部111は、キャプチャ部104から出力された焦点検出信号と画像信号を基に、オートフォーカス用の評価値成分を算出し、算出結果をメモリ112へ出力する。具体的には、AF評価値算出部111は、焦点検出信号と、画像信号と焦点検出信号を減算して生成されたもう一方の焦点検出信号とに基づき、位相差検出方式で評価値を算出し、算出した評価値をメモリ112へ出力する。なお、評価値の算出方法については、公知であるため、その詳細な説明を省略する。   The AF evaluation value calculation unit 111 calculates an autofocus evaluation value component based on the focus detection signal and the image signal output from the capture unit 104, and outputs the calculation result to the memory 112. Specifically, the AF evaluation value calculation unit 111 calculates the evaluation value by the phase difference detection method based on the focus detection signal and the other focus detection signal generated by subtracting the image signal and the focus detection signal. Then, the calculated evaluation value is output to the memory 112. In addition, since the calculation method of an evaluation value is well-known, the detailed description is abbreviate | omitted.

メモリ112は、デジタル信号処理部109から出力された撮影画像、及びAF評価値算出部111から出力された評価値を保持する。また、メモリ112は、システム制御部110の作業領域としても使用することが可能である。不揮発性メモリ113は、フラッシュROM等で構成され、システム制御部110が実行するプログラムコードや各種データ等が書き込まれる。   The memory 112 holds the captured image output from the digital signal processing unit 109 and the evaluation value output from the AF evaluation value calculation unit 111. The memory 112 can also be used as a work area for the system control unit 110. The non-volatile memory 113 is configured by a flash ROM or the like, and program codes executed by the system control unit 110 and various data are written therein.

次に、図2を参照して、撮像素子102の出力信号の読み出し方法について説明する。ここでは、撮像素子102の出力信号の読み出しに要する時間に大きく影響する部分について説明する。   Next, a method for reading the output signal of the image sensor 102 will be described with reference to FIG. Here, a part that greatly affects the time required for reading the output signal of the image sensor 102 will be described.

図2に示すように、前述した分割画素a,bのPD201a,201bに入射した光信号が光電変換され、露光量に応じた電荷が蓄積される。転送ゲート202a,202bのゲートに印加する信号txa,txbをそれぞれHighレベルにすると、PD201a,201bに蓄積されている電荷がFD(フローティングディフュージョン)部203に転送される。   As shown in FIG. 2, the optical signals incident on the PDs 201a and 201b of the divided pixels a and b described above are photoelectrically converted, and charges corresponding to the exposure amount are accumulated. When the signals txa and txb applied to the gates of the transfer gates 202a and 202b are set to high level, the charges accumulated in the PDs 201a and 201b are transferred to the FD (floating diffusion) unit 203.

FD部203は、FDアンプ204のゲートに接続されており、PD201a,PD201bから転送されてきた電荷量がFDアンプ204によって電圧量に変換される。画素選択スイッチ206のゲートに印加する信号selをHighレベルとすることで、FDアンプ204によって電圧に変換された画素信号が単位画素の出力部voutに出力される。   The FD unit 203 is connected to the gate of the FD amplifier 204, and the charge amount transferred from the PD 201 a and the PD 201 b is converted into a voltage amount by the FD amplifier 204. By setting the signal sel applied to the gate of the pixel selection switch 206 to a high level, the pixel signal converted into a voltage by the FD amplifier 204 is output to the output unit vout of the unit pixel.

画素信号の読み出し前には、FD部203をリセットするため、FDリセットスイッチ205のゲートに印加する信号resをHighレベルとする。また、電荷の蓄積を開始する際には、PD201a,201bの電荷をリセットするため、信号resと信号txa,txbとを同時にHighレベルとする。これにより、転送ゲート202a,202b及びFDリセットスイッチ205の両方がオン状態となり、FD部203を経由してPD201a,PD201bがリセットされる。   Before the pixel signal is read, the signal res applied to the gate of the FD reset switch 205 is set to a high level in order to reset the FD unit 203. Further, when charge accumulation is started, the signal res and the signals txa and txb are simultaneously set to the high level in order to reset the charges of the PDs 201a and 201b. As a result, both the transfer gates 202a and 202b and the FD reset switch 205 are turned on, and the PD 201a and PD 201b are reset via the FD unit 203.

画像対象の領域を読み出す際は、信号txa,txbを同時にHighレベルとすることで、PD201aとPD201bに蓄積されていた電荷が合成されてFD部203に転送され、分割画素a,bの合成信号が出力される。   When reading the region to be imaged, the signals txa and txb are simultaneously set to the high level so that the charges accumulated in the PD 201a and the PD 201b are combined and transferred to the FD unit 203, and the combined signal of the divided pixels a and b Is output.

一方、画像対象外の領域、例えば焦点検出の対象に指定された領域(焦点検出対象の領域)を読み出す際は、まず、信号txaをHighレベル、信号txbをLowレベルの状態にする。これにより、PD201aに蓄積されていた電荷のみがFD部203に転送され、分割画素aの画素信号が出力される。次に、信号txbもHighレベルにすることで、PD201bに蓄積されていた電荷がFD部203でPD201aに蓄積されていた電荷と合成され、分割画素a,bの合成信号が出力される。   On the other hand, when reading a region other than an image target, for example, a region designated as a focus detection target (a focus detection target region), first, the signal txa is set to a high level and the signal txb is set to a low level. Thereby, only the electric charge accumulated in the PD 201a is transferred to the FD unit 203, and the pixel signal of the divided pixel a is output. Next, the signal txb is also set to a high level, whereby the charge accumulated in the PD 201b is synthesized with the charge accumulated in the PD 201a in the FD unit 203, and a synthesized signal of the divided pixels a and b is output.

焦点検出対象の領域は、分割画素aの画素信号と分割画素a,bの合成画素信号とをライン単位で順次出力するため、画像対象の領域に比べて信号の読み出しに要する時間が2倍となる。   Since the focus detection target area sequentially outputs the pixel signal of the divided pixel a and the combined pixel signal of the divided pixels a and b in units of lines, the time required to read out the signal is twice that of the image target area. Become.

なお、ここでは、焦点検出対象の領域の読み出し時間が画像対象の領域の2倍となる場合を例示したが、必ずしも2倍でなくてもよい。例えば、分割画素aの画素信号は、周囲の画素と加算して出力する等、撮像素子102からの読み出し量を減らすことで、読み出し時間の増加を抑えることができる。また、水平方向に焦点検出対象の領域を絞ることで、焦点検出対象の領域を含むラインと含まないラインとの読み出し時間の差を抑えることもできる。   Here, the case where the readout time of the focus detection target region is twice as long as that of the image target region is illustrated, but it is not necessarily double. For example, the increase in the readout time can be suppressed by reducing the readout amount from the image sensor 102, for example, by adding and outputting the pixel signal of the divided pixel a with the surrounding pixels. Further, by narrowing the focus detection target region in the horizontal direction, it is possible to suppress a difference in readout time between a line including the focus detection target region and a line not including the focus detection target region.

また、ここでは、1画素に対して2つのPD201a,201bを備える撮像素子102を例示したが、領域毎に信号の読み出しに要する時間が異なる方法で撮像素子からの読み出しを行う場合にも、同様の課題が発生するため、本発明を適用可能である。例えば、領域毎に画素信号を周囲と加算して読み出すか否かを切り替えたり、加算する画素数を変化させたり、加算ではなく、間引いて読み出す場合などにも、本発明を適用できる。   In addition, here, the image pickup device 102 including two PDs 201a and 201b for one pixel is illustrated, but the same applies to the case where reading from the image pickup device is performed by a method in which the time required to read out the signal for each region is different. Therefore, the present invention can be applied. For example, the present invention can also be applied to a case where pixel signals are added to the surroundings for each region to switch whether to read, to change the number of pixels to be added, or to read by thinning instead of addition.

また、領域毎に画素データのbit数を変化させる場合や、PDに対して電荷を保持した状態で信号が読み出せる非破壊読み出しが可能な撮像素子に対して一部領域のみを複数回読み出す場合にも、本発明を適用できる。   Also, when changing the number of bits of pixel data for each area, or when reading only a part of the area multiple times for an image sensor capable of non-destructive readout that can read out signals with the PD held in charge. Also, the present invention can be applied.

次に、図3を参照して、フリッカ検出方法について説明する。図3(a)は、着目ライン501の時間軸方向の輝度の変動を示すグラフ図である。図3(a)において、縦軸は、画像の輝度の信号レベルを示し、横軸は、フレーム毎の時間を示している。また、時間α、α+T、α+2Tのそれぞれの着目ライン501、着目ライン504、着目ライン505の輝度の変化を輝度変動502として示している。   Next, a flicker detection method will be described with reference to FIG. FIG. 3A is a graph illustrating the luminance variation in the time axis direction of the line of interest 501. In FIG. 3A, the vertical axis represents the signal level of the luminance of the image, and the horizontal axis represents the time for each frame. In addition, changes in luminance of the target line 501, the target line 504, and the target line 505 for each of the times α, α + T, and α + 2T are indicated as luminance fluctuations 502.

図3(b)は、撮像素子102に対する点滅光源(フリッカ光源)による輝度変動と位相の関係を示すグラフ図である。図3(b)では、画像のフレーム内のフリッカ成分503を示している。また、前述した輝度変動502は、フリッカ成分503を垂直同期信号の時間間隔Tでサンプリングされた波形として示している。   FIG. 3B is a graph showing the relationship between the luminance variation and phase due to the blinking light source (flicker light source) for the image sensor 102. FIG. 3B shows the flicker component 503 in the frame of the image. Further, the above-described luminance fluctuation 502 shows the flicker component 503 as a waveform sampled at the time interval T of the vertical synchronization signal.

輝度変動502の1周期は、複数フレームの着目ラインの輝度変化をサンプリングすることで求めることができる。これにより、フリッカ成分503の振幅は、輝度変動502の1周期分から輝度の最大値までの変化量に基づき求めることができる。また、例えば、着目ライン504の位相を求める場合には、フリッカ成分503の振幅と着目ライン504の輝度の信号レベルとの関係から算出することができる。着目ライン505についても、着目ライン504と同様に位相を算出することができる。   One cycle of the luminance fluctuation 502 can be obtained by sampling the luminance change of the target line in a plurality of frames. Thus, the amplitude of the flicker component 503 can be obtained based on the amount of change from one period of the luminance fluctuation 502 to the maximum luminance value. For example, when the phase of the line of interest 504 is obtained, it can be calculated from the relationship between the amplitude of the flicker component 503 and the signal level of the luminance of the line of interest 504. The phase of the target line 505 can be calculated in the same manner as the target line 504.

なお、フリッカ検出方法は、これに限定することなく、撮像素子102の駆動方式がフレーム内で変わる場合は、駆動方式がフレーム内で変わらない領域にフリッカ検出枠を設け、検出枠内でフリッカ成分を検出してもよい。例えば、画像信号の垂直方向の1周期以上の一部分をサンプリングすることでフリッカ成分を検出してもよい。   The flicker detection method is not limited to this, and when the driving method of the image sensor 102 changes within the frame, a flicker detection frame is provided in an area where the driving method does not change within the frame, and the flicker component is detected within the detection frame. May be detected. For example, the flicker component may be detected by sampling a part of one or more periods of the image signal in the vertical direction.

次に、図4を参照して分割画素a,bが配置されている撮像素子102の加算読み出しのみ行った場合のフリッカ補正方法について説明する。図4は、撮像素子102で撮像された画像とフリッカとの関係を模式的に示す図である。   Next, a flicker correction method when only addition reading of the image sensor 102 in which the divided pixels a and b are arranged will be described with reference to FIG. FIG. 4 is a diagram schematically illustrating a relationship between an image captured by the image sensor 102 and flicker.

図4(a)は、撮像素子102の単体画素セル内で分割画素a,bの加算読み出しのみ行うことで出力する画像に対応する領域(以下、画像対象の領域と称す)305を示している。図4(a)において、水平方向(横方向)は、画像の水平サイズを示し、垂直方向(縦方向)は、撮像素子102の画像信号及び焦点検出信号の垂直方向の読み出しラインを示している。また、画像対象の領域305の所定の領域を拡大した拡大画像306では、分割画素aの画素値をAとし、分割画素bの画素値をBとしている。この画像対象の領域305では、撮像素子102の読み出し周期と点光源の周期の関係に応じてフリッカ成分303が発生する。   FIG. 4A shows a region (hereinafter referred to as an image target region) 305 corresponding to an image to be output by only performing addition reading of the divided pixels a and b in the single pixel cell of the image sensor 102. . In FIG. 4A, the horizontal direction (horizontal direction) indicates the horizontal size of the image, and the vertical direction (vertical direction) indicates the vertical readout line of the image signal and the focus detection signal of the image sensor 102. . Further, in the enlarged image 306 obtained by enlarging a predetermined area of the image target area 305, the pixel value of the divided pixel a is A, and the pixel value of the divided pixel b is B. In this image target region 305, a flicker component 303 is generated according to the relationship between the readout cycle of the image sensor 102 and the cycle of the point light source.

図4(b)は、所定の蓄積時間で撮像素子102から画像信号301を読み出した場合を示している。図4(b)では、点滅光源によって信号レベルが変調されて生じるフリッカが垂直方向に明暗の形で画像信号301のように現れている。   FIG. 4B shows a case where the image signal 301 is read from the image sensor 102 with a predetermined accumulation time. In FIG. 4B, flicker generated by modulating the signal level by the blinking light source appears like an image signal 301 in the form of light and dark in the vertical direction.

図4(c)では、点滅光源の発光周期に依存して画像信号301に周期的にレベル変動するフリッカ成分303が現れている。図4(c)において、縦方向は、各垂直ライン数に対応し、横方向は、画像信号のフリッカ成分の信号レベルに対応している。   In FIG. 4C, a flicker component 303 whose level varies periodically in the image signal 301 appears depending on the light emission period of the blinking light source. In FIG. 4C, the vertical direction corresponds to the number of vertical lines, and the horizontal direction corresponds to the signal level of the flicker component of the image signal.

図4(d)は、画像信号301のフリッカ成分303を除去するためのフリッカ補正値302を示している。図4(d)において、縦軸は、画像信号301の各垂直ライン数に対応しており、横軸は、フリッカ補正値302の信号レベルに対応している。一様な周期のフリッカ補正値302をフリッカ成分303から減算することで、画像対象の領域305でフリッカ補正を行う。   FIG. 4D shows a flicker correction value 302 for removing the flicker component 303 of the image signal 301. In FIG. 4D, the vertical axis corresponds to the number of vertical lines of the image signal 301, and the horizontal axis corresponds to the signal level of the flicker correction value 302. By subtracting the flicker correction value 302 having a uniform period from the flicker component 303, the flicker correction is performed in the image target area 305.

ここで、フリッカ補正値の算出例を説明する。フリッカ補正値Ynは、公知の数式である次式(1)を用いて求めることができる。   Here, an example of calculating the flicker correction value will be described. The flicker correction value Yn can be obtained using the following formula (1) which is a well-known formula.

上式(1)において、Nは、サンプリングの母数、Yn(n=0,1,…N−1)は、サンプリングされたデータ、θkは、フリッカ成分の位相差を示す。   In the above formula (1), N is a sampling parameter, Yn (n = 0, 1,... N−1) is sampled data, and θk is a phase difference of flicker components.

本実施形態では、拡張フリッカ補正値算出部106に撮像素子102の蓄積時間と点滅光源による輝度信号の変調度、及びあらかじめ測定されたフリッカの周波数特性をテーブル化して保持しているが、システム制御部110で学習させて記憶させてもよい。   In this embodiment, the extended flicker correction value calculation unit 106 stores the accumulation time of the image sensor 102, the modulation degree of the luminance signal by the blinking light source, and the frequency characteristics of flicker measured in advance as a table. The unit 110 may learn and store the information.

次に、図5を参照して、撮像素子102の駆動方式がフレーム内で変化することによって発生するフリッカ成分について説明する。   Next, a flicker component generated when the driving method of the image sensor 102 changes within a frame will be described with reference to FIG.

図5(a)において、水平方向は、画像の水平サイズを示し、垂直方向は、撮像素子102の画像信号、及び焦点検出信号の垂直方向の読み出しラインを示している。図5(a)では、撮像素子102の単体画素セル内で、画像対象の領域601は、分割画素a,bの加算読み出しのみを行い、焦点検出対象の領域602は、垂直ライン単位で交互に分割画素a,bの加算読み出しと分割画素aの読み出しを行っている。   In FIG. 5A, the horizontal direction indicates the horizontal size of the image, and the vertical direction indicates the vertical readout line of the image signal of the image sensor 102 and the focus detection signal. In FIG. 5A, in the single pixel cell of the image sensor 102, the image target region 601 performs only addition reading of the divided pixels a and b, and the focus detection target region 602 alternately in units of vertical lines. Addition readout of the divided pixels a and b and readout of the divided pixel a are performed.

具体的には、画像対象の領域601では、拡大画像607に表すように、分割画素a,bの加算読み出しを1、2…ライン行っている。一方、焦点検出対象の領域602では、拡大画像608に表すように、分割画素aの読み出しと分割画素a,bの加算読み出しを交互にm、m+1、…m+39ライン行っている。   Specifically, in the area 601 to be imaged, as shown in the enlarged image 607, addition reading of the divided pixels a and b is performed for 1, 2,. On the other hand, in the focus detection target area 602, as shown in the enlarged image 608, readout of the divided pixels a and addition readout of the divided pixels a and b are alternately performed on m, m + 1,.

また、図5(a)では、撮像素子102の読み出し周期と点滅光源の周期の関係に応じて発生するフリッカ成分603を示している。図5(a)から画像信号及び焦点検出信号の読み出しにかかわらず、一定周波数のフリッカ成分603が信号内に表れていることが判る。   FIG. 5A shows a flicker component 603 generated according to the relationship between the readout cycle of the image sensor 102 and the cycle of the blinking light source. From FIG. 5A, it can be seen that a flicker component 603 having a constant frequency appears in the signal regardless of reading of the image signal and the focus detection signal.

図5(b)では、画像対象の領域601と焦点検出対象の領域602のA+Bのラインを抜き出した画像信号のみを画像605として示している。また、図5(b)では、焦点検出対象の領域602の画像信号の垂直ライン、及び画像信号と読み出しラインとの対応イメージ609を示している。焦点検出対象の領域602では、読み出しライン数が画像信号の垂直ライン数に対して、ラインカウントのインクリメント値の初期値が+1となり、以後、ラインカウントのインクリメント値が2倍になっている。   In FIG. 5B, only an image signal obtained by extracting the A + B line of the image target area 601 and the focus detection target area 602 is shown as an image 605. FIG. 5B shows a vertical line of the image signal in the focus detection target region 602 and a corresponding image 609 between the image signal and the readout line. In the focus detection target region 602, the initial value of the line count increment value is +1 with respect to the number of read lines with respect to the number of vertical lines of the image signal, and thereafter, the line count increment value is doubled.

図5(c)は、画像信号605内に点滅光源の発光周期に依存して周期的にレベル変動するフリッカ成分604を示している。縦軸は、画像信号605の各垂直ライン数に対応しており、横軸は、画像信号のフリッカの信号レベルに対応している。フリッカ成分604は、焦点検出対象の領域602では、撮像素子102の読み出し信号に対して2倍にサンプリング期間が延びた影響により、フリッカ成分604の周期も2倍になっている。   FIG. 5C shows a flicker component 604 whose level periodically varies in the image signal 605 depending on the light emission period of the blinking light source. The vertical axis corresponds to the number of vertical lines of the image signal 605, and the horizontal axis corresponds to the flicker signal level of the image signal. The flicker component 604 has a period of the flicker component 604 doubled in the focus detection target region 602 due to the effect that the sampling period is doubled with respect to the readout signal of the image sensor 102.

図5(d)では、画像信号605のフリッカ成分604を除去するフリッカ補正値606を示している。図5(d)において、縦軸は、画像信号605の各垂直ライン数に対応しており、横軸は、フリッカ補正値606の信号レベルに対応している。前述したように、撮像素子102の駆動方式がフレーム内で変化しない場合は、一様な周期のフリッカ補正値606で対応できる。   FIG. 5D shows a flicker correction value 606 for removing the flicker component 604 of the image signal 605. In FIG. 5D, the vertical axis corresponds to the number of vertical lines of the image signal 605, and the horizontal axis corresponds to the signal level of the flicker correction value 606. As described above, when the driving method of the image sensor 102 does not change within the frame, the flicker correction value 606 having a uniform period can be used.

ところで、撮像素子102の駆動方式がフレーム内で変化する場合でも、画像対象の領域601については、フリッカ補正値606で補正することができる。しかし、焦点検出対象の領域602は、フリッカ成分604の周期が2倍になることから、フリッカ補正値606ではフリッカを正しく補正することができない。すなわち、フリッカ補正値606をフリッカ成分604から減算しても、フリッカの影響を効果的に低減することはできない。   By the way, even when the driving method of the image sensor 102 changes within a frame, the image target region 601 can be corrected with the flicker correction value 606. However, since the period of the flicker component 604 is doubled in the focus detection target area 602, flicker correction value 606 cannot correct flicker correctly. That is, even if the flicker correction value 606 is subtracted from the flicker component 604, the influence of flicker cannot be reduced effectively.

そこで、本実施形態では、拡張フリッカ補正値算出部106により、撮像素子102の駆動方式がフレーム内で変化する場合でも、焦点検出対象の領域602を適切に補正できるようにしている。   Therefore, in this embodiment, the extended flicker correction value calculation unit 106 can appropriately correct the focus detection target region 602 even when the driving method of the image sensor 102 changes in the frame.

図6は、拡張フリッカ補正値算出部106の具体的構成を示すブロック図である。図6に示すように、拡張フリッカ補正値算出部106は、画像信号ラインカウンタ701、加算器702、フリッカ補正テーブル703、及び焦点検出信号ラインカウンタ704を備えている。   FIG. 6 is a block diagram showing a specific configuration of the extended flicker correction value calculation unit 106. As shown in FIG. 6, the extended flicker correction value calculation unit 106 includes an image signal line counter 701, an adder 702, a flicker correction table 703, and a focus detection signal line counter 704.

画像信号ラインカウンタ701は、システム制御部110からの画像の制御信号に基づいて画像信号の垂直ライン数をカウントし、画像ラインのカウント信号709を加算器702へ出力する。   The image signal line counter 701 counts the number of vertical lines of the image signal based on the image control signal from the system control unit 110, and outputs the image line count signal 709 to the adder 702.

焦点検出信号ラインカウンタ704は、システム制御部110からの焦点検出の制御信号に基づいて焦点検出信号の垂直ライン数をカウントし、加算器702へ焦点検出ラインのカウント信号710を出力する。   The focus detection signal line counter 704 counts the number of vertical lines of the focus detection signal based on the focus detection control signal from the system control unit 110, and outputs a focus detection line count signal 710 to the adder 702.

加算器702は、画像ラインのカウント信号709と焦点検出ラインのカウント信号710とを加算して、総ラインカウント信号711をフリッカ補正テーブル703へ出力する。   The adder 702 adds the count signal 709 for the image line and the count signal 710 for the focus detection line, and outputs the total line count signal 711 to the flicker correction table 703.

フリッカ補正テーブル703では、フリッカ検出部105から出力された振幅と位相情報及び総ラインカウント信号711に基づいてフリッカ補正値を生成し、フリッカ補正値信号712をフリッカ補正部108へ出力する。   The flicker correction table 703 generates a flicker correction value based on the amplitude and phase information output from the flicker detection unit 105 and the total line count signal 711, and outputs the flicker correction value signal 712 to the flicker correction unit 108.

ここで、図7及び図8を参照して、拡張フリッカ補正値算出部106の動作を説明する。図7は、拡張フリッカ補正値算出部106の動作を説明するタイミングチャート図である。   Here, the operation of the extended flicker correction value calculation unit 106 will be described with reference to FIGS. 7 and 8. FIG. 7 is a timing chart for explaining the operation of the extended flicker correction value calculation unit 106.

図7の縦方向は、垂直同期信号、キャプチャ部104の入力信号、キャプチャ部104の出力画像信号、キャプチャ部104の出力焦点検出信号、画像ラインカウント信号709、焦点検出ラインカウント信号710及び総ラインカウント信号711を示している。また、図7の縦方向は、フリッカ補正値信号712、フリッカ補正部108の入力信号、及びフリッカ補正画像信号713を示している。   The vertical direction in FIG. 7 indicates a vertical synchronization signal, an input signal of the capture unit 104, an output image signal of the capture unit 104, an output focus detection signal of the capture unit 104, an image line count signal 709, a focus detection line count signal 710, and a total line. A count signal 711 is shown. 7 indicates the flicker correction value signal 712, the input signal of the flicker correction unit 108, and the flicker correction image signal 713.

図7の横方向は、時間を示し、信号ABは、分割画素a,bの加算読み出し信号、信号Aは、分割画素aの読み出し信号、信号Xは、不定状態の信号を示している。mは、焦点検出対象の領域における開始ラインであり、本実施形態では、焦点検出対象の領域で20ラインの焦点検出信号を読み出している。また、Yは、垂直ラインのフリッカ補正テーブル703の出力であるフリッカ補正値信号712を示している。   The horizontal direction in FIG. 7 indicates time, the signal AB indicates the added readout signal of the divided pixels a and b, the signal A indicates the readout signal of the divided pixel a, and the signal X indicates the signal in an indefinite state. m is a start line in the focus detection target region. In this embodiment, 20 lines of focus detection signals are read out in the focus detection target region. Y indicates a flicker correction value signal 712 that is an output of the flicker correction table 703 for the vertical line.

焦点検出対象の領域では、フリッカ補正値がキャプチャ部104の出力画像信号の信号ABに対して1ライン毎に対応づけされている。フリッカ補正部108では、キャプチャ部104の出力画像信号からフリッカ補正値信号712を減算してフリッカ補正画像信号713を出力している。   In the focus detection target region, the flicker correction value is associated with the signal AB of the output image signal of the capture unit 104 for each line. The flicker correction unit 108 subtracts the flicker correction value signal 712 from the output image signal of the capture unit 104 and outputs a flicker correction image signal 713.

図8は、撮像素子102から読み出される信号とフリッカ補正値信号712との関係を説明する図である。   FIG. 8 is a diagram for explaining the relationship between the signal read from the image sensor 102 and the flicker correction value signal 712.

図8において、縦軸は、撮像素子102から読み出される信号のライン数を示し、横軸は、開始ラインmからm+39に離散化させたフリッカ補正値Yの信号レベルを示している。また、キャプチャ部104の出力画像信号、及びフリッカ補正値信号712を総ラインカウント信号711に対応させている。図8と図7のタイミングチャート図から1ライン毎にキャプチャ部104の出力画像信号に対するフリッカ補正値Yが生成されることが判る。   In FIG. 8, the vertical axis represents the number of lines of the signal read from the image sensor 102, and the horizontal axis represents the signal level of the flicker correction value Y discretized from the start line m to m + 39. Further, the output image signal of the capture unit 104 and the flicker correction value signal 712 are made to correspond to the total line count signal 711. 8 and 7 that the flicker correction value Y for the output image signal of the capture unit 104 is generated for each line.

図9は、システム制御部110の制御に基づくカメラ100のフリッカ補正の動作を説明するフローチャート図である。図9に示す各処理は、不揮発性メモリ113等の記憶部に格納されたプログラムがメモリ112に展開されてシステム制御部110のCPU等により実行される。   FIG. 9 is a flowchart for explaining the flicker correction operation of the camera 100 based on the control of the system control unit 110. Each process shown in FIG. 9 is executed by the CPU or the like of the system control unit 110 after the program stored in the storage unit such as the nonvolatile memory 113 is expanded in the memory 112.

図9において、ステップS1001では、システム制御部110は、キャプチャ部104から出力された画像信号に基づき、フリッカ検出部105によりフリッカ検出処理を行い、ステップS1002に進む。   In FIG. 9, in step S1001, the system control unit 110 performs flicker detection processing by the flicker detection unit 105 based on the image signal output from the capture unit 104, and proceeds to step S1002.

ステップS1002では、システム制御部110は、拡張フリッカ補正値算出部106の焦点検出信号ラインカウンタ704(図6参照)のカウンタ数を参照し、焦点検出信号のラインか否かを判定する。そして、システム制御部110は、焦点検出信号のラインではない場合は、ステップS1004へ進み、焦点検出信号のラインの場合は、ステップS1003に進む。   In step S1002, the system control unit 110 refers to the counter number of the focus detection signal line counter 704 (see FIG. 6) of the extended flicker correction value calculation unit 106, and determines whether the line is a focus detection signal line. If the line is not the focus detection signal, the system control unit 110 proceeds to step S1004. If the line is the focus detection signal, the system control unit 110 proceeds to step S1003.

ステップS1003では、システム制御部110は、焦点検出信号ラインカウンタ704のカウンタ値をインクリメントし、ステップS1004に進む。   In step S1003, the system control unit 110 increments the counter value of the focus detection signal line counter 704, and proceeds to step S1004.

ステップS1004では、システム制御部110は、拡張フリッカ補正値算出部106の画像信号ラインカウンタ701(図6参照)のカウンタ数を参照して、画像信号のラインか否かを判定する。そして、システム制御部110は、画像信号のラインでない場合は、ステップS1006に進み、画像信号のラインの場合は、ステップS1005に進む。   In step S1004, the system control unit 110 refers to the counter number of the image signal line counter 701 (see FIG. 6) of the extended flicker correction value calculation unit 106 to determine whether the line is an image signal line. If it is not an image signal line, the system control unit 110 proceeds to step S1006. If it is an image signal line, the system control unit 110 proceeds to step S1005.

ステップS1005では、システム制御部110は、画像信号ラインカウンタ701のカウンタ値をインクリメントし、ステップS1006に進む。   In step S1005, the system control unit 110 increments the counter value of the image signal line counter 701, and proceeds to step S1006.

ステップS1006では、システム制御部110は、画像信号のカウンタ値と焦点検出信号のカウンタ値を加算器702で加算することにより、総ラインカウント数を求め、ステップS1007に進む。   In step S1006, the system control unit 110 obtains the total line count by adding the counter value of the image signal and the counter value of the focus detection signal by the adder 702, and proceeds to step S1007.

ステップS1007では、システム制御部110は、フリッカ検出部105から出力された振幅と位相情報とステップS1006で求めた総ラインカウント数に基づきフリッカ補正テーブル703によりフリッカ補正値を生成し、ステップS1008に進む。   In step S1007, the system control unit 110 generates a flicker correction value from the flicker correction table 703 based on the amplitude and phase information output from the flicker detection unit 105 and the total line count obtained in step S1006, and the process proceeds to step S1008. .

ステップS1008では、システム制御部110は、フリッカ補正部108から取得した画像信号からステップS1007で生成したフリッカ補正値を減算することにより撮影画像のフリッカ成分を補正し、ステップS1009に進む。   In step S1008, the system control unit 110 corrects the flicker component of the captured image by subtracting the flicker correction value generated in step S1007 from the image signal acquired from the flicker correction unit 108, and the process proceeds to step S1009.

ステップS1009では、システム制御部110は、フリッカ補正処理が完了したか否かを判定し、完了していない場合は、ステップS1001に戻り、完了した場合は、処理を終了する。   In step S1009, the system control unit 110 determines whether or not the flicker correction process is completed. If not completed, the system control unit 110 returns to step S1001, and if completed, ends the process.

以上説明したように、本実施形態では、撮像素子102の駆動方式がフレーム内で変化する場合でも、撮影画像に対して適切にフリッカ補正を行うことができる。   As described above, in the present embodiment, flicker correction can be appropriately performed on a captured image even when the driving method of the image sensor 102 changes within a frame.

また、本実施形態では、既存のフリッカ補正離算出部に焦点検出信号ラインカウンタ704と加算器702を追加するだけで図6に示す拡張フリッカ補正値算出部106を構成している。このため、撮像素子102の駆動方式がフレーム内で変化する場合でも、簡単な回路構成で撮影画像に対して適切にフリッカ補正を行うことができる。   Further, in this embodiment, the extended flicker correction value calculation unit 106 shown in FIG. 6 is configured only by adding the focus detection signal line counter 704 and the adder 702 to the existing flicker correction separation calculation unit. Therefore, even when the driving method of the image sensor 102 changes within a frame, flicker correction can be appropriately performed on a captured image with a simple circuit configuration.

(第2の実施形態)
次に、図10乃至図12を参照して、本発明の画像処理装置の第2の実施形態であるデジタルカメラについて説明する。なお、本実施形態では、上記第1の実施形態に対して重複又は相当する部分については図及び符号を流用して、相違する部分のみを説明する。
(Second Embodiment)
Next, a digital camera that is a second embodiment of the image processing apparatus of the present invention will be described with reference to FIGS. In the present embodiment, with respect to the parts that overlap or correspond to those in the first embodiment, only the parts that are different will be described using the drawings and the reference numerals.

本実施形態では、画像信号と焦点検出信号のライン毎の読み出し時間の比率が異なる場合でも対応できる構成としている。   In the present embodiment, it is possible to cope with a case where the ratio of the readout time for each line of the image signal and the focus detection signal is different.

まず、図10を参照して、画像信号と焦点検出信号のライン毎の読み出し時間の比率が1:2の場合について説明する。   First, the case where the ratio of the readout time for each line of the image signal and the focus detection signal is 1: 2 will be described with reference to FIG.

図10において、水平方向(横方向)は、画像の水平サイズを示し、垂直方向は、撮像素子102からの画像信号及び焦点検出信号の垂直方向の読み出しラインを示している。   In FIG. 10, the horizontal direction (lateral direction) indicates the horizontal size of the image, and the vertical direction indicates the vertical readout line of the image signal and the focus detection signal from the image sensor 102.

画像対象の領域401では、拡大画像402に示すように、分割画素a,bの加算読み出しを1、2…ラインで行っている。一方、焦点検出対象の領域403では、拡大画像404に示すように、分割画素a及び分割画素bの読み出しと分割画素a,bの加算読み出しをそれぞれm、m+1…m+39ラインで行っている。   In the image target area 401, as shown in the enlarged image 402, the divided pixels “a” and “b” are added and read out by 1, 2... Lines. On the other hand, in the focus detection target area 403, as shown in the enlarged image 404, readout of the divided pixels a and b and addition readout of the divided pixels a and b are performed on m, m + 1.

図11は、拡張フリッカ補正値算出部106Aの具体的構成を説明するブロック図である。   FIG. 11 is a block diagram illustrating a specific configuration of the extended flicker correction value calculation unit 106A.

本実施形態では、拡張フリッカ補正値算出部106Aは、上記第1の実施形態(図6参照)の拡張フリッカ補正値算出部106に対してゲイン係数部1101及び乗算器1102が追加されている点が異なる。   In the present embodiment, the extended flicker correction value calculation unit 106A includes a gain coefficient unit 1101 and a multiplier 1102 added to the extended flicker correction value calculation unit 106 of the first embodiment (see FIG. 6). Is different.

ゲイン係数部1101は、システム制御部110により画像信号と焦点検出信号の読み出し時間の比率に応じた値が設定され、ゲイン値を乗算器1102へ出力する。ここでは、システム制御部110により設定される値は、分割画素a,bの読み出しから「2」としている。   The gain coefficient unit 1101 is set by the system control unit 110 according to the ratio of the readout time of the image signal and the focus detection signal, and outputs the gain value to the multiplier 1102. Here, the value set by the system control unit 110 is “2” from the readout of the divided pixels a and b.

乗算器1102は、焦点検出ラインのカウント信号710とゲイン係数部1101からのゲイン値とを乗算し、加算器702に焦点検出信号のゲインライン信号1103を出力する。   The multiplier 1102 multiplies the focus detection line count signal 710 and the gain value from the gain coefficient unit 1101, and outputs the focus detection signal gain line signal 1103 to the adder 702.

加算器702は、画像信号ラインのカウント信号709と焦点検出信号のゲインライン信号1103を加算し、総ラインカウント信号711としてフリッカ補正テーブル703へ出力する。   The adder 702 adds the count signal 709 of the image signal line and the gain line signal 1103 of the focus detection signal, and outputs the sum as a total line count signal 711 to the flicker correction table 703.

そして、システム制御部110は、上記第1の実施形態と同様に、フリッカ補正テーブル703で総ラインカウント信号711を基にフリッカ補正値を生成し、フリッカ補正値信号712をフリッカ補正部108へ出力する。   Then, the system control unit 110 generates a flicker correction value based on the total line count signal 711 in the flicker correction table 703 and outputs the flicker correction value signal 712 to the flicker correction unit 108 as in the first embodiment. To do.

図12は、撮像素子102から読み出される信号とフリッカ補正値信号712との関係を説明するグラフ図である。   FIG. 12 is a graph illustrating the relationship between the signal read from the image sensor 102 and the flicker correction value signal 712.

図12において、縦軸は、撮像素子102から読み出される信号のライン数を示し、横軸は、開始ラインmからm+39に離散化させたフリッカ補正値Yの信号レベルを示している。また、キャプチャ部104の出力画像信号及びフリッカ補正値信号712を総ラインカウント信号711に対応させている。図12から、2ラインおきにキャプチャ部104の出力画像信号に対するフリッカ補正値Yが生成されることが判る。   In FIG. 12, the vertical axis represents the number of lines of the signal read from the image sensor 102, and the horizontal axis represents the signal level of the flicker correction value Y discretized from the start line m to m + 39. Further, the output image signal of the capture unit 104 and the flicker correction value signal 712 are made to correspond to the total line count signal 711. From FIG. 12, it can be seen that the flicker correction value Y for the output image signal of the capture unit 104 is generated every two lines.

以上説明したように、本実施形態では、撮像素子102の駆動方式がフレーム内で変化する場合で、かつ画像信号と焦点検出信号の読み出し時間の比率が異なる場合でも、撮影画像に対して適切にフリッカ補正を行うことができる。その他の構成、及び作用効果は、上記第1の実施形態と同様である。   As described above, in this embodiment, even when the driving method of the image sensor 102 changes within a frame and the ratio of the readout time of the image signal and the focus detection signal is different, the captured image is appropriately selected. Flicker correction can be performed. Other configurations and operational effects are the same as those in the first embodiment.

なお、本発明は、上記各実施形態に例示したものに限定されるものではなく、本発明の要旨を逸脱しない範囲において適宜変更可能である。   In addition, this invention is not limited to what was illustrated by said each embodiment, In the range which does not deviate from the summary of this invention, it can change suitably.

例えば、上記各実施形態では、撮像素子102の駆動方式がフレーム内で変化する場合のフリッカ補正について説明したが、変化しない場合でも、同様のフリッカ補正を行うことができる。   For example, in each of the above embodiments, the flicker correction in the case where the driving method of the image sensor 102 changes within the frame has been described, but the same flicker correction can be performed even when the driving method does not change.

また、上記各実施形態では、撮像素子102の駆動方式がフレーム内で変化する領域が1領域のみ存在する場合について説明したが、複数領域存在しても同様にフリッカ補正を行うことができる。   In each of the above-described embodiments, the case where there is only one region where the driving method of the image sensor 102 changes within the frame has been described, but flicker correction can be similarly performed even when there are a plurality of regions.

更に、図1に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。したがって、上記の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。   Furthermore, one or more of the functional blocks shown in FIG. 1 may be realized by hardware such as an ASIC or a programmable logic array (PLA), or may be realized by executing software by a programmable processor such as a CPU or MPU. May be. Further, it may be realized by a combination of software and hardware. Therefore, in the above description, even when different functional blocks are described as the operation subject, the same hardware can be realized as the subject.

更に、本発明は、以下の処理を実行することによっても実現される。即ち、本発明は、上述の実施形態の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。   Furthermore, the present invention is also realized by executing the following processing. That is, the present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read the program. It can also be realized by processing to be executed.

100 カメラ
101 撮像光学系
102 撮像素子
103 A/D変換部
104 キャプチャ部
105 フリッカ検出部
106 拡張フリッカ補正値算出部
108 フリッカ補正部
109 デジタル信号処理部
110 システム制御部
111 AF評価値算出部
112 メモリ
DESCRIPTION OF SYMBOLS 100 Camera 101 Image pick-up optical system 102 Image pick-up element 103 A / D conversion part 104 Capture part 105 Flicker detection part 106 Extended flicker correction value calculation part 108 Flicker correction part 109 Digital signal processing part 110 System control part 111 AF evaluation value calculation part 112 Memory

Claims (9)

画像を取得する際の駆動方式がフレーム内で変化する撮像素子から読み出された画像のフリッカ成分を検出するフリッカ検出手段と、
前記フリッカ検出手段によって検出された前記フリッカ成分と前記駆動方式の変化に応じて前記撮像素子から読み出された画素に基づく情報とに基づいてフリッカ補正値を生成する補正値算出手段と、
前記フリッカ補正値を用いて前記撮像素子から読み出された画像のフリッカ成分を除去するフリッカ補正手段と、を備えることを特徴とする画像処理装置。
Flicker detection means for detecting a flicker component of an image read from an image sensor whose driving method for acquiring an image changes within a frame;
Correction value calculation means for generating a flicker correction value based on the flicker component detected by the flicker detection means and information based on pixels read out from the image sensor in accordance with a change in the driving method;
An image processing apparatus comprising: flicker correction means for removing a flicker component of an image read from the image sensor using the flicker correction value.
前記駆動方式の変化に応じて前記撮像素子から読み出された前記画素に基づく情報は、前記撮像素子の画像対象の領域と画像対象外の領域とから出力される信号を含むことを特徴とする請求項1に記載の画像処理装置。   The information based on the pixels read from the image sensor in accordance with the change in the driving method includes signals output from the image target area and the non-image target area of the image sensor. The image processing apparatus according to claim 1. 第1の光電変換部と第2の光電変換部を備えた画素が行方向に配列された前記撮像素子から信号を読み出す駆動手段を有し、
前記画像対象の領域は、前記第1の光電変換部の信号および前記第2の光電変換部の信号のみを読み出す領域であって、
前記画像対象外の領域は、前記第1の光電変換部の信号および前記第2の光電変換部の信号ともに前記第1の光電変換部の信号を読み出す領域であることを特徴とする請求項2に記載の画像処理装置。
A drive unit that reads out signals from the imaging element in which pixels including a first photoelectric conversion unit and a second photoelectric conversion unit are arranged in a row direction;
The region to be imaged is a region for reading out only the signal of the first photoelectric conversion unit and the signal of the second photoelectric conversion unit,
3. The non-image area is an area for reading out the signal of the first photoelectric conversion unit together with the signal of the first photoelectric conversion unit and the signal of the second photoelectric conversion unit. An image processing apparatus according to 1.
前記駆動手段は、前記撮像素子のライン単位で各画素に蓄積した電荷を読み出すことを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the driving unit reads out charges accumulated in each pixel in units of lines of the image sensor. 前記駆動方式の変化に応じて前記撮像素子から読み出された前記画素に基づく情報は、前記撮像素子の前記画像対象の領域と前記画像対象外の領域とから出力される画素信号に基づきカウントされた前記画像対象の領域のライン数と前記画像対象外の領域のライン数とを加算したライン数であることを特徴とする請求項2乃至4のいずれか一項に記載の画像処理装置。   Information based on the pixels read from the image sensor in response to the change in the driving method is counted based on pixel signals output from the image target area and the non-image target area of the image sensor. 5. The image processing apparatus according to claim 2, wherein the number of lines is a sum of the number of lines in the image target area and the number of lines in the non-image target area. 前記補正値算出手段は、前記撮像素子の前記画像対象の領域から出力される前記画素信号と前記画像対象外の領域から出力される前記画素信号の読み出し時間の比率に応じた係数を設定する設定手段を有することを特徴とする請求項5に記載の画像処理装置。   The correction value calculating unit is configured to set a coefficient according to a ratio of a readout time of the pixel signal output from the image target region of the image sensor and the pixel signal output from the non-image target region. 6. The image processing apparatus according to claim 5, further comprising: means. 前記画像対象外の領域は、焦点検出対象の領域であることを特徴とする請求項2乃至6のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the non-image target area is a focus detection target area. 画像を取得する際の駆動方式がフレーム内で変化する撮像素子から読み出された画像のフリッカ成分を検出するフリッカ検出ステップと、
前記フリッカ検出ステップで検出された前記フリッカ成分と前記駆動方式の変化に応じて前記撮像素子から読み出された画素に基づく情報とに基づいてフリッカ補正値を生成する補正値算出ステップと、
前記フリッカ補正値を用いて前記撮像素子から読み出された画像のフリッカ成分を除去するフリッカ補正ステップと、を備えることを特徴とする画像処理装置の制御方法。
A flicker detection step of detecting a flicker component of an image read from an image sensor whose driving method for acquiring an image changes within a frame;
A correction value calculation step for generating a flicker correction value based on the flicker component detected in the flicker detection step and information based on the pixel read from the image sensor in accordance with the change in the driving method;
And a flicker correction step for removing a flicker component of the image read from the image sensor using the flicker correction value.
請求項8に記載の画像処理装置の制御方法の各ステップをコンピュータに実行させることを特徴とするプログラム。   A program for causing a computer to execute each step of the control method for an image processing apparatus according to claim 8.
JP2016077930A 2016-04-08 2016-04-08 Image processing apparatus, control method thereof, and program Active JP6659168B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016077930A JP6659168B2 (en) 2016-04-08 2016-04-08 Image processing apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016077930A JP6659168B2 (en) 2016-04-08 2016-04-08 Image processing apparatus, control method thereof, and program

Publications (2)

Publication Number Publication Date
JP2017188837A true JP2017188837A (en) 2017-10-12
JP6659168B2 JP6659168B2 (en) 2020-03-04

Family

ID=60045794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016077930A Active JP6659168B2 (en) 2016-04-08 2016-04-08 Image processing apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP6659168B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11039082B2 (en) * 2018-11-27 2021-06-15 Canon Kabushiki Kaisha Image capturing apparatus, control method thereof, and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000023040A (en) * 1998-06-30 2000-01-21 Toshiba Corp Solid-state image pickup device and system on-chip solid- state image pickup device
WO2014199542A1 (en) * 2013-06-14 2014-12-18 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Imaging device, integrated circuit, and flicker reduction method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000023040A (en) * 1998-06-30 2000-01-21 Toshiba Corp Solid-state image pickup device and system on-chip solid- state image pickup device
WO2014199542A1 (en) * 2013-06-14 2014-12-18 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Imaging device, integrated circuit, and flicker reduction method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11039082B2 (en) * 2018-11-27 2021-06-15 Canon Kabushiki Kaisha Image capturing apparatus, control method thereof, and storage medium

Also Published As

Publication number Publication date
JP6659168B2 (en) 2020-03-04

Similar Documents

Publication Publication Date Title
RU2609540C2 (en) Image capturing device and method of controlling image capturing device
US9762840B2 (en) Imaging device and method of driving the same
JP5852324B2 (en) Imaging apparatus, control method therefor, and program
JP6016412B2 (en) Imaging apparatus and signal processing method
US10735677B2 (en) Image capturing apparatus, method, and storage medium for image flicker detection and control
JP5013811B2 (en) Imaging apparatus and correction method
CN109997352B (en) Imaging device, camera, and imaging method
JP2015211351A5 (en)
JP2007194687A (en) Imaging apparatus
JP2013235054A (en) Focus detection device and image capturing device
JP2016220078A (en) Image processing apparatus and method, and imaging device
JP2011109281A5 (en)
JP5013812B2 (en) Imaging apparatus and correction method
US11272119B2 (en) Multi-sensor high dynamic range imaging
JP2008042714A (en) Solid-state imaging apparatus
JP6362511B2 (en) Imaging apparatus and control method thereof
US10225494B2 (en) Image capturing apparatus and control method thereof
JP5701942B2 (en) Imaging apparatus, camera system, and image processing method
JP2010068049A (en) Image device
JP2007174266A (en) Imaging apparatus
JP5219933B2 (en) Imaging apparatus and control method thereof
JP4637029B2 (en) Imaging apparatus and control method thereof
JP2016111568A (en) Image blur correction control device, imaging apparatus, control method and program thereof
JP6659168B2 (en) Image processing apparatus, control method thereof, and program
US10009559B2 (en) Imaging apparatus, method for controlling the same, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200204

R151 Written notification of patent or utility model registration

Ref document number: 6659168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151