JP4871664B2 - IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD - Google Patents

IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD Download PDF

Info

Publication number
JP4871664B2
JP4871664B2 JP2006202133A JP2006202133A JP4871664B2 JP 4871664 B2 JP4871664 B2 JP 4871664B2 JP 2006202133 A JP2006202133 A JP 2006202133A JP 2006202133 A JP2006202133 A JP 2006202133A JP 4871664 B2 JP4871664 B2 JP 4871664B2
Authority
JP
Japan
Prior art keywords
white balance
image
balance coefficient
subject
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006202133A
Other languages
Japanese (ja)
Other versions
JP2008028924A (en
Inventor
栄一郎 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006202133A priority Critical patent/JP4871664B2/en
Publication of JP2008028924A publication Critical patent/JP2008028924A/en
Application granted granted Critical
Publication of JP4871664B2 publication Critical patent/JP4871664B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)

Description

デジタルカメラ及びデジタルビデオカメラのホワイトバランス制御に関する。   The present invention relates to white balance control of digital cameras and digital video cameras.

デジタルカメラで撮像された画像に対して、適切な色、もしくは撮影者によって意図された色味を出すために行われる、ホワイトバランス(これよりWBという)制御がある。   There is white balance (hereinafter referred to as WB) control performed to produce an appropriate color or a color intended by the photographer for an image captured by a digital camera.

図8は画面を任意の複数ブロックに分割した例を示しており、図9は白検出範囲を示している。   FIG. 8 shows an example in which the screen is divided into a plurality of arbitrary blocks, and FIG. 9 shows a white detection range.

図10は、被写体として顔のアップを撮影した例を示している。   FIG. 10 shows an example of photographing a face up as a subject.

図8及び図9を用いて、デジタルカメラ等に用いられている従来のWB係数算出回路の動作を説明する。   The operation of a conventional WB coefficient calculation circuit used in a digital camera or the like will be described with reference to FIGS.

図8のように、予め画面を任意の複数のブロック(m個)に分割する。次に、上記複数のブロック毎に例えば以下の式を用いて色評価値(Cx[m]、Cy[m])と輝度値Y[m]を算出する。   As shown in FIG. 8, the screen is divided into a plurality of arbitrary blocks (m) in advance. Next, for each of the plurality of blocks, a color evaluation value (Cx [m], Cy [m]) and a luminance value Y [m] are calculated using the following formula, for example.

Figure 0004871664
Figure 0004871664

Figure 0004871664
Figure 0004871664

Figure 0004871664
Figure 0004871664

図9のように、予め様々な光源下で白色被写体を撮影し色評価値を算出することで白検出範囲を設定する。図9に示す白検出範囲に、上記で算出した色評価値が含まれる場合、その色評価値を含むブロックは白であると判定し、白と判定されたブロックの画素値を積分する(これより、この判定処理を白サーチと呼ぶ)。積分された画素値(sumR、sumG、sumB)より、以下の式を用いてWB係数を算出する。   As shown in FIG. 9, a white detection range is set by photographing a white object in advance under various light sources and calculating a color evaluation value. When the color evaluation value calculated above is included in the white detection range shown in FIG. 9, it is determined that the block including the color evaluation value is white, and the pixel values of the block determined as white are integrated (this) This determination process is called white search). From the integrated pixel values (sumR, sumG, sumB), a WB coefficient is calculated using the following equation.

Figure 0004871664
Figure 0004871664

Figure 0004871664
Figure 0004871664

Figure 0004871664
Figure 0004871664

Figure 0004871664
Figure 0004871664

上記したWB係数算出方法では、図10のように被写体として顔が大きく写っている場合、太陽光下で撮影した人肌領域の色評価値(図9−1)と、タングステン光下で撮影した白色被写体の色評価値(図9−2)がほぼ同じ値となる。そのため、人肌をタングステン光下の白と誤判別し、肌色を白く補正してしまう場合があった。   In the above WB coefficient calculation method, when a face is large as a subject as shown in FIG. 10, the color evaluation value (FIG. 9-1) of the human skin area photographed under sunlight and the photographed under tungsten light The color evaluation value (FIG. 9-2) of the white subject is almost the same value. For this reason, human skin may be misidentified as white under tungsten light, and the skin color may be corrected to white.

そこで、顔検出回路にて検出された顔領域を、白検出サーチ対象から外すという提案がされている(特許文献1)。また、背景領域と主被写体領域でそれぞれ異なるWB制御を行うという提案がされている(特許文献2)。   In view of this, a proposal has been made to exclude the face area detected by the face detection circuit from the white detection search target (Patent Document 1). In addition, a proposal has been made to perform different WB controls for the background area and the main subject area (Patent Document 2).

図11に、上記した特許文献1又は2に記載の従来のWB係数算出の処理構成から推測される撮像装置における撮像動作タイミングを示す。これより本発明の図面における符号は(150)のように括弧を付けて示すこととする。図11において、ユーザーによりシャッターボタンが全押し(これよりSW2という、が押下)されると、本露光が実施され、直ちにセンサーから画像信号が読み出される。なお、本露光とは、撮像装置が記録を目的とした撮影を行うための指示を受けて行われる露光動作のことである。   FIG. 11 shows the imaging operation timing in the imaging apparatus inferred from the processing configuration of the conventional WB coefficient calculation described in Patent Document 1 or 2 described above. Thus, the reference numerals in the drawings of the present invention are shown in parentheses as shown by (150). In FIG. 11, when the user fully presses the shutter button (hereinafter, SW2 is pressed), the main exposure is performed, and the image signal is immediately read from the sensor. Note that the main exposure is an exposure operation performed in response to an instruction for the imaging apparatus to perform shooting for the purpose of recording.

その後、撮像装置は簡易的に画像信号を現像し、顔検出回路は顔検出を行う。   Thereafter, the imaging device simply develops the image signal, and the face detection circuit performs face detection.

なお、現像とは撮像素子の出力を、画像として見ることができるデータにする為の画像処理のことである。それに対して、上記した簡易的な現像とは、現像処理にて行う処理のうち、WB処理を除いた処理のことを意味する。   The development is image processing for converting the output of the image sensor into data that can be viewed as an image. On the other hand, the above-described simple development means processing excluding WB processing among processing performed in the development processing.

また、本発明において、顔検出は、WB処理を行っていない簡易的な現像を行った後の画像信号に対して行っている。   In the present invention, face detection is performed on an image signal after simple development without performing WB processing.

撮像装置は、検出された顔情報を用いて特許文献1或いは2にて開示されている手法にてWB係数を算出し、その後、本現像処理を行い、CF等の外部記録媒体に撮影画像を記録する。
特開2003−189325号公報 特開2000−308068号公報
The imaging device uses the detected face information to calculate the WB coefficient by the method disclosed in Patent Document 1 or 2, and then performs the main development process to capture the captured image on an external recording medium such as a CF. Record.
JP 2003-189325 A JP 2000-308068 A

図11の撮像動作タイミングに示すように、本露光後の画像信号(149)を用いて、信号読み出し、ブロック積分(150)を行う。   As shown in the imaging operation timing of FIG. 11, signal readout and block integration (150) are performed using the image signal (149) after the main exposure.

その後、顔検出入力用として簡易現像(151)を行い、顔検出手段により顔を検出(152)する。   Thereafter, simple development (151) is performed for face detection input, and the face is detected by the face detection means (152).

次に、顔検出の結果を用いてWB係数を算出(153)し、本現像(154)を行い、外部記録媒体などへ記録(155)する、といった処理手順になっている。   Next, the processing procedure is such that a WB coefficient is calculated (153) using the result of face detection, main development (154) is performed, and recording is performed on an external recording medium (155).

つまり、従来の処理構成では、顔検出を行う為の処理時間に加え、顔検出結果を用いたWB係数算出においてもほぼ同等の時間を要するため、撮影完了までに非常に時間が掛かってしまうといった欠点がある。   In other words, in the conventional processing configuration, in addition to the processing time for performing face detection, almost the same time is required for calculating the WB coefficient using the face detection result, so that it takes a very long time to complete photographing. There are drawbacks.

上記課題を解決し、目的を達成するために、本発明は、撮影光学系により形成された被写体像を光電変換する撮像素子を備える撮像装置において、前記撮像素子から得られる信号に基づき被写体領域を繰り返し検出する被写体検出手段と、前記被写体検出手段から出力される被写体情報に基づきホワイトバランス係数を算出するホワイトバランス係数算出手段と、ホワイトバランス係数を求める元となったシーンと本露光を行う元となったシーンを比較するシーン変化判定手段とを備え、前記シーンの比較結果に応じて、本露光後に前記ホワイトバランス係数算出手段によってホワイトバランス係数を新たに算出するか否かを切り替えることを特徴とするものである。   In order to solve the above-described problems and achieve the object, the present invention provides an imaging device including an imaging device that performs photoelectric conversion on a subject image formed by a photographing optical system, based on a signal obtained from the imaging device. Subject detection means for repeatedly detecting, white balance coefficient calculation means for calculating a white balance coefficient based on subject information output from the subject detection means, a scene from which the white balance coefficient is obtained, and a source for performing main exposure A scene change determination unit that compares the scenes, and switching whether to newly calculate a white balance coefficient by the white balance coefficient calculation unit after the main exposure according to the comparison result of the scene, To do.

上記課題を解決し、目的を達成するために、本発明は、撮影光学系により形成された被写体像を光電変換する撮像素子を備える撮像装置の制御方法において、前記撮像素子から得られる信号に基づき被写体領域を繰り返し検出する被写体検出工程と、前記被写体検出工程から出力される被写体情報に基づきホワイトバランス係数を算出するホワイトバランス係数算出工程と、ホワイトバランス係数を求める元となったシーンと本露光を行う元となったシーンを比較するシーン変化判定工程とを備え、前記シーンの比較結果に応じて、本露光後に前記ホワイトバランス係数算出工程によってホワイトバランス係数を新たに算出するか否かを切り替えることを特徴とするものである。   In order to solve the above-described problems and achieve the object, the present invention provides a method for controlling an imaging apparatus including an imaging element that photoelectrically converts a subject image formed by a photographing optical system, based on a signal obtained from the imaging element. A subject detection step for repeatedly detecting a subject region, a white balance factor calculation step for calculating a white balance factor based on subject information output from the subject detection step, a scene and a main exposure from which the white balance factor is obtained A scene change determination step for comparing the scenes that are the basis for performing the switching, and switching whether or not to newly calculate a white balance coefficient by the white balance coefficient calculation step after the main exposure according to the comparison result of the scenes It is characterized by.

シーン変化の有無を判定し、その結果に応じてWB係数を新たに算出するか否かを切り替えることで、撮影動作の高速化を可能にする。   By determining whether or not there is a scene change and switching whether to newly calculate the WB coefficient according to the result, it is possible to speed up the shooting operation.

以下、本発明の好適な実施形態について、図面を参照して詳細に説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施形態)
以下、添付図面を参照して本発明の好適な実施の形態を詳しく説明する。
(First embodiment)
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明における、本発明の撮像装置における撮像動作タイミングを示しており、図2は、信号処理の簡易的なブロック図を示している。   FIG. 1 shows the imaging operation timing in the imaging apparatus of the present invention, and FIG. 2 shows a simple block diagram of signal processing.

図2において、201は撮像レンズ群を通過した被写体像としての光束を電気信号に変換するCCDセンサーやCMOSセンサー等の撮像素子である。202は、撮像素子201から得られるアナログ信号出力をデジタル信号に変換するアナログ/デジタル(以下、A/Dとする)変換回路である。203はA/D変換回路202から出力されたデジタル信号を一時記憶するDRAMなどのバッファメモリ、204はバッファメモリ203から読み出された画像信号から黒引きを行うオプティカルブラック(これよりOBという)減算回路である。   In FIG. 2, reference numeral 201 denotes an image sensor such as a CCD sensor or a CMOS sensor that converts a light beam as a subject image that has passed through the imaging lens group into an electric signal. An analog / digital (hereinafter referred to as A / D) conversion circuit 202 converts an analog signal output obtained from the image sensor 201 into a digital signal. Reference numeral 203 denotes a buffer memory such as a DRAM that temporarily stores the digital signal output from the A / D conversion circuit 202. Reference numeral 204 denotes an optical black (hereinafter referred to as OB) subtraction that performs black subtraction from the image signal read from the buffer memory 203. Circuit.

ここで、図4は、撮像素子201のブロック分割の一例を示す図である。図4では、エリアを8×8に分割しているが分割の仕方はこれに限られるものではない。   Here, FIG. 4 is a diagram illustrating an example of block division of the image sensor 201. In FIG. 4, the area is divided into 8 × 8, but the division method is not limited to this.

205はバッファメモリ203から読み出された画像信号に対して、OB領域の画素積分と図4のように予め設定した任意の小ブロック領域単位で画素積分を行うOBブロック積分回路である。206はWB制御値を係数化したWB係数を算出するWB係数算出回路である。WB係数算出回路206により算出されるWB係数は撮像装置電源投入時には、予め設定されたWB係数が使用され、現フレーム以前の電子ビューファインダー(これよりEVFという)画像信号で既にWB係数が算出されている場合には、そのWB係数が使用される。   Reference numeral 205 denotes an OB block integration circuit that performs pixel integration in the OB area and pixel integration in units of arbitrary small block areas set in advance as shown in FIG. 4 with respect to the image signal read from the buffer memory 203. Reference numeral 206 denotes a WB coefficient calculation circuit that calculates a WB coefficient obtained by converting the WB control value into a coefficient. As the WB coefficient calculated by the WB coefficient calculation circuit 206, a preset WB coefficient is used when the image pickup apparatus is turned on, and the WB coefficient is already calculated from an electronic viewfinder (hereinafter referred to as EVF) image signal before the current frame. If so, the WB coefficient is used.

なお、EVF画像信号とは、撮像装置の液晶モニタ等の表示部に表示される、撮像素子から得られる信号に各種信号処理を施し生成される画像信号を間引いて生成した信号である。   The EVF image signal is a signal generated by thinning out an image signal generated by performing various kinds of signal processing on a signal obtained from an image pickup element and displayed on a display unit such as a liquid crystal monitor of the image pickup apparatus.

ここで、WB係数の設定の一例を図1を用いて説明する。   Here, an example of setting the WB coefficient will be described with reference to FIG.

図1において、EVF101からEVF105の画像信号現像時には予め設定したWB係数(不図示)が使用される。EVF106からEVF108の画像信号現像時には、WB演算1(122)の結果を、EVF109からEVF11の画像信号現像時には、WB演算2(123)の結果を使用する。このように画像信号現像時には最新のWB演算結果が用いられる。また、WB演算の結果はバッファメモリ203に記録される。   In FIG. 1, a preset WB coefficient (not shown) is used when developing image signals from EVF 101 to EVF 105. When developing image signals from EVF 106 to EVF 108, the result of WB calculation 1 (122) is used, and when developing image signals from EVF 109 to EVF 11, the result of WB calculation 2 (123) is used. In this way, the latest WB calculation result is used during image signal development. The result of the WB calculation is recorded in the buffer memory 203.

図2に戻り、207は、OB減算回路204から出力されるRGB各信号にWBゲインをかけるWBゲイン回路である。208はWBゲイン回路207の出力データに対して所定の画素補間処理や色変換処理を行う、デジタル信号処理回路である。209は顔検出を行うための特徴検出回路である。この特徴検出回路209は、画像信号の周波数特性から各テクスチャーを検出する不図示のバンドパスフィルタによって検出されたテクスチャー群から目、鼻、口、耳等の被写体の特徴的な部位の候補群の検出を行う。さらに特徴検出回路209は検出された特徴情報を記録しておく不図示の特徴検出レジスタを備えている。   Returning to FIG. 2, reference numeral 207 denotes a WB gain circuit that applies a WB gain to the RGB signals output from the OB subtraction circuit 204. A digital signal processing circuit 208 performs predetermined pixel interpolation processing and color conversion processing on the output data of the WB gain circuit 207. Reference numeral 209 denotes a feature detection circuit for performing face detection. This feature detection circuit 209 detects candidate groups of characteristic parts of subjects such as eyes, nose, mouth, and ears from texture groups detected by a bandpass filter (not shown) that detects each texture from the frequency characteristics of the image signal. Perform detection. Furthermore, the feature detection circuit 209 includes a feature detection register (not shown) that records the detected feature information.

なお、本実施形態においては、特徴検出回路209を用いて、顔検出を行っている。   In the present embodiment, face detection is performed using the feature detection circuit 209.

図5(a)及び(b)は、検出された顔及び目の座標値と、検出結果の信頼度等の顔検出情報について示している。   FIGS. 5A and 5B show face detection information such as detected face and eye coordinate values and reliability of detection results.

特徴検出回路209では、デジタル信号処理回路208より定期的に転送されてくるEVF画像信号から得られた輝度信号を用いて顔検出を実施し、図5(b)に示すような顔検出情報を不図示の特徴検出レジスタに記録する。   The feature detection circuit 209 performs face detection using a luminance signal obtained from the EVF image signal periodically transferred from the digital signal processing circuit 208, and generates face detection information as shown in FIG. Recorded in a feature detection register (not shown).

なお、本実施形態においては特徴検出回路209にて上述した処理の流れで顔検出を行っているが、この特徴検出回路209に公知の顔検出手法をプログラミングして組み込んでもよい。   In the present embodiment, the face detection is performed by the feature detection circuit 209 according to the above-described processing flow, but a known face detection method may be programmed into the feature detection circuit 209 and incorporated.

公知の顔検出技術としては、ニューラルネットワークに代表される学習を用いた手法、目や鼻や口といった形状に特徴のある部位を、画像領域からテンプレートマッチングを用い探し出し類似度が高ければ顔とみなす手法があげられる。   As a known face detection technique, a method using learning typified by a neural network, a part having a characteristic shape such as an eye, nose, or mouth is searched from an image area using template matching, and is regarded as a face if the similarity is high. Techniques are listed.

また、他にも、肌の色や目の形といった画像特徴量を検出し統計的解析を用いた手法等、多数提案されており、これらの手法を複数組み合わせて顔認識するのが一般的である。   In addition, many other methods have been proposed, such as methods that detect image features such as skin color and eye shape, and use statistical analysis. is there.

具体的な例としては特開平2002−251380号公報に記載のウェーブレット変換と画像特徴量を利用して顔検出する方法などが挙げられる。   Specific examples include a face detection method using wavelet transform and image feature amount described in JP-A-2002-251380.

210は、画像データ等を保存するためのフラッシュメモリ、マイクロドライブ、ハードディスクなどの外部記録装置である。211は、液晶などの表示装置であり、撮像した画像データを逐次表示すればEVFとしての機能を実現できる。   Reference numeral 210 denotes an external recording device such as a flash memory, a micro drive, or a hard disk for storing image data and the like. Reference numeral 211 denotes a display device such as a liquid crystal, which can realize a function as an EVF by sequentially displaying captured image data.

なお、WB係数乗算後の画像信号はデジタル信号処理回路208にてYUV信号に変換され特徴検出回路209、外部記録装置及び表示装置211に転送される。   The image signal multiplied by the WB coefficient is converted into a YUV signal by the digital signal processing circuit 208 and transferred to the feature detection circuit 209, the external recording device, and the display device 211.

デジタル信号処理回路208は、YUV信号作成時に、任意の小ブロック単位で算出された輝度積分値、および、撮影時の撮影条件である露出制御値(Av、Tv値)を後に説明するシーン変化検出(134)に用いるため、バッファメモリ203に記憶する。   The digital signal processing circuit 208 detects a scene change, which will be described later, with respect to a luminance integral value calculated in arbitrary small block units and an exposure control value (Av, Tv value) that is a photographing condition at the time of photographing when the YUV signal is created. For use in (134), it is stored in the buffer memory 203.

また、オートフォーカス(これよりAFという)の測距情報、ズームポジション等も、同様に、バッファメモリ203に記憶する。212は、特徴検出回路209の出力に基づきシャッター、絞り、フォーカスレンズに対する制御を実行するCPUである。213は、CPUの指示に基づきシャッター、絞り、フォーカスレンズの制御を行うデバイス制御回路である。   In addition, autofocus (hereinafter referred to as AF) distance measurement information, zoom position, and the like are similarly stored in the buffer memory 203. Reference numeral 212 denotes a CPU that controls the shutter, aperture, and focus lens based on the output of the feature detection circuit 209. A device control circuit 213 controls the shutter, aperture, and focus lens based on instructions from the CPU.

これより、シャッターボタンが半押し(これよりSW1という、が押下)される前の撮像動作についての説明を図1を用いて行う。   Thus, the imaging operation before the shutter button is half-pressed (hereinafter SW1 is pressed) will be described with reference to FIG.

例えば、表示装置211の表示フレームレートが30fpsの場合は、30秒に1回の割合で、以下の撮像動作が行われるとする。   For example, when the display frame rate of the display device 211 is 30 fps, the following imaging operation is performed at a rate of once every 30 seconds.

図1におけるEVF101からEVF116は、それぞれEVFの表示期間を示している。   EVF101 to EVF116 in FIG. 1 respectively indicate EVF display periods.

図3に撮像素子の画素加算モード時における信号の読み出し概略について示す。   FIG. 3 shows an outline of signal readout in the pixel addition mode of the image sensor.

図3において、R,B,G1,G2で表されているのは、入射光をその光量に応じた電荷に変換するフォトダイオードである。そして、縦に並ぶフォトダイオードの列の電荷をR,B,G1,G2それぞれの色毎に読み出し、垂直方向に転送する。そして、転送されてきた電荷を水平ライン毎に水平に転送し、その電荷をA/D変換回路202によってデジタル信号に変換し、バッファメモリ203に一時記録する。このようにして、撮像素子の信号の読出しが行われる。   In FIG. 3, what is represented by R, B, G1, and G2 are photodiodes that convert incident light into charges corresponding to the amount of light. Then, the charges in the vertically aligned photodiode rows are read for each color of R, B, G1, and G2, and transferred in the vertical direction. The transferred charge is transferred horizontally for each horizontal line, the charge is converted into a digital signal by the A / D conversion circuit 202, and temporarily recorded in the buffer memory 203. In this way, the signal of the image sensor is read.

撮像素子201を図3に示すような画素加算モード(EVF読み出しモード)で駆動し、不図示の電子シャッターを制御することで、被写体に最適な露出条件で画像信号が撮影される。   By driving the image sensor 201 in a pixel addition mode (EVF readout mode) as shown in FIG. 3 and controlling an electronic shutter (not shown), an image signal is photographed under an optimal exposure condition for the subject.

これよりEVF101の表示期間に行われる信号処理について説明を行う。EVF101の表示期間において、撮像素子201から読み出された画素信号はA/D変換回路202で、例えば10ビットのデジタル信号に変換され、バッファメモリ203に一時記録される。バッファメモリ203から読み出された画像信号は、OBブロック積分回路205にて画素積分が行われる。   The signal processing performed during the EVF 101 display period will be described. During the display period of the EVF 101, the pixel signal read from the image sensor 201 is converted into, for example, a 10-bit digital signal by the A / D conversion circuit 202 and temporarily recorded in the buffer memory 203. The image signal read from the buffer memory 203 is subjected to pixel integration by the OB block integration circuit 205.

また、バッファメモリ203から読み出された画像信号は、OB減算回路204によって黒引きが行われ、WBゲイン回路207によってRGB各信号にWBゲインがかけられる。並行してWB係数算出回路206にて、次フレーム以降に用いるWB係数が算出される。WB係数乗算後の画像信号は、デジタル信号処理回路208にてYUV信号に変換され、特徴検出回路209および表示装置211に転送される。   The image signal read from the buffer memory 203 is blacked by the OB subtraction circuit 204, and the WB gain is applied to the RGB signals by the WB gain circuit 207. In parallel, the WB coefficient calculation circuit 206 calculates WB coefficients to be used in the subsequent frames. The image signal multiplied by the WB coefficient is converted into a YUV signal by the digital signal processing circuit 208 and transferred to the feature detection circuit 209 and the display device 211.

なお、本実施形態では、特徴検出回路209は、特徴検出の際に輝度(Y)信号のみ用いるため、デジタル信号処理回路208によって変換された画像信号のうちY成分の出力のみ特徴検出回路209に転送される。   In the present embodiment, since the feature detection circuit 209 uses only the luminance (Y) signal at the time of feature detection, only the output of the Y component of the image signal converted by the digital signal processing circuit 208 is sent to the feature detection circuit 209. Transferred.

そして、特徴検出回路209では、転送されてきた画像信号に対して顔の検出を行う。以上で、EVF101の表示期間に行われる信号処理についての説明を終る。   The feature detection circuit 209 detects the face of the transferred image signal. This is the end of the description of the signal processing performed during the EVF 101 display period.

次にEVF102の表示期間に行われる信号処理について説明する。   Next, signal processing performed during the display period of the EVF 102 will be described.

EVF102の表示期間において、撮像素子201から読み出された画像信号には、EVF101の表示期間において行われた信号処理と同様の処理が施され、YUV信号に変換される。   In the display period of the EVF 102, the image signal read from the image sensor 201 is subjected to the same processing as the signal processing performed in the display period of the EVF 101, and converted into a YUV signal.

このタイミングでは、EVF101の表示期間において得られた画像信号を用いて顔検出1(117)を実施しているが、EVF102の表示期間における画像信号現像開始時には、顔検出1が終了しないため、WB係数の算出はまだ実施しない。   At this timing, the face detection 1 (117) is performed using the image signal obtained in the display period of the EVF 101. However, since the face detection 1 does not end when the image signal development starts in the display period of the EVF 102, WB The coefficient is not yet calculated.

また、EVF102の表示期間に行われる現像時に用いるWB係数は、EVF101の表示期間に行われる現像時に用いたWB係数がそのまま使用される。以上で、EVF102の表示期間に行われる信号処理についての説明を終る。   Further, as the WB coefficient used during the development performed during the display period of the EVF 102, the WB coefficient used during the development performed during the display period of the EVF 101 is used as it is. This is the end of the description of the signal processing performed during the EVF 102 display period.

EVF103の表示期間に行われる信号処理はEVF102の表示期間に行われる信号処理と同様の処理を行う。   The signal processing performed during the display period of the EVF 103 is the same as the signal processing performed during the display period of the EVF 102.

次にEVF104の表示期間に行われる信号処理について説明する。
EVF104の表示期間において、画像信号が撮像素子201から読み出されYUV信号に現像されるまではEVF102の表示期間に行われる信号処理と同様の処理が行われる。
Next, signal processing performed during the display period of the EVF 104 will be described.
In the display period of the EVF 104, processing similar to the signal processing performed in the display period of the EVF 102 is performed until the image signal is read from the image sensor 201 and developed into a YUV signal.

しかし、画像信号の読み出し終了時のタイミング(146)においては、顔検出1(117)が完了し、その後、顔情報が顔レジスタに記録される。   However, at the timing (146) at the end of reading the image signal, face detection 1 (117) is completed, and then face information is recorded in the face register.

よってこのタイミングで、EVF101の表示期間に得られた画像信号と顔検出1の結果より、WB演算1(122)が開始される。   Therefore, at this timing, the WB calculation 1 (122) is started from the image signal obtained during the display period of the EVF 101 and the result of the face detection 1.

ここで、顔検出情報を用いたWB係数算出方法の別の例としては、顔領域毎に予め設定された複数の固定WB係数を用い各顔領域に含まれる画像信号を補正することで複数の補正画像信号を求め、その補正画像信号に基づいて算出するものがある。   Here, as another example of the WB coefficient calculation method using the face detection information, a plurality of fixed WB coefficients set in advance for each face area are used to correct image signals included in each face area. There is one that obtains a corrected image signal and calculates it based on the corrected image signal.

また、さらに別の方法としては、上記方法で算出したWB係数と、顔検出を用いない通常のWB係数算出方法により得られるWB係数とを、顔検出情報から算出した加重加算係数を用いて加重加算することでWB係数を算出するものがある。   As yet another method, the WB coefficient calculated by the above method and the WB coefficient obtained by a normal WB coefficient calculation method that does not use face detection are weighted using a weighted addition coefficient calculated from face detection information. There is one that calculates a WB coefficient by adding.

なお、本発明において、顔検出情報を用いたWB係数の算出方法については論旨ではないので詳しい説明は行わないこととする。以上で、EVF104の表示期間に行われる信号処理についての説明を終る。   In the present invention, the method for calculating the WB coefficient using the face detection information is not a matter of discussion and will not be described in detail. This is the end of the description of the signal processing performed during the EVF 104 display period.

EVF105の表示期間に行われる信号処理はEVF103の表示期間に行われる信号処理と同様の処理を行う。
次にEVF106の表示期間に行われる信号処理について説明する。
The signal processing performed during the display period of the EVF 105 performs the same processing as the signal processing performed during the display period of the EVF 103.
Next, signal processing performed during the display period of the EVF 106 will be described.

EVF106の表示期間において、画像信号の読み出しが終了するタイミング(148)では、WB係数算出1(122)によって、WB係数1が算出されている。   In the display period of the EVF 106, the WB coefficient 1 is calculated by the WB coefficient calculation 1 (122) at the timing (148) when the reading of the image signal ends.

そこで、最新のWB係数であるWB係数1をEVF106の表示期間に得られる画像信号生成に使用する。しかし、この時、EVF101の表示期間に得られる画像信号を生成するときに用いたWB係数と、今回算出されたWB係数1とを比較して急激な変化がみられる場合、画面の色が大幅に変化するという弊害が生じる。よって、EVF101の表示期間に得られる画像信号を生成するときに用いたWB係数と、今回算出されたWB係数1を任意の加重加算係数で加重加算し新たなWB係数を算出し、これをEVF106の表示期間におけるWB係数とする。   Therefore, the latest WB coefficient WB coefficient 1 is used to generate an image signal obtained during the display period of the EVF 106. However, at this time, if the WB coefficient used when generating the image signal obtained during the display period of the EVF 101 and the WB coefficient 1 calculated this time are rapidly changed, the color of the screen is greatly increased. The harmful effect of changing to Therefore, the WB coefficient used when generating the image signal obtained during the display period of the EVF 101 and the WB coefficient 1 calculated this time are weighted and added with an arbitrary weighted addition coefficient to calculate a new WB coefficient. WB coefficient during the display period.

以上、EVF101〜EVF106の表示期間に行われる信号処理を、ユーザーによってSW1が押下されるまで繰り返す。   The signal processing performed during the display period of EVF 101 to EVF 106 is repeated until SW1 is pressed by the user.

次に、SW1が押下されてから、シャッターボタンが全押し(これよりSW2という、が押下)されるまでの撮像動作についての説明を図1を用いて行う。   Next, an imaging operation from when SW1 is pressed until the shutter button is fully pressed (hereinafter, SW2 is pressed) will be described with reference to FIG.

ユーザーによってSW1が押下されると、撮像素子201の駆動をAF/自動露出(これよりAEという)用に、通常より高速クロックで動作させAF/AE動作(128)を実施する。AF/AE動作の詳細については本発明の主眼点ではないため説明を省略する。   When SW1 is pressed by the user, the image sensor 201 is driven for AF / automatic exposure (hereinafter referred to as AE) with a higher-speed clock than usual, and the AF / AE operation (128) is performed. Since the details of the AF / AE operation are not the main point of the present invention, the description thereof will be omitted.

AF/AE動作(128)を行うことで、不図示の測光回路によって本露光条件が算出され、合焦が完了すると、合焦サイン(129)が出される。   By performing the AF / AE operation (128), a main exposure condition is calculated by a photometric circuit (not shown), and when the focusing is completed, a focusing sign (129) is issued.

次に、SW2が押下されてから撮影画像の記録が行われるまでの動作についての説明を図1を用いて行う。ユーザーによってSW2が押下(127)されると、撮像素子201は後述する全画素読み出しモードで駆動され、静止画用の本撮影が行われる。ここで、全画素読み出しモードの際の撮像素子の駆動方法について説明する。   Next, the operation from when SW2 is pressed to when the captured image is recorded will be described with reference to FIG. When SW2 is pressed (127) by the user, the image sensor 201 is driven in an all-pixel readout mode, which will be described later, and actual shooting for still images is performed. Here, a driving method of the image sensor in the all-pixel reading mode will be described.

図6に3フィールド読み出しを行う撮像素子の読み出しの概念図を示す。撮像素子201に蓄積された電気信号は、例えば3フィールド読み出しを行う撮像素子の場合、図6の、6−1、6−2、6−3、といった順番で読み出され、A/D変換回路202によってデジタル信号に変換され、バッファメモリ203に一時記録される。このようにして、順次全ての画素について蓄積された電気信号の読み出しが行われる。なお、図1では、131から133が、上記3フィールド読み出しについての説明に対応している。   FIG. 6 shows a conceptual diagram of readout of an image sensor that performs 3-field readout. For example, in the case of an image sensor that performs three-field readout, the electrical signals accumulated in the image sensor 201 are read out in the order of 6-1, 6-2, 6-3 in FIG. It is converted into a digital signal by 202 and temporarily recorded in the buffer memory 203. In this manner, the electrical signals accumulated for all the pixels are sequentially read out. In FIG. 1, reference numerals 131 to 133 correspond to the description of the three-field reading.

第1フィールド読み出し(131)が終了次第、OBブロック積分回路205にて、OB値および図4のような予め設定したブロック(Y(3,3)、Y(4,3)、Y(3,4)、Y(4,4))の輝度信号平均値Yave_Frが算出される。   Upon completion of the first field reading (131), the OB block integration circuit 205 causes the OB value and the preset blocks (Y (3, 3), Y (4, 3), Y (3, 3) as shown in FIG. 4), Y (4, 4)) luminance signal average value Yave_Fr is calculated.

ここで、顔検出結果を用いてWB演算を最適化するわけだが、AE/AF処理に比べると、顔検出やWB演算には時間がかかる。その為、前回WBゲインを算出したシーンと本撮影のシーンとの変化を検出(134)し、シーン変化がないもしくは少ないものは、最新のEVF画像信号作成時に用いたWB係数をメモリから読み出し(135)、そのまま使用する。   Here, the WB calculation is optimized using the face detection result, but the face detection and the WB calculation take time compared to the AE / AF processing. For this reason, a change between the scene for which the WB gain was calculated last time and the actual shooting scene is detected (134), and if there is no or little scene change, the WB coefficient used when creating the latest EVF image signal is read from the memory ( 135), used as it is.

図1によれば、本撮影時に用いるWB係数はWB演算4(125)の結果であり、WB演算4は、顔検出4(120)より算出され、顔検出4に用いた画像信号はEVF111の表示期間に得た信号である。つまりEVF111の表示期間に得られる画像信号と本露光画像信号に基づきシーン変化を検出すればよい。   According to FIG. 1, the WB coefficient used at the time of actual photographing is the result of WB calculation 4 (125), and WB calculation 4 is calculated from face detection 4 (120), and the image signal used for face detection 4 is the EVF 111. This is a signal obtained during the display period. That is, a scene change may be detected based on the image signal obtained during the EVF 111 display period and the main exposure image signal.

ここで、図7に輝度差分値とシーン変化量の関係を示す。
シーン変化の検出法としては、EVF111の表示期間に得られる画像信号作成時にバッファメモリ203に記録されている予め指定した領域の平均輝度値(Yave_Fi)と、本露光画像における同一座標領域の平均輝度値(Yave_Fr)の輝度差分値ΔYを算出する。
FIG. 7 shows the relationship between the luminance difference value and the scene change amount.
As a method of detecting a scene change, an average luminance value (Yave_Fi) of a predesignated area recorded in the buffer memory 203 at the time of creating an image signal obtained during the EVF 111 display period and an average luminance of the same coordinate area in the main exposure image A luminance difference value ΔY of the value (Yave_Fr) is calculated.

予め設定された図7に示すような輝度差分値とシーン変化量の関係図を用いて、シーン変化値(k)を算出する。そして、シーン変化値(k)に基づきシーンの変化の有無を判定する。   The scene change value (k) is calculated using a preset relationship diagram between the luminance difference value and the scene change amount as shown in FIG. Then, the presence / absence of a scene change is determined based on the scene change value (k).

つまり、本撮影時に用いるWB係数を求めるために用いた画像信号の輝度と、本露光にて得られた画像信号の輝度を比較結果が基準値を越えているかを判定することによって、シーン変化の有無を判定している。   In other words, by determining whether the comparison result of the luminance of the image signal used for obtaining the WB coefficient used in the main photographing and the luminance of the image signal obtained in the main exposure exceeds the reference value, Judgment is made.

また、被写体の輝度変化分をシーン変化分とし、シーンの変化の有無を判定する方法としては、AE制御時の被写体測光値の輝度差分値(ΔBv=Bv_EVF111撮影時−Bv_本撮影時)が予め設定した値以上の場合、はシーン変化ありと判定するものがある。   Further, as a method for determining whether or not there is a scene change by using the luminance change of the subject as a scene change, the luminance difference value of the subject photometric value at the time of AE control (ΔBv = Bv_EVF111 shooting time−Bv_main shooting time) If the value is greater than the set value, there are cases where it is determined that there is a scene change.

また、さらに別の方法としては、AF制御値(フォーカスレンズの位置情報)が大きくかわったらシーン変化ありとして判定するものがある。具体的にはEVF111の表示期間におけるAF情報と本撮影時のAF情報を比較することでシーン変化の有無を判定する。また、ズームポジションの差分信号を用いてシーン変化を検出する方法もある。具体的には、EVF111の表示期間におけるズームポジションと本撮影時のズームポジションの変化量に基づきシーン変化の有無を判定する。また、これらの判定方法を任意に組み合わせてシーン変化の有無を判定しても良い。   Further, as another method, there is a method in which it is determined that there is a scene change when the AF control value (focus lens position information) changes greatly. Specifically, the presence / absence of a scene change is determined by comparing the AF information during the display period of the EVF 111 with the AF information during actual photographing. There is also a method for detecting a scene change using a zoom position difference signal. More specifically, the presence / absence of a scene change is determined based on the zoom position change amount during the EVF 111 display period and the zoom position change amount during actual photographing. Further, the presence or absence of a scene change may be determined by arbitrarily combining these determination methods.

次に、シーン変化の有無の判定結果に基づき、WB係数の算出方法を異ならせる例を示す。   Next, an example in which the WB coefficient calculation method is changed based on the determination result of the presence / absence of a scene change will be described.

まずは、シーン変化が無いと判定された時のWB係数の算出方法について説明する。   First, a method for calculating a WB coefficient when it is determined that there is no scene change will be described.

シーン変化の有無の判定を行った結果、シーン変化が無いと判定されたら、WB演算は行わず、EVF111の表示期間に得られる画像信号よりWB演算4(125)で算出されたWB係数4をバッファメモリ203から読み出し(135)、これを本露光画像信号のWB係数に適用する。   If it is determined that there is no scene change as a result of determining whether there is a scene change, the WB calculation is not performed, and the WB coefficient 4 calculated by the WB calculation 4 (125) is obtained from the image signal obtained during the display period of the EVF 111. Reading from the buffer memory 203 (135), this is applied to the WB coefficient of the main exposure image signal.

その後、現像処理(136)を行い、外部記録装置210に記録(137)する。この場合、本露光用WB係数を算出する手間を省けるため、画像生成時間を大幅に短縮できる。   Thereafter, development processing (136) is performed, and recording (137) is performed in the external recording device 210. In this case, the time for generating the main exposure WB coefficient can be saved, so that the image generation time can be greatly shortened.

ここで、シーン変化が無いと判定された場合のもうひとつの例をあげる。現像時に存在する最新の顔検出情報(図1における顔検出5)の結果と、本露光用画像の第1フィールド信号を用いて、WB係数5の算出(138)を行う。その後、現像処理(139)を行い、外部記録装置210に画像を記録する(140)。上記した例は、WB係数算出の時間はかかるが、撮像素子の分光感度が、EVF読み出しモードと静止画読み出しモードで異なる場合があり、EVF画像信号作成用に算出されたWB係数をそのまま使用できない場合に有効である。   Here, another example will be given when it is determined that there is no scene change. The WB coefficient 5 is calculated (138) using the latest face detection information (face detection 5 in FIG. 1) existing at the time of development and the first field signal of the main exposure image. Thereafter, development processing (139) is performed, and an image is recorded in the external recording device 210 (140). In the above example, although it takes time to calculate the WB coefficient, the spectral sensitivity of the image sensor may differ between the EVF readout mode and the still image readout mode, and the WB coefficient calculated for creating the EVF image signal cannot be used as it is. It is effective in the case.

続いて、シーン変化が有りと判定された時のWB係数の算出方法について説明する。
シーン変化の有無の判定を行った結果、シーン変化が有ると判定されたら、本露光画像信号より顔検出(142)を行い、その検出結果と本露光画像信号を用いて新たなWB係数を算出(143)する。
Next, a method for calculating the WB coefficient when it is determined that there is a scene change will be described.
If it is determined that there is a scene change as a result of determining whether there is a scene change, face detection (142) is performed from the main exposure image signal, and a new WB coefficient is calculated using the detection result and the main exposure image signal. (143).

その後、EVF動作時のWB係数4と算出された新たなWB係数を、シーン変化率(k)を用いて加重加算処理を実施し、本現像用に使用するWB係数5を算出する。
WBCo5=(1−k)×WBCo4+k×WBCo5
その後、WB係数5を用いて本現像処理(144)を行い、外部記録装置210に画像を記録する(145)。本実施形態において、顔検出に用いる画像信号を、例えば3フィールド読み出しを行う撮像素子から得るとする場合、図1に示すように、第1フィールド信号の読み出し(131)が終了した時点で、第1フィールド信号から輝度信号を生成する(141)。複数フィールド読み出しを行う撮像素子においては、第1フィールド信号のみでWB係数を算出するために必要なRGB信号が揃うので、全てのフィールド信号の読み出しを待たずに、WB係数の算出を行うことが可能である。
Thereafter, a weighted addition process is performed on the WB coefficient 4 during the EVF operation and the calculated new WB coefficient using the scene change rate (k) to calculate a WB coefficient 5 used for the main development.
WBCo5 = (1-k) × WBCo4 + k × WBCo5
Thereafter, a main development process (144) is performed using a WB coefficient of 5, and an image is recorded in the external recording device 210 (145). In the present embodiment, when an image signal used for face detection is obtained from, for example, an image sensor that performs three-field reading, as shown in FIG. A luminance signal is generated from one field signal (141). In an image sensor that performs multi-field readout, the RGB signals necessary for calculating the WB coefficient are prepared using only the first field signal. Therefore, the WB coefficient can be calculated without waiting for all the field signals to be read. Is possible.

したがって、3フィールド読み出しを行う撮像素子において、第1フィールド信号のみからWB係数を算出する場合と、全てのフィールド信号からWB係数を算出する場合とを比較すると、前者は後者の3分の1の速度でWB係数の算出を行うことが可能である。   Therefore, in an imaging device that performs three-field readout, comparing the case where the WB coefficient is calculated from only the first field signal with the case where the WB coefficient is calculated from all field signals, the former is one third of the latter. It is possible to calculate the WB coefficient at a speed.

そして、生成された輝度信号を、特徴検出回路209の入力とし、顔検出を行う(142)ことで、顔検出時間の短縮を図っている。これは、第2、第3フィールドの読み出し(132、133)を行っている期間に、顔検出用画像の現像(141)および顔検出(142)を開始させることで、処理を高速化することができる。   The generated luminance signal is input to the feature detection circuit 209, and face detection is performed (142), thereby reducing the face detection time. This speeds up processing by starting development (141) and face detection (142) of the face detection image during the period during which the second and third fields are read (132, 133). Can do.

また、偶数フィールド読み出しを行う撮像素子の場合、第1フィールドの信号のみではRGB全色がそろわず色が作成できないため、第1および第2フィールドの信号を用いて特徴検出回路209の入力とする。   Further, in the case of an image sensor that performs even-field readout, all the RGB colors are not prepared with only the first field signal, and colors cannot be generated. Therefore, the feature detection circuit 209 is used as an input using the first and second field signals. .

更に、高速化のために顔検出に色情報を用いない特徴検出回路を使用する場合は、偶数フィールド読み出しを行う撮像素子の場合であっても、第1フィールド画像信号のみから輝度信号を生成して特徴検出回路の入力信号とする。   Furthermore, when a feature detection circuit that does not use color information for face detection is used for speedup, a luminance signal is generated only from the first field image signal even in the case of an image sensor that performs even field readout. The input signal of the feature detection circuit.

このように、本実施形態によれば、シーン変化の有無を判定し、その結果に応じてWB係数を新たに算出するか否かを切り替えることで、顔検出用簡易画像作成時間および顔検出時間を短縮することを可能にしている。   As described above, according to the present embodiment, the presence / absence of a scene change is determined, and whether or not the WB coefficient is newly calculated according to the determination result is switched, whereby the face detection simple image creation time and the face detection time are determined. It is possible to shorten.

本発明の撮像装置における撮像動作タイミングを示す図である。It is a figure which shows the imaging operation timing in the imaging device of this invention. 本発明の信号処理簡易ブロック図である。It is a signal processing simplified block diagram of the present invention. 撮像素子の画素加算モード時における信号の読み出し概略図である。FIG. 10 is a schematic diagram of signal readout in the pixel addition mode of the image sensor. 撮像素子のブロック分割の一例を示す図である。It is a figure showing an example of block division of an image sensor. 本発明の第1の実施形態における顔情報を説明するための図である。It is a figure for demonstrating the face information in the 1st Embodiment of this invention. 3フィールド読み出しを行う撮像素子の読み出しの概念図である。It is a conceptual diagram of the reading of the image pick-up element which performs 3 field reading. 輝度差分値とシーン変化量の関係を示す図である。It is a figure which shows the relationship between a luminance difference value and a scene change amount. 画面を任意の複数ブロックに分割した例を示す図である。It is a figure which shows the example which divided | segmented the screen into arbitrary several blocks. 白検出範囲を示す図である。It is a figure which shows a white detection range. 被写体として顔のアップを撮影した例を示す図である。It is a figure which shows the example which image | photographed the face-up as a to-be-photographed object. 従来の撮像装置における撮像動作タイミングを示す図である。It is a figure which shows the imaging operation timing in the conventional imaging device.

符号の説明Explanation of symbols

201 撮像素子
202 A/D変換回路
203 バッファメモリ
204 OB減算回路
205 OBブロック積分回路
206 WB係数算出回路
207 WBゲイン回路
208 デジタル信号処理回路
209 特徴検出回路
210 外部記録装置
211 表示装置
212 CPU
213 デバイス制御回路
DESCRIPTION OF SYMBOLS 201 Image pick-up element 202 A / D conversion circuit 203 Buffer memory 204 OB subtraction circuit 205 OB block integration circuit 206 WB coefficient calculation circuit 207 WB gain circuit 208 Digital signal processing circuit 209 Feature detection circuit 210 External recording device 211 Display device 212 CPU
213 Device control circuit

Claims (14)

撮影光学系により形成された被写体像を光電変換する撮像素子を備える撮像装置において、
前記撮像素子から得られる信号に基づき被写体領域を繰り返し検出する被写体検出手段と、
前記被写体検出手段から出力される被写体情報に基づきホワイトバランス係数を算出するホワイトバランス係数算出手段と、
ホワイトバランス係数を求める元となったシーンと本露光を行う元となったシーンを比較するシーン変化判定手段とを備え、
前記シーンの比較結果に応じて、本露光後に前記ホワイトバランス係数算出手段によってホワイトバランス係数を新たに算出するか否かを切り替えることを特徴とする撮像装置。
In an imaging apparatus including an imaging element that photoelectrically converts a subject image formed by an imaging optical system,
Subject detection means for repeatedly detecting a subject region based on a signal obtained from the image sensor;
White balance coefficient calculating means for calculating a white balance coefficient based on subject information output from the subject detecting means;
A scene change determination means for comparing the scene from which the white balance coefficient is obtained and the scene from which the main exposure is performed;
An image pickup apparatus that switches whether or not a white balance coefficient is newly calculated by the white balance coefficient calculation means after the main exposure in accordance with a comparison result of the scene.
前記シーンの比較結果に応じて、撮像素子から得られる信号を読み出した後に行うホワイトバランス処理に用いるホワイトバランス係数として、既に算出されているホワイトバランス係数を用いる、又は本露光の際に得られる画像信号より被写体情報を検出し、該被写体情報に基づきホワイトバランス係数を新たに算出して用いることを特徴とする請求項1に記載の撮像装置。   In accordance with the result of the scene comparison, an already obtained white balance coefficient is used as a white balance coefficient used for white balance processing performed after reading out a signal obtained from an image sensor, or an image obtained during main exposure. 2. The imaging apparatus according to claim 1, wherein subject information is detected from the signal, and a white balance coefficient is newly calculated based on the subject information. 複数フィールド読み出し可能な撮像素子を備える撮像装置において、前記被写体検出手段は、第1フィールドの信号、或いは第1及び第2フィールドの信号から被写体検出を行うことを特徴とする請求項1に記載の撮像装置。   2. The imaging apparatus including an imaging device capable of reading out a plurality of fields, wherein the subject detection unit performs subject detection from a first field signal or first and second field signals. Imaging device. 前記シーン変化判定手段は、撮影画像よりあらかじめ指定した領域の平均輝度値と、本露光画像における同一座標領域の平均輝度値を比較することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the scene change determination unit compares an average luminance value of an area designated in advance from a captured image with an average luminance value of the same coordinate area in the main exposure image. 前記シーン変化判定手段は、最新のホワイトバランス係数を求める元となった画像信号撮影時の被写体測光値と、本露光画像信号撮影時の被写体測光値との差分、又は最新のホワイトバランス係数を求める元となった画像信号撮影時の合焦位置情報と、本露光画像信号撮影時の合焦位置情報との差分、又は最新のホワイトバランス係数を求める元となった画像信号撮影時のレンズズームポジションと、本露光画像信号撮影時のレンズズームポジションとの差分、のうち少なくとも一つを比較することを特徴とする請求項1に記載の撮像装置。   The scene change determination means obtains a difference between a subject photometric value at the time of photographing an image signal from which the latest white balance coefficient is obtained and a subject photometric value at the time of photographing the main exposure image signal, or a latest white balance coefficient. The difference between the focus position information at the time of original image signal shooting and the focus position information at the time of main exposure image signal shooting, or the lens zoom position at the time of image signal shooting from which the latest white balance coefficient is obtained The imaging apparatus according to claim 1, wherein at least one of the difference between the zoom zoom position and the lens zoom position at the time of photographing the exposure image signal is compared. 前記シーンの比較結果、シーン変化があるとみなせる場合には、本露光の際に得られる画像信号より被写体情報を検出し、該被写体情報に基づきホワイトバランス係数を新たに算出して用い、シーン変化がないとみなせる場合には、既に算出されているホワイトバランス係数を用いることを特徴とする請求項1に記載の撮像装置。   If the scene comparison results indicate that there is a scene change, subject information is detected from the image signal obtained during the main exposure, and a new white balance coefficient is calculated and used based on the subject information. 2. The imaging apparatus according to claim 1, wherein when it can be considered that there is no white balance coefficient, a white balance coefficient that has already been calculated is used. 前記撮像素子の分光感度が、電子ビューファインダーにデータを読み出す際と、静止画データとして読み出す際とで異なる場合は、本露光の際に得られる画像信号の第1フィールド画像から前記ホワイトバランス係数を算出することを特徴とする請求項1、2、5又は6に記載の撮像装置。   If the spectral sensitivity of the image sensor differs between when reading data to the electronic viewfinder and when reading it as still image data, the white balance coefficient is calculated from the first field image of the image signal obtained during the main exposure. The imaging device according to claim 1, wherein the imaging device is calculated. 撮影光学系により形成された被写体像を光電変換する撮像素子を備える撮像装置の制御方法において、
前記撮像素子から得られる信号に基づき被写体領域を繰り返し検出する被写体検出工程と、
前記被写体検出工程から出力される被写体情報に基づきホワイトバランス係数を算出するホワイトバランス係数算出工程と、
ホワイトバランス係数を求める元となったシーンと本露光を行う元となったシーンを比較するシーン変化判定工程とを備え、
前記シーンの比較結果に応じて、本露光後に前記ホワイトバランス係数算出工程によってホワイトバランス係数を新たに算出するか否かを切り替えることを特徴とする撮像装置の制御方法。
In a control method of an imaging apparatus including an imaging element that photoelectrically converts a subject image formed by a photographing optical system,
A subject detection step of repeatedly detecting a subject region based on a signal obtained from the image sensor;
A white balance coefficient calculation step of calculating a white balance coefficient based on the subject information output from the subject detection step;
A scene change determination process for comparing the scene from which the white balance coefficient is obtained and the scene from which the main exposure is performed;
A control method for an imaging apparatus, wherein whether or not a white balance coefficient is newly calculated by the white balance coefficient calculating step is switched after the main exposure according to the comparison result of the scene.
前記シーンの比較結果に応じて、前記撮像素子から得られる信号を現像した後に行うホワイトバランス処理に用いるホワイトバランス係数として、既に算出されているホワイトバランス係数を用いる、又は本露光の際に得られる画像信号より被写体情報を検出し、該被写体情報に基づきホワイトバランス係数を新たに算出して用いることを特徴とする請求項8に記載の撮像装置の制御方法。   Depending on the comparison result of the scene, the white balance coefficient already calculated is used as the white balance coefficient used for the white balance processing performed after developing the signal obtained from the image sensor, or obtained during the main exposure. 9. The method of controlling an imaging apparatus according to claim 8, wherein subject information is detected from an image signal, and a white balance coefficient is newly calculated based on the subject information. 複数フィールド読み出し可能な撮像素子を備える撮像装置の制御方法において、前記被写体検出工程は、第1フィールドの信号、或いは第1及び第2フィールドの信号から被写体検出を行うことを特徴とする請求項8に記載の撮像装置の制御方法。   9. The method of controlling an imaging apparatus including an imaging device capable of reading out a plurality of fields, wherein the subject detection step performs subject detection from a first field signal or first and second field signals. The control method of the imaging device described in 1. 前記シーン変化判定工程は、撮影画像よりあらかじめ指定した領域の平均輝度値と、本露光画像における同一座標領域の平均輝度値を比較することを特徴とする請求項8に記載の撮像装置の制御方法。   9. The control method for an imaging apparatus according to claim 8, wherein the scene change determination step compares an average luminance value of an area designated in advance from a captured image with an average luminance value of the same coordinate area in the main exposure image. . 前記シーン変化判定工程は、最新のホワイトバランス係数を求める元となった画像信号撮影時の被写体測光値と、本露光画像信号撮影時の被写体測光値との差分、又は最新のホワイトバランス係数を求める元となった画像信号撮影時の合焦位置情報と、本露光画像信号撮影時の合焦位置情報との差分、又は最新のホワイトバランス係数を求める元となった画像信号撮影時のレンズズームポジションと、本露光画像信号撮影時のレンズズームポジションとの差分、のうち少なくとも一つを比較することを特徴とする請求項8に記載の撮像装置の制御方法。   The scene change determination step obtains a difference between a subject photometric value at the time of image signal photographing that is a basis for obtaining the latest white balance coefficient and a subject photometric value at the time of photographing the main exposure image signal, or obtains the latest white balance coefficient. The difference between the focus position information at the time of original image signal shooting and the focus position information at the time of main exposure image signal shooting, or the lens zoom position at the time of image signal shooting from which the latest white balance coefficient is obtained 9. The method of controlling an image pickup apparatus according to claim 8, wherein at least one of the difference between the image zoom position and the lens zoom position at the time of photographing the exposure image signal is compared. 前記シーンの比較結果、シーン変化があるとみなせる場合には、本露光の際に得られる画像信号より被写体情報を検出し、該被写体情報に基づきホワイトバランス係数を新たに算出して用い、シーン変化がないとみなせる場合には、既に算出されているホワイトバランス係数を用いることを特徴とする請求項8に記載の撮像装置の制御方法。   If the scene comparison results indicate that there is a scene change, subject information is detected from the image signal obtained during the main exposure, and a new white balance coefficient is calculated and used based on the subject information. 9. The method of controlling an imaging apparatus according to claim 8, wherein a white balance coefficient that has already been calculated is used when it can be considered that there is no image. 前記撮像素子の分光感度が、電子ビューファインダーにデータを読み出す際と、静止画データとして読み出す際とで異なる場合は、本露光の際に得られる画像信号の第1フィールド画像から前記ホワイトバランス係数を算出することを特徴とする請求項8、9、12又は13に記載の撮像装置の制御方法。
If the spectral sensitivity of the image sensor differs between when reading data to the electronic viewfinder and when reading it as still image data, the white balance coefficient is calculated from the first field image of the image signal obtained during the main exposure. The method of controlling an imaging apparatus according to claim 8, 9, 12, or 13, wherein the calculation is performed.
JP2006202133A 2006-07-25 2006-07-25 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD Expired - Fee Related JP4871664B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006202133A JP4871664B2 (en) 2006-07-25 2006-07-25 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006202133A JP4871664B2 (en) 2006-07-25 2006-07-25 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Publications (2)

Publication Number Publication Date
JP2008028924A JP2008028924A (en) 2008-02-07
JP4871664B2 true JP4871664B2 (en) 2012-02-08

Family

ID=39119080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006202133A Expired - Fee Related JP4871664B2 (en) 2006-07-25 2006-07-25 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP4871664B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5366584B2 (en) * 2009-02-16 2013-12-11 キヤノン株式会社 Imaging apparatus, image processing method, and program
JP5629564B2 (en) * 2010-12-07 2014-11-19 キヤノン株式会社 Image processing apparatus and control method thereof
CN115802175B (en) * 2023-02-03 2023-05-12 福瑞泰克智能系统有限公司 Control method, device and storage medium for automatic white balance of image sensor

Also Published As

Publication number Publication date
JP2008028924A (en) 2008-02-07

Similar Documents

Publication Publication Date Title
US7791668B2 (en) Digital camera
US8599283B2 (en) Image capture apparatus and image capturing method
JP4914045B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
TWI393434B (en) Image capture device and program storage medium
JP6460653B2 (en) Image processing apparatus, imaging apparatus including the same, image processing method, and image processing program
JP5736796B2 (en) Electronic camera, program and recording medium
JP5013954B2 (en) Imaging device
TW201119365A (en) Image selection device and method for selecting image
JP2010136223A (en) Imaging device and imaging method
KR20090071471A (en) Imaging device and its shutter drive mode selection method
US8823863B2 (en) Image capturing apparatus and control method therefor
JP2008139683A (en) Imaging apparatus and autofocus control method
JP2003307669A (en) Camera
JP2003319407A (en) Imaging apparatus
JP4871664B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5146015B2 (en) Imaging apparatus and imaging method
JP2009017427A (en) Imaging device
JP2008172395A (en) Imaging apparatus and image processing apparatus, method, and program
JP4969349B2 (en) Imaging apparatus and imaging method
JP2014007622A (en) Image pick-up device and program
JP2005122016A (en) Automatic focusing camera
JP2008283477A (en) Image processor, and image processing method
JP4143395B2 (en) Imaging apparatus, autofocus method, program, and storage medium
JP2001324672A (en) Automatic focusing control method and automatic focusing device
JP2003315665A (en) Camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090716

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111121

R151 Written notification of patent or utility model registration

Ref document number: 4871664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees