JP4871664B2 - IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD - Google Patents
IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD Download PDFInfo
- Publication number
- JP4871664B2 JP4871664B2 JP2006202133A JP2006202133A JP4871664B2 JP 4871664 B2 JP4871664 B2 JP 4871664B2 JP 2006202133 A JP2006202133 A JP 2006202133A JP 2006202133 A JP2006202133 A JP 2006202133A JP 4871664 B2 JP4871664 B2 JP 4871664B2
- Authority
- JP
- Japan
- Prior art keywords
- white balance
- image
- balance coefficient
- subject
- image signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Color Television Image Signal Generators (AREA)
Description
デジタルカメラ及びデジタルビデオカメラのホワイトバランス制御に関する。 The present invention relates to white balance control of digital cameras and digital video cameras.
デジタルカメラで撮像された画像に対して、適切な色、もしくは撮影者によって意図された色味を出すために行われる、ホワイトバランス(これよりWBという)制御がある。 There is white balance (hereinafter referred to as WB) control performed to produce an appropriate color or a color intended by the photographer for an image captured by a digital camera.
図8は画面を任意の複数ブロックに分割した例を示しており、図9は白検出範囲を示している。 FIG. 8 shows an example in which the screen is divided into a plurality of arbitrary blocks, and FIG. 9 shows a white detection range.
図10は、被写体として顔のアップを撮影した例を示している。 FIG. 10 shows an example of photographing a face up as a subject.
図8及び図9を用いて、デジタルカメラ等に用いられている従来のWB係数算出回路の動作を説明する。 The operation of a conventional WB coefficient calculation circuit used in a digital camera or the like will be described with reference to FIGS.
図8のように、予め画面を任意の複数のブロック(m個)に分割する。次に、上記複数のブロック毎に例えば以下の式を用いて色評価値(Cx[m]、Cy[m])と輝度値Y[m]を算出する。 As shown in FIG. 8, the screen is divided into a plurality of arbitrary blocks (m) in advance. Next, for each of the plurality of blocks, a color evaluation value (Cx [m], Cy [m]) and a luminance value Y [m] are calculated using the following formula, for example.
図9のように、予め様々な光源下で白色被写体を撮影し色評価値を算出することで白検出範囲を設定する。図9に示す白検出範囲に、上記で算出した色評価値が含まれる場合、その色評価値を含むブロックは白であると判定し、白と判定されたブロックの画素値を積分する(これより、この判定処理を白サーチと呼ぶ)。積分された画素値(sumR、sumG、sumB)より、以下の式を用いてWB係数を算出する。 As shown in FIG. 9, a white detection range is set by photographing a white object in advance under various light sources and calculating a color evaluation value. When the color evaluation value calculated above is included in the white detection range shown in FIG. 9, it is determined that the block including the color evaluation value is white, and the pixel values of the block determined as white are integrated (this) This determination process is called white search). From the integrated pixel values (sumR, sumG, sumB), a WB coefficient is calculated using the following equation.
上記したWB係数算出方法では、図10のように被写体として顔が大きく写っている場合、太陽光下で撮影した人肌領域の色評価値(図9−1)と、タングステン光下で撮影した白色被写体の色評価値(図9−2)がほぼ同じ値となる。そのため、人肌をタングステン光下の白と誤判別し、肌色を白く補正してしまう場合があった。 In the above WB coefficient calculation method, when a face is large as a subject as shown in FIG. 10, the color evaluation value (FIG. 9-1) of the human skin area photographed under sunlight and the photographed under tungsten light The color evaluation value (FIG. 9-2) of the white subject is almost the same value. For this reason, human skin may be misidentified as white under tungsten light, and the skin color may be corrected to white.
そこで、顔検出回路にて検出された顔領域を、白検出サーチ対象から外すという提案がされている(特許文献1)。また、背景領域と主被写体領域でそれぞれ異なるWB制御を行うという提案がされている(特許文献2)。 In view of this, a proposal has been made to exclude the face area detected by the face detection circuit from the white detection search target (Patent Document 1). In addition, a proposal has been made to perform different WB controls for the background area and the main subject area (Patent Document 2).
図11に、上記した特許文献1又は2に記載の従来のWB係数算出の処理構成から推測される撮像装置における撮像動作タイミングを示す。これより本発明の図面における符号は(150)のように括弧を付けて示すこととする。図11において、ユーザーによりシャッターボタンが全押し(これよりSW2という、が押下)されると、本露光が実施され、直ちにセンサーから画像信号が読み出される。なお、本露光とは、撮像装置が記録を目的とした撮影を行うための指示を受けて行われる露光動作のことである。
FIG. 11 shows the imaging operation timing in the imaging apparatus inferred from the processing configuration of the conventional WB coefficient calculation described in
その後、撮像装置は簡易的に画像信号を現像し、顔検出回路は顔検出を行う。 Thereafter, the imaging device simply develops the image signal, and the face detection circuit performs face detection.
なお、現像とは撮像素子の出力を、画像として見ることができるデータにする為の画像処理のことである。それに対して、上記した簡易的な現像とは、現像処理にて行う処理のうち、WB処理を除いた処理のことを意味する。 The development is image processing for converting the output of the image sensor into data that can be viewed as an image. On the other hand, the above-described simple development means processing excluding WB processing among processing performed in the development processing.
また、本発明において、顔検出は、WB処理を行っていない簡易的な現像を行った後の画像信号に対して行っている。 In the present invention, face detection is performed on an image signal after simple development without performing WB processing.
撮像装置は、検出された顔情報を用いて特許文献1或いは2にて開示されている手法にてWB係数を算出し、その後、本現像処理を行い、CF等の外部記録媒体に撮影画像を記録する。
図11の撮像動作タイミングに示すように、本露光後の画像信号(149)を用いて、信号読み出し、ブロック積分(150)を行う。 As shown in the imaging operation timing of FIG. 11, signal readout and block integration (150) are performed using the image signal (149) after the main exposure.
その後、顔検出入力用として簡易現像(151)を行い、顔検出手段により顔を検出(152)する。 Thereafter, simple development (151) is performed for face detection input, and the face is detected by the face detection means (152).
次に、顔検出の結果を用いてWB係数を算出(153)し、本現像(154)を行い、外部記録媒体などへ記録(155)する、といった処理手順になっている。 Next, the processing procedure is such that a WB coefficient is calculated (153) using the result of face detection, main development (154) is performed, and recording is performed on an external recording medium (155).
つまり、従来の処理構成では、顔検出を行う為の処理時間に加え、顔検出結果を用いたWB係数算出においてもほぼ同等の時間を要するため、撮影完了までに非常に時間が掛かってしまうといった欠点がある。 In other words, in the conventional processing configuration, in addition to the processing time for performing face detection, almost the same time is required for calculating the WB coefficient using the face detection result, so that it takes a very long time to complete photographing. There are drawbacks.
上記課題を解決し、目的を達成するために、本発明は、撮影光学系により形成された被写体像を光電変換する撮像素子を備える撮像装置において、前記撮像素子から得られる信号に基づき被写体領域を繰り返し検出する被写体検出手段と、前記被写体検出手段から出力される被写体情報に基づきホワイトバランス係数を算出するホワイトバランス係数算出手段と、ホワイトバランス係数を求める元となったシーンと本露光を行う元となったシーンを比較するシーン変化判定手段とを備え、前記シーンの比較結果に応じて、本露光後に前記ホワイトバランス係数算出手段によってホワイトバランス係数を新たに算出するか否かを切り替えることを特徴とするものである。 In order to solve the above-described problems and achieve the object, the present invention provides an imaging device including an imaging device that performs photoelectric conversion on a subject image formed by a photographing optical system, based on a signal obtained from the imaging device. Subject detection means for repeatedly detecting, white balance coefficient calculation means for calculating a white balance coefficient based on subject information output from the subject detection means, a scene from which the white balance coefficient is obtained, and a source for performing main exposure A scene change determination unit that compares the scenes, and switching whether to newly calculate a white balance coefficient by the white balance coefficient calculation unit after the main exposure according to the comparison result of the scene, To do.
上記課題を解決し、目的を達成するために、本発明は、撮影光学系により形成された被写体像を光電変換する撮像素子を備える撮像装置の制御方法において、前記撮像素子から得られる信号に基づき被写体領域を繰り返し検出する被写体検出工程と、前記被写体検出工程から出力される被写体情報に基づきホワイトバランス係数を算出するホワイトバランス係数算出工程と、ホワイトバランス係数を求める元となったシーンと本露光を行う元となったシーンを比較するシーン変化判定工程とを備え、前記シーンの比較結果に応じて、本露光後に前記ホワイトバランス係数算出工程によってホワイトバランス係数を新たに算出するか否かを切り替えることを特徴とするものである。 In order to solve the above-described problems and achieve the object, the present invention provides a method for controlling an imaging apparatus including an imaging element that photoelectrically converts a subject image formed by a photographing optical system, based on a signal obtained from the imaging element. A subject detection step for repeatedly detecting a subject region, a white balance factor calculation step for calculating a white balance factor based on subject information output from the subject detection step, a scene and a main exposure from which the white balance factor is obtained A scene change determination step for comparing the scenes that are the basis for performing the switching, and switching whether or not to newly calculate a white balance coefficient by the white balance coefficient calculation step after the main exposure according to the comparison result of the scenes It is characterized by.
シーン変化の有無を判定し、その結果に応じてWB係数を新たに算出するか否かを切り替えることで、撮影動作の高速化を可能にする。 By determining whether or not there is a scene change and switching whether to newly calculate the WB coefficient according to the result, it is possible to speed up the shooting operation.
以下、本発明の好適な実施形態について、図面を参照して詳細に説明する。 DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.
(第1の実施形態)
以下、添付図面を参照して本発明の好適な実施の形態を詳しく説明する。
(First embodiment)
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
図1は、本発明における、本発明の撮像装置における撮像動作タイミングを示しており、図2は、信号処理の簡易的なブロック図を示している。 FIG. 1 shows the imaging operation timing in the imaging apparatus of the present invention, and FIG. 2 shows a simple block diagram of signal processing.
図2において、201は撮像レンズ群を通過した被写体像としての光束を電気信号に変換するCCDセンサーやCMOSセンサー等の撮像素子である。202は、撮像素子201から得られるアナログ信号出力をデジタル信号に変換するアナログ/デジタル(以下、A/Dとする)変換回路である。203はA/D変換回路202から出力されたデジタル信号を一時記憶するDRAMなどのバッファメモリ、204はバッファメモリ203から読み出された画像信号から黒引きを行うオプティカルブラック(これよりOBという)減算回路である。
In FIG. 2,
ここで、図4は、撮像素子201のブロック分割の一例を示す図である。図4では、エリアを8×8に分割しているが分割の仕方はこれに限られるものではない。
Here, FIG. 4 is a diagram illustrating an example of block division of the
205はバッファメモリ203から読み出された画像信号に対して、OB領域の画素積分と図4のように予め設定した任意の小ブロック領域単位で画素積分を行うOBブロック積分回路である。206はWB制御値を係数化したWB係数を算出するWB係数算出回路である。WB係数算出回路206により算出されるWB係数は撮像装置電源投入時には、予め設定されたWB係数が使用され、現フレーム以前の電子ビューファインダー(これよりEVFという)画像信号で既にWB係数が算出されている場合には、そのWB係数が使用される。
Reference numeral 205 denotes an OB block integration circuit that performs pixel integration in the OB area and pixel integration in units of arbitrary small block areas set in advance as shown in FIG. 4 with respect to the image signal read from the
なお、EVF画像信号とは、撮像装置の液晶モニタ等の表示部に表示される、撮像素子から得られる信号に各種信号処理を施し生成される画像信号を間引いて生成した信号である。 The EVF image signal is a signal generated by thinning out an image signal generated by performing various kinds of signal processing on a signal obtained from an image pickup element and displayed on a display unit such as a liquid crystal monitor of the image pickup apparatus.
ここで、WB係数の設定の一例を図1を用いて説明する。 Here, an example of setting the WB coefficient will be described with reference to FIG.
図1において、EVF101からEVF105の画像信号現像時には予め設定したWB係数(不図示)が使用される。EVF106からEVF108の画像信号現像時には、WB演算1(122)の結果を、EVF109からEVF11の画像信号現像時には、WB演算2(123)の結果を使用する。このように画像信号現像時には最新のWB演算結果が用いられる。また、WB演算の結果はバッファメモリ203に記録される。
In FIG. 1, a preset WB coefficient (not shown) is used when developing image signals from EVF 101 to EVF 105. When developing image signals from EVF 106 to EVF 108, the result of WB calculation 1 (122) is used, and when developing image signals from EVF 109 to EVF 11, the result of WB calculation 2 (123) is used. In this way, the latest WB calculation result is used during image signal development. The result of the WB calculation is recorded in the
図2に戻り、207は、OB減算回路204から出力されるRGB各信号にWBゲインをかけるWBゲイン回路である。208はWBゲイン回路207の出力データに対して所定の画素補間処理や色変換処理を行う、デジタル信号処理回路である。209は顔検出を行うための特徴検出回路である。この特徴検出回路209は、画像信号の周波数特性から各テクスチャーを検出する不図示のバンドパスフィルタによって検出されたテクスチャー群から目、鼻、口、耳等の被写体の特徴的な部位の候補群の検出を行う。さらに特徴検出回路209は検出された特徴情報を記録しておく不図示の特徴検出レジスタを備えている。
Returning to FIG. 2, reference numeral 207 denotes a WB gain circuit that applies a WB gain to the RGB signals output from the
なお、本実施形態においては、特徴検出回路209を用いて、顔検出を行っている。
In the present embodiment, face detection is performed using the
図5(a)及び(b)は、検出された顔及び目の座標値と、検出結果の信頼度等の顔検出情報について示している。 FIGS. 5A and 5B show face detection information such as detected face and eye coordinate values and reliability of detection results.
特徴検出回路209では、デジタル信号処理回路208より定期的に転送されてくるEVF画像信号から得られた輝度信号を用いて顔検出を実施し、図5(b)に示すような顔検出情報を不図示の特徴検出レジスタに記録する。
The
なお、本実施形態においては特徴検出回路209にて上述した処理の流れで顔検出を行っているが、この特徴検出回路209に公知の顔検出手法をプログラミングして組み込んでもよい。
In the present embodiment, the face detection is performed by the
公知の顔検出技術としては、ニューラルネットワークに代表される学習を用いた手法、目や鼻や口といった形状に特徴のある部位を、画像領域からテンプレートマッチングを用い探し出し類似度が高ければ顔とみなす手法があげられる。 As a known face detection technique, a method using learning typified by a neural network, a part having a characteristic shape such as an eye, nose, or mouth is searched from an image area using template matching, and is regarded as a face if the similarity is high. Techniques are listed.
また、他にも、肌の色や目の形といった画像特徴量を検出し統計的解析を用いた手法等、多数提案されており、これらの手法を複数組み合わせて顔認識するのが一般的である。 In addition, many other methods have been proposed, such as methods that detect image features such as skin color and eye shape, and use statistical analysis. is there.
具体的な例としては特開平2002−251380号公報に記載のウェーブレット変換と画像特徴量を利用して顔検出する方法などが挙げられる。 Specific examples include a face detection method using wavelet transform and image feature amount described in JP-A-2002-251380.
210は、画像データ等を保存するためのフラッシュメモリ、マイクロドライブ、ハードディスクなどの外部記録装置である。211は、液晶などの表示装置であり、撮像した画像データを逐次表示すればEVFとしての機能を実現できる。 Reference numeral 210 denotes an external recording device such as a flash memory, a micro drive, or a hard disk for storing image data and the like. Reference numeral 211 denotes a display device such as a liquid crystal, which can realize a function as an EVF by sequentially displaying captured image data.
なお、WB係数乗算後の画像信号はデジタル信号処理回路208にてYUV信号に変換され特徴検出回路209、外部記録装置及び表示装置211に転送される。
The image signal multiplied by the WB coefficient is converted into a YUV signal by the digital signal processing circuit 208 and transferred to the
デジタル信号処理回路208は、YUV信号作成時に、任意の小ブロック単位で算出された輝度積分値、および、撮影時の撮影条件である露出制御値(Av、Tv値)を後に説明するシーン変化検出(134)に用いるため、バッファメモリ203に記憶する。
The digital signal processing circuit 208 detects a scene change, which will be described later, with respect to a luminance integral value calculated in arbitrary small block units and an exposure control value (Av, Tv value) that is a photographing condition at the time of photographing when the YUV signal is created. For use in (134), it is stored in the
また、オートフォーカス(これよりAFという)の測距情報、ズームポジション等も、同様に、バッファメモリ203に記憶する。212は、特徴検出回路209の出力に基づきシャッター、絞り、フォーカスレンズに対する制御を実行するCPUである。213は、CPUの指示に基づきシャッター、絞り、フォーカスレンズの制御を行うデバイス制御回路である。
In addition, autofocus (hereinafter referred to as AF) distance measurement information, zoom position, and the like are similarly stored in the
これより、シャッターボタンが半押し(これよりSW1という、が押下)される前の撮像動作についての説明を図1を用いて行う。 Thus, the imaging operation before the shutter button is half-pressed (hereinafter SW1 is pressed) will be described with reference to FIG.
例えば、表示装置211の表示フレームレートが30fpsの場合は、30秒に1回の割合で、以下の撮像動作が行われるとする。 For example, when the display frame rate of the display device 211 is 30 fps, the following imaging operation is performed at a rate of once every 30 seconds.
図1におけるEVF101からEVF116は、それぞれEVFの表示期間を示している。 EVF101 to EVF116 in FIG. 1 respectively indicate EVF display periods.
図3に撮像素子の画素加算モード時における信号の読み出し概略について示す。 FIG. 3 shows an outline of signal readout in the pixel addition mode of the image sensor.
図3において、R,B,G1,G2で表されているのは、入射光をその光量に応じた電荷に変換するフォトダイオードである。そして、縦に並ぶフォトダイオードの列の電荷をR,B,G1,G2それぞれの色毎に読み出し、垂直方向に転送する。そして、転送されてきた電荷を水平ライン毎に水平に転送し、その電荷をA/D変換回路202によってデジタル信号に変換し、バッファメモリ203に一時記録する。このようにして、撮像素子の信号の読出しが行われる。
In FIG. 3, what is represented by R, B, G1, and G2 are photodiodes that convert incident light into charges corresponding to the amount of light. Then, the charges in the vertically aligned photodiode rows are read for each color of R, B, G1, and G2, and transferred in the vertical direction. The transferred charge is transferred horizontally for each horizontal line, the charge is converted into a digital signal by the A /
撮像素子201を図3に示すような画素加算モード(EVF読み出しモード)で駆動し、不図示の電子シャッターを制御することで、被写体に最適な露出条件で画像信号が撮影される。
By driving the
これよりEVF101の表示期間に行われる信号処理について説明を行う。EVF101の表示期間において、撮像素子201から読み出された画素信号はA/D変換回路202で、例えば10ビットのデジタル信号に変換され、バッファメモリ203に一時記録される。バッファメモリ203から読み出された画像信号は、OBブロック積分回路205にて画素積分が行われる。
The signal processing performed during the EVF 101 display period will be described. During the display period of the EVF 101, the pixel signal read from the
また、バッファメモリ203から読み出された画像信号は、OB減算回路204によって黒引きが行われ、WBゲイン回路207によってRGB各信号にWBゲインがかけられる。並行してWB係数算出回路206にて、次フレーム以降に用いるWB係数が算出される。WB係数乗算後の画像信号は、デジタル信号処理回路208にてYUV信号に変換され、特徴検出回路209および表示装置211に転送される。
The image signal read from the
なお、本実施形態では、特徴検出回路209は、特徴検出の際に輝度(Y)信号のみ用いるため、デジタル信号処理回路208によって変換された画像信号のうちY成分の出力のみ特徴検出回路209に転送される。
In the present embodiment, since the
そして、特徴検出回路209では、転送されてきた画像信号に対して顔の検出を行う。以上で、EVF101の表示期間に行われる信号処理についての説明を終る。
The
次にEVF102の表示期間に行われる信号処理について説明する。
Next, signal processing performed during the display period of the
EVF102の表示期間において、撮像素子201から読み出された画像信号には、EVF101の表示期間において行われた信号処理と同様の処理が施され、YUV信号に変換される。
In the display period of the
このタイミングでは、EVF101の表示期間において得られた画像信号を用いて顔検出1(117)を実施しているが、EVF102の表示期間における画像信号現像開始時には、顔検出1が終了しないため、WB係数の算出はまだ実施しない。
At this timing, the face detection 1 (117) is performed using the image signal obtained in the display period of the EVF 101. However, since the face detection 1 does not end when the image signal development starts in the display period of the
また、EVF102の表示期間に行われる現像時に用いるWB係数は、EVF101の表示期間に行われる現像時に用いたWB係数がそのまま使用される。以上で、EVF102の表示期間に行われる信号処理についての説明を終る。
Further, as the WB coefficient used during the development performed during the display period of the
EVF103の表示期間に行われる信号処理はEVF102の表示期間に行われる信号処理と同様の処理を行う。
The signal processing performed during the display period of the EVF 103 is the same as the signal processing performed during the display period of the
次にEVF104の表示期間に行われる信号処理について説明する。
EVF104の表示期間において、画像信号が撮像素子201から読み出されYUV信号に現像されるまではEVF102の表示期間に行われる信号処理と同様の処理が行われる。
Next, signal processing performed during the display period of the EVF 104 will be described.
In the display period of the EVF 104, processing similar to the signal processing performed in the display period of the
しかし、画像信号の読み出し終了時のタイミング(146)においては、顔検出1(117)が完了し、その後、顔情報が顔レジスタに記録される。 However, at the timing (146) at the end of reading the image signal, face detection 1 (117) is completed, and then face information is recorded in the face register.
よってこのタイミングで、EVF101の表示期間に得られた画像信号と顔検出1の結果より、WB演算1(122)が開始される。 Therefore, at this timing, the WB calculation 1 (122) is started from the image signal obtained during the display period of the EVF 101 and the result of the face detection 1.
ここで、顔検出情報を用いたWB係数算出方法の別の例としては、顔領域毎に予め設定された複数の固定WB係数を用い各顔領域に含まれる画像信号を補正することで複数の補正画像信号を求め、その補正画像信号に基づいて算出するものがある。 Here, as another example of the WB coefficient calculation method using the face detection information, a plurality of fixed WB coefficients set in advance for each face area are used to correct image signals included in each face area. There is one that obtains a corrected image signal and calculates it based on the corrected image signal.
また、さらに別の方法としては、上記方法で算出したWB係数と、顔検出を用いない通常のWB係数算出方法により得られるWB係数とを、顔検出情報から算出した加重加算係数を用いて加重加算することでWB係数を算出するものがある。 As yet another method, the WB coefficient calculated by the above method and the WB coefficient obtained by a normal WB coefficient calculation method that does not use face detection are weighted using a weighted addition coefficient calculated from face detection information. There is one that calculates a WB coefficient by adding.
なお、本発明において、顔検出情報を用いたWB係数の算出方法については論旨ではないので詳しい説明は行わないこととする。以上で、EVF104の表示期間に行われる信号処理についての説明を終る。 In the present invention, the method for calculating the WB coefficient using the face detection information is not a matter of discussion and will not be described in detail. This is the end of the description of the signal processing performed during the EVF 104 display period.
EVF105の表示期間に行われる信号処理はEVF103の表示期間に行われる信号処理と同様の処理を行う。
次にEVF106の表示期間に行われる信号処理について説明する。
The signal processing performed during the display period of the EVF 105 performs the same processing as the signal processing performed during the display period of the EVF 103.
Next, signal processing performed during the display period of the EVF 106 will be described.
EVF106の表示期間において、画像信号の読み出しが終了するタイミング(148)では、WB係数算出1(122)によって、WB係数1が算出されている。 In the display period of the EVF 106, the WB coefficient 1 is calculated by the WB coefficient calculation 1 (122) at the timing (148) when the reading of the image signal ends.
そこで、最新のWB係数であるWB係数1をEVF106の表示期間に得られる画像信号生成に使用する。しかし、この時、EVF101の表示期間に得られる画像信号を生成するときに用いたWB係数と、今回算出されたWB係数1とを比較して急激な変化がみられる場合、画面の色が大幅に変化するという弊害が生じる。よって、EVF101の表示期間に得られる画像信号を生成するときに用いたWB係数と、今回算出されたWB係数1を任意の加重加算係数で加重加算し新たなWB係数を算出し、これをEVF106の表示期間におけるWB係数とする。 Therefore, the latest WB coefficient WB coefficient 1 is used to generate an image signal obtained during the display period of the EVF 106. However, at this time, if the WB coefficient used when generating the image signal obtained during the display period of the EVF 101 and the WB coefficient 1 calculated this time are rapidly changed, the color of the screen is greatly increased. The harmful effect of changing to Therefore, the WB coefficient used when generating the image signal obtained during the display period of the EVF 101 and the WB coefficient 1 calculated this time are weighted and added with an arbitrary weighted addition coefficient to calculate a new WB coefficient. WB coefficient during the display period.
以上、EVF101〜EVF106の表示期間に行われる信号処理を、ユーザーによってSW1が押下されるまで繰り返す。 The signal processing performed during the display period of EVF 101 to EVF 106 is repeated until SW1 is pressed by the user.
次に、SW1が押下されてから、シャッターボタンが全押し(これよりSW2という、が押下)されるまでの撮像動作についての説明を図1を用いて行う。 Next, an imaging operation from when SW1 is pressed until the shutter button is fully pressed (hereinafter, SW2 is pressed) will be described with reference to FIG.
ユーザーによってSW1が押下されると、撮像素子201の駆動をAF/自動露出(これよりAEという)用に、通常より高速クロックで動作させAF/AE動作(128)を実施する。AF/AE動作の詳細については本発明の主眼点ではないため説明を省略する。
When SW1 is pressed by the user, the
AF/AE動作(128)を行うことで、不図示の測光回路によって本露光条件が算出され、合焦が完了すると、合焦サイン(129)が出される。 By performing the AF / AE operation (128), a main exposure condition is calculated by a photometric circuit (not shown), and when the focusing is completed, a focusing sign (129) is issued.
次に、SW2が押下されてから撮影画像の記録が行われるまでの動作についての説明を図1を用いて行う。ユーザーによってSW2が押下(127)されると、撮像素子201は後述する全画素読み出しモードで駆動され、静止画用の本撮影が行われる。ここで、全画素読み出しモードの際の撮像素子の駆動方法について説明する。
Next, the operation from when SW2 is pressed to when the captured image is recorded will be described with reference to FIG. When SW2 is pressed (127) by the user, the
図6に3フィールド読み出しを行う撮像素子の読み出しの概念図を示す。撮像素子201に蓄積された電気信号は、例えば3フィールド読み出しを行う撮像素子の場合、図6の、6−1、6−2、6−3、といった順番で読み出され、A/D変換回路202によってデジタル信号に変換され、バッファメモリ203に一時記録される。このようにして、順次全ての画素について蓄積された電気信号の読み出しが行われる。なお、図1では、131から133が、上記3フィールド読み出しについての説明に対応している。
FIG. 6 shows a conceptual diagram of readout of an image sensor that performs 3-field readout. For example, in the case of an image sensor that performs three-field readout, the electrical signals accumulated in the
第1フィールド読み出し(131)が終了次第、OBブロック積分回路205にて、OB値および図4のような予め設定したブロック(Y(3,3)、Y(4,3)、Y(3,4)、Y(4,4))の輝度信号平均値Yave_Frが算出される。 Upon completion of the first field reading (131), the OB block integration circuit 205 causes the OB value and the preset blocks (Y (3, 3), Y (4, 3), Y (3, 3) as shown in FIG. 4), Y (4, 4)) luminance signal average value Yave_Fr is calculated.
ここで、顔検出結果を用いてWB演算を最適化するわけだが、AE/AF処理に比べると、顔検出やWB演算には時間がかかる。その為、前回WBゲインを算出したシーンと本撮影のシーンとの変化を検出(134)し、シーン変化がないもしくは少ないものは、最新のEVF画像信号作成時に用いたWB係数をメモリから読み出し(135)、そのまま使用する。 Here, the WB calculation is optimized using the face detection result, but the face detection and the WB calculation take time compared to the AE / AF processing. For this reason, a change between the scene for which the WB gain was calculated last time and the actual shooting scene is detected (134), and if there is no or little scene change, the WB coefficient used when creating the latest EVF image signal is read from the memory ( 135), used as it is.
図1によれば、本撮影時に用いるWB係数はWB演算4(125)の結果であり、WB演算4は、顔検出4(120)より算出され、顔検出4に用いた画像信号はEVF111の表示期間に得た信号である。つまりEVF111の表示期間に得られる画像信号と本露光画像信号に基づきシーン変化を検出すればよい。
According to FIG. 1, the WB coefficient used at the time of actual photographing is the result of WB calculation 4 (125), and
ここで、図7に輝度差分値とシーン変化量の関係を示す。
シーン変化の検出法としては、EVF111の表示期間に得られる画像信号作成時にバッファメモリ203に記録されている予め指定した領域の平均輝度値(Yave_Fi)と、本露光画像における同一座標領域の平均輝度値(Yave_Fr)の輝度差分値ΔYを算出する。
FIG. 7 shows the relationship between the luminance difference value and the scene change amount.
As a method of detecting a scene change, an average luminance value (Yave_Fi) of a predesignated area recorded in the
予め設定された図7に示すような輝度差分値とシーン変化量の関係図を用いて、シーン変化値(k)を算出する。そして、シーン変化値(k)に基づきシーンの変化の有無を判定する。 The scene change value (k) is calculated using a preset relationship diagram between the luminance difference value and the scene change amount as shown in FIG. Then, the presence / absence of a scene change is determined based on the scene change value (k).
つまり、本撮影時に用いるWB係数を求めるために用いた画像信号の輝度と、本露光にて得られた画像信号の輝度を比較結果が基準値を越えているかを判定することによって、シーン変化の有無を判定している。 In other words, by determining whether the comparison result of the luminance of the image signal used for obtaining the WB coefficient used in the main photographing and the luminance of the image signal obtained in the main exposure exceeds the reference value, Judgment is made.
また、被写体の輝度変化分をシーン変化分とし、シーンの変化の有無を判定する方法としては、AE制御時の被写体測光値の輝度差分値(ΔBv=Bv_EVF111撮影時−Bv_本撮影時)が予め設定した値以上の場合、はシーン変化ありと判定するものがある。 Further, as a method for determining whether or not there is a scene change by using the luminance change of the subject as a scene change, the luminance difference value of the subject photometric value at the time of AE control (ΔBv = Bv_EVF111 shooting time−Bv_main shooting time) If the value is greater than the set value, there are cases where it is determined that there is a scene change.
また、さらに別の方法としては、AF制御値(フォーカスレンズの位置情報)が大きくかわったらシーン変化ありとして判定するものがある。具体的にはEVF111の表示期間におけるAF情報と本撮影時のAF情報を比較することでシーン変化の有無を判定する。また、ズームポジションの差分信号を用いてシーン変化を検出する方法もある。具体的には、EVF111の表示期間におけるズームポジションと本撮影時のズームポジションの変化量に基づきシーン変化の有無を判定する。また、これらの判定方法を任意に組み合わせてシーン変化の有無を判定しても良い。 Further, as another method, there is a method in which it is determined that there is a scene change when the AF control value (focus lens position information) changes greatly. Specifically, the presence / absence of a scene change is determined by comparing the AF information during the display period of the EVF 111 with the AF information during actual photographing. There is also a method for detecting a scene change using a zoom position difference signal. More specifically, the presence / absence of a scene change is determined based on the zoom position change amount during the EVF 111 display period and the zoom position change amount during actual photographing. Further, the presence or absence of a scene change may be determined by arbitrarily combining these determination methods.
次に、シーン変化の有無の判定結果に基づき、WB係数の算出方法を異ならせる例を示す。 Next, an example in which the WB coefficient calculation method is changed based on the determination result of the presence / absence of a scene change will be described.
まずは、シーン変化が無いと判定された時のWB係数の算出方法について説明する。 First, a method for calculating a WB coefficient when it is determined that there is no scene change will be described.
シーン変化の有無の判定を行った結果、シーン変化が無いと判定されたら、WB演算は行わず、EVF111の表示期間に得られる画像信号よりWB演算4(125)で算出されたWB係数4をバッファメモリ203から読み出し(135)、これを本露光画像信号のWB係数に適用する。
If it is determined that there is no scene change as a result of determining whether there is a scene change, the WB calculation is not performed, and the
その後、現像処理(136)を行い、外部記録装置210に記録(137)する。この場合、本露光用WB係数を算出する手間を省けるため、画像生成時間を大幅に短縮できる。 Thereafter, development processing (136) is performed, and recording (137) is performed in the external recording device 210. In this case, the time for generating the main exposure WB coefficient can be saved, so that the image generation time can be greatly shortened.
ここで、シーン変化が無いと判定された場合のもうひとつの例をあげる。現像時に存在する最新の顔検出情報(図1における顔検出5)の結果と、本露光用画像の第1フィールド信号を用いて、WB係数5の算出(138)を行う。その後、現像処理(139)を行い、外部記録装置210に画像を記録する(140)。上記した例は、WB係数算出の時間はかかるが、撮像素子の分光感度が、EVF読み出しモードと静止画読み出しモードで異なる場合があり、EVF画像信号作成用に算出されたWB係数をそのまま使用できない場合に有効である。
Here, another example will be given when it is determined that there is no scene change. The
続いて、シーン変化が有りと判定された時のWB係数の算出方法について説明する。
シーン変化の有無の判定を行った結果、シーン変化が有ると判定されたら、本露光画像信号より顔検出(142)を行い、その検出結果と本露光画像信号を用いて新たなWB係数を算出(143)する。
Next, a method for calculating the WB coefficient when it is determined that there is a scene change will be described.
If it is determined that there is a scene change as a result of determining whether there is a scene change, face detection (142) is performed from the main exposure image signal, and a new WB coefficient is calculated using the detection result and the main exposure image signal. (143).
その後、EVF動作時のWB係数4と算出された新たなWB係数を、シーン変化率(k)を用いて加重加算処理を実施し、本現像用に使用するWB係数5を算出する。
WBCo5=(1−k)×WBCo4+k×WBCo5
その後、WB係数5を用いて本現像処理(144)を行い、外部記録装置210に画像を記録する(145)。本実施形態において、顔検出に用いる画像信号を、例えば3フィールド読み出しを行う撮像素子から得るとする場合、図1に示すように、第1フィールド信号の読み出し(131)が終了した時点で、第1フィールド信号から輝度信号を生成する(141)。複数フィールド読み出しを行う撮像素子においては、第1フィールド信号のみでWB係数を算出するために必要なRGB信号が揃うので、全てのフィールド信号の読み出しを待たずに、WB係数の算出を行うことが可能である。
Thereafter, a weighted addition process is performed on the
WBCo5 = (1-k) × WBCo4 + k × WBCo5
Thereafter, a main development process (144) is performed using a WB coefficient of 5, and an image is recorded in the external recording device 210 (145). In the present embodiment, when an image signal used for face detection is obtained from, for example, an image sensor that performs three-field reading, as shown in FIG. A luminance signal is generated from one field signal (141). In an image sensor that performs multi-field readout, the RGB signals necessary for calculating the WB coefficient are prepared using only the first field signal. Therefore, the WB coefficient can be calculated without waiting for all the field signals to be read. Is possible.
したがって、3フィールド読み出しを行う撮像素子において、第1フィールド信号のみからWB係数を算出する場合と、全てのフィールド信号からWB係数を算出する場合とを比較すると、前者は後者の3分の1の速度でWB係数の算出を行うことが可能である。 Therefore, in an imaging device that performs three-field readout, comparing the case where the WB coefficient is calculated from only the first field signal with the case where the WB coefficient is calculated from all field signals, the former is one third of the latter. It is possible to calculate the WB coefficient at a speed.
そして、生成された輝度信号を、特徴検出回路209の入力とし、顔検出を行う(142)ことで、顔検出時間の短縮を図っている。これは、第2、第3フィールドの読み出し(132、133)を行っている期間に、顔検出用画像の現像(141)および顔検出(142)を開始させることで、処理を高速化することができる。
The generated luminance signal is input to the
また、偶数フィールド読み出しを行う撮像素子の場合、第1フィールドの信号のみではRGB全色がそろわず色が作成できないため、第1および第2フィールドの信号を用いて特徴検出回路209の入力とする。
Further, in the case of an image sensor that performs even-field readout, all the RGB colors are not prepared with only the first field signal, and colors cannot be generated. Therefore, the
更に、高速化のために顔検出に色情報を用いない特徴検出回路を使用する場合は、偶数フィールド読み出しを行う撮像素子の場合であっても、第1フィールド画像信号のみから輝度信号を生成して特徴検出回路の入力信号とする。 Furthermore, when a feature detection circuit that does not use color information for face detection is used for speedup, a luminance signal is generated only from the first field image signal even in the case of an image sensor that performs even field readout. The input signal of the feature detection circuit.
このように、本実施形態によれば、シーン変化の有無を判定し、その結果に応じてWB係数を新たに算出するか否かを切り替えることで、顔検出用簡易画像作成時間および顔検出時間を短縮することを可能にしている。 As described above, according to the present embodiment, the presence / absence of a scene change is determined, and whether or not the WB coefficient is newly calculated according to the determination result is switched, whereby the face detection simple image creation time and the face detection time are determined. It is possible to shorten.
201 撮像素子
202 A/D変換回路
203 バッファメモリ
204 OB減算回路
205 OBブロック積分回路
206 WB係数算出回路
207 WBゲイン回路
208 デジタル信号処理回路
209 特徴検出回路
210 外部記録装置
211 表示装置
212 CPU
213 デバイス制御回路
DESCRIPTION OF
213 Device control circuit
Claims (14)
前記撮像素子から得られる信号に基づき被写体領域を繰り返し検出する被写体検出手段と、
前記被写体検出手段から出力される被写体情報に基づきホワイトバランス係数を算出するホワイトバランス係数算出手段と、
ホワイトバランス係数を求める元となったシーンと本露光を行う元となったシーンを比較するシーン変化判定手段とを備え、
前記シーンの比較結果に応じて、本露光後に前記ホワイトバランス係数算出手段によってホワイトバランス係数を新たに算出するか否かを切り替えることを特徴とする撮像装置。 In an imaging apparatus including an imaging element that photoelectrically converts a subject image formed by an imaging optical system,
Subject detection means for repeatedly detecting a subject region based on a signal obtained from the image sensor;
White balance coefficient calculating means for calculating a white balance coefficient based on subject information output from the subject detecting means;
A scene change determination means for comparing the scene from which the white balance coefficient is obtained and the scene from which the main exposure is performed;
An image pickup apparatus that switches whether or not a white balance coefficient is newly calculated by the white balance coefficient calculation means after the main exposure in accordance with a comparison result of the scene.
前記撮像素子から得られる信号に基づき被写体領域を繰り返し検出する被写体検出工程と、
前記被写体検出工程から出力される被写体情報に基づきホワイトバランス係数を算出するホワイトバランス係数算出工程と、
ホワイトバランス係数を求める元となったシーンと本露光を行う元となったシーンを比較するシーン変化判定工程とを備え、
前記シーンの比較結果に応じて、本露光後に前記ホワイトバランス係数算出工程によってホワイトバランス係数を新たに算出するか否かを切り替えることを特徴とする撮像装置の制御方法。 In a control method of an imaging apparatus including an imaging element that photoelectrically converts a subject image formed by a photographing optical system,
A subject detection step of repeatedly detecting a subject region based on a signal obtained from the image sensor;
A white balance coefficient calculation step of calculating a white balance coefficient based on the subject information output from the subject detection step;
A scene change determination process for comparing the scene from which the white balance coefficient is obtained and the scene from which the main exposure is performed;
A control method for an imaging apparatus, wherein whether or not a white balance coefficient is newly calculated by the white balance coefficient calculating step is switched after the main exposure according to the comparison result of the scene.
If the spectral sensitivity of the image sensor differs between when reading data to the electronic viewfinder and when reading it as still image data, the white balance coefficient is calculated from the first field image of the image signal obtained during the main exposure. The method of controlling an imaging apparatus according to claim 8, 9, 12, or 13, wherein the calculation is performed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006202133A JP4871664B2 (en) | 2006-07-25 | 2006-07-25 | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006202133A JP4871664B2 (en) | 2006-07-25 | 2006-07-25 | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008028924A JP2008028924A (en) | 2008-02-07 |
JP4871664B2 true JP4871664B2 (en) | 2012-02-08 |
Family
ID=39119080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006202133A Expired - Fee Related JP4871664B2 (en) | 2006-07-25 | 2006-07-25 | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4871664B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5366584B2 (en) * | 2009-02-16 | 2013-12-11 | キヤノン株式会社 | Imaging apparatus, image processing method, and program |
JP5629564B2 (en) * | 2010-12-07 | 2014-11-19 | キヤノン株式会社 | Image processing apparatus and control method thereof |
CN115802175B (en) * | 2023-02-03 | 2023-05-12 | 福瑞泰克智能系统有限公司 | Control method, device and storage medium for automatic white balance of image sensor |
-
2006
- 2006-07-25 JP JP2006202133A patent/JP4871664B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008028924A (en) | 2008-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7791668B2 (en) | Digital camera | |
US8599283B2 (en) | Image capture apparatus and image capturing method | |
JP4914045B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
TWI393434B (en) | Image capture device and program storage medium | |
JP6460653B2 (en) | Image processing apparatus, imaging apparatus including the same, image processing method, and image processing program | |
JP5736796B2 (en) | Electronic camera, program and recording medium | |
JP5013954B2 (en) | Imaging device | |
TW201119365A (en) | Image selection device and method for selecting image | |
JP2010136223A (en) | Imaging device and imaging method | |
KR20090071471A (en) | Imaging device and its shutter drive mode selection method | |
US8823863B2 (en) | Image capturing apparatus and control method therefor | |
JP2008139683A (en) | Imaging apparatus and autofocus control method | |
JP2003307669A (en) | Camera | |
JP2003319407A (en) | Imaging apparatus | |
JP4871664B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP5146015B2 (en) | Imaging apparatus and imaging method | |
JP2009017427A (en) | Imaging device | |
JP2008172395A (en) | Imaging apparatus and image processing apparatus, method, and program | |
JP4969349B2 (en) | Imaging apparatus and imaging method | |
JP2014007622A (en) | Image pick-up device and program | |
JP2005122016A (en) | Automatic focusing camera | |
JP2008283477A (en) | Image processor, and image processing method | |
JP4143395B2 (en) | Imaging apparatus, autofocus method, program, and storage medium | |
JP2001324672A (en) | Automatic focusing control method and automatic focusing device | |
JP2003315665A (en) | Camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090716 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100201 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20100630 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111013 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111115 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111121 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4871664 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141125 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |