JP2007312099A - Image-taking device - Google Patents

Image-taking device Download PDF

Info

Publication number
JP2007312099A
JP2007312099A JP2006139082A JP2006139082A JP2007312099A JP 2007312099 A JP2007312099 A JP 2007312099A JP 2006139082 A JP2006139082 A JP 2006139082A JP 2006139082 A JP2006139082 A JP 2006139082A JP 2007312099 A JP2007312099 A JP 2007312099A
Authority
JP
Japan
Prior art keywords
white balance
face
balance correction
white
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006139082A
Other languages
Japanese (ja)
Inventor
Masahiro Takayama
将浩 高山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006139082A priority Critical patent/JP2007312099A/en
Publication of JP2007312099A publication Critical patent/JP2007312099A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform a precise white balance process without erroneously taking a flesh color for a white color when having detected a face. <P>SOLUTION: A face contained in image data is detected using a face detection means, and a defect in white balance is calculated from a color evaluated value of a face region, thus calculating a desirable white balance correction coefficient by means of usual white balance calculation and weighting addition. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明はデジタルカメラやデジタルビデオカメラなどの撮像装置における画像処理方法に関し、特に顔検出を用いたホワイトバランス制御に関する。   The present invention relates to an image processing method in an imaging apparatus such as a digital camera or a digital video camera, and more particularly to white balance control using face detection.

撮像素子から出力された信号はAD変換によってデジタル化され図2のように複数のブロックに分割される。そのブロック信号はR、G、Bを含む色信号で構成されており、そのブロックの色評価値算出例として(1)式がある。
Cx[i] =(R[i]−B[i])/ Y[i] × 1024
Cy[i] =(R[i] + B[i]−G[i])/ Y[i] × 1024 …(1)
(ただし、Y[i] = R[i] + 2G[i] + B[i])
そして予め設定した白検出範囲に色評価値(Cx[i]、Cy[i])が含まれる場合は、そのブロックが白であると判定し、白検出範囲に入った色画素の積分値SumR、SumG、SumBを算出して、以下(2)式のようにホワイトバランス係数を算出する。
WBCoR = SumY × 1024 / sumR
WBCoG = SumY × 1024 / sumG ・・・ (2)
WBCoB = SumY × 1024 / sumB
ただし、SumY = (sumR + 2 × sumG + SumB) / 4
しかし、従来のホワイトバランス係数算出において以下のような欠点があった。太陽光のような光源下において、白の色評価値は図3の領域A付近に分布し、肌色の分布は領域B付近に分布する。太陽光源下における肌色の色評価値は低色光源下における白点の色評価値とほぼ同等に分布する。従って、画角に白色が少なくかつ人肌がアップのシーンでは画面の色評価値は図3の領域Bに分布する。つまり肌色を低色温度下の白色と誤判別し、人の肌を白色にしてしまうという問題があった。この問題に対する従来の対処法として被写体照度が明るい場合は外光と判断して、白検出範囲を狭めて肌色を白と誤判別しないような工夫を行っていた。しかし室内光源で低照度の高色温度蛍光灯や中色温度蛍光灯類での肌色分布は黒体放射軸の下方向にあり、肌色を白と誤判別するようなケースがあった。
The signal output from the image sensor is digitized by AD conversion and divided into a plurality of blocks as shown in FIG. The block signal is composed of color signals including R, G, and B, and there is equation (1) as an example of calculating the color evaluation value of the block.
Cx [i] = (R [i] -B [i]) / Y [i] x 1024
Cy [i] = (R [i] + B [i]-G [i]) / Y [i] x 1024 (1)
(However, Y [i] = R [i] + 2G [i] + B [i])
When the color evaluation value (Cx [i], Cy [i]) is included in the preset white detection range, it is determined that the block is white, and the integrated value SumR of the color pixels that have entered the white detection range , SumG and SumB are calculated, and the white balance coefficient is calculated as shown in the following equation (2).
WBCo R = SumY × 1024 / sumR
WBCo - G = SumY x 1024 / sumG (2)
WBCo B = SumY × 1024 / sumB
However, SumY = (sumR + 2 x sumG + SumB) / 4
However, the conventional white balance coefficient calculation has the following drawbacks. Under a light source such as sunlight, the white color evaluation value is distributed in the vicinity of the region A in FIG. 3, and the skin color distribution is distributed in the vicinity of the region B. The skin color evaluation values under a solar light source are distributed approximately the same as the white dot color evaluation values under a low color light source. Therefore, the color evaluation value of the screen is distributed in the region B in FIG. That is, there is a problem that the skin color is mistakenly identified as white under a low color temperature, and the human skin is made white. As a conventional countermeasure against this problem, when the subject illuminance is bright, it is determined that the light is outside, and the white detection range is narrowed so that the skin color is not erroneously determined to be white. However, the skin color distribution of low-illumination high color temperature fluorescent lamps and medium color temperature fluorescent lamps in the indoor light source is in the downward direction of the black body radiation axis, and there is a case where the skin color is misclassified as white.

そこで、特許文献1では、顔検出回路にて検出された顔領域を、白検出の対象から外すという提案がなされている。
特開2003−189325号公報
Therefore, in Patent Document 1, a proposal has been made to exclude the face area detected by the face detection circuit from the white detection target.
JP 2003-189325 A

しかしながら、上述した従来のホワイトバランス補正値算出方法においては、顔検出回路において人顔を誤認識した場合や検出できなかった場合の対策が考慮されていない。そのため顔検出回路において人顔でない領域を人顔と誤検出した場合に、白検出対象領域が少なくなるため、結果として出力される色温度情報の精度が低くなるという欠点があった。また、人顔であるにも関わらず人顔と認識されない場合には、顔領域で白検出を実施してしまうため、結果としてホワイトバランス補正精度が低くなるという欠点があった。また、人顔がアップで撮影された場合、顔領域を白検出対象から除外すると、白検出を実施する被写体領域がほとんどなくなってしまい、結果としてホワイトバランス補正精度が低くなるという欠点があった。   However, in the above-described conventional white balance correction value calculation method, no countermeasure is taken into account when the human face is erroneously recognized or cannot be detected by the face detection circuit. For this reason, when an area that is not a human face is erroneously detected as a human face in the face detection circuit, the white detection target area is reduced, so that the accuracy of the output color temperature information is reduced. In addition, when a human face is not recognized even though it is a human face, white detection is performed in the face area, resulting in a disadvantage that white balance correction accuracy is lowered as a result. In addition, when a human face is photographed up, if the face area is excluded from the white detection target, there is almost no subject area where white detection is performed, resulting in low white balance correction accuracy.

被写体を撮像し、得られた画像信号を処理する撮像装置であって、
撮像素子の各画素が白であるか否かを判定しホワイトバランス補正を行う第一のホワイトバランス補正手段と
前記画像信号から顔領域を検出する顔検出手段と、
撮影条件から光源を推定し前記顔検出手段の結果を用いるか否かの判別を行う判別手段を有し、
前記第一のホワイトバランス補正手段と前記顔検出手段によって出力された情報を基に、肌領域によるホワイトバランスの不具合を補正する第二のホワイトバランス補正手段を有することを特徴とする。
An imaging device for imaging a subject and processing an obtained image signal,
First white balance correction means for determining whether each pixel of the image sensor is white and performing white balance correction; and face detection means for detecting a face area from the image signal;
Having a determination means for determining whether to estimate the light source from the photographing conditions and use the result of the face detection means;
The image processing apparatus includes a second white balance correction unit that corrects a defect in white balance due to a skin region based on information output by the first white balance correction unit and the face detection unit.

本発明によれば、顔検出結果に応じて、より安定したホワイトバランス補正を行うことができる。   According to the present invention, more stable white balance correction can be performed according to the face detection result.

次に、本発明の詳細を実施例の記述に従って説明する。   Next, details of the present invention will be described in accordance with the description of the embodiments.

図1は、本実施例の概略図である。以下その図に従って実施形態を説明していく。   FIG. 1 is a schematic diagram of this embodiment. Embodiments will be described below with reference to the drawings.

図1において、101はCCDやCMOS等からなる固体撮像素子であり、その表面は例えばベイヤー配列のようなRGBカラーフィルタにより覆われ、カラー撮影が可能な構成となっている。114はメモリ102に記憶された画像信号を用いて顔を検出する顔検出部である。顔検出方法には多数あるが、一般的にニューラルネットワークに代表される学習を用いた方法、物理的な形状の特徴のある部位を画像領域から抽出する、パターン認識を用いた手法、肌の色や目の形といった画像特徴量を検出し統計的解析を用いた手法など、多数の手法がある。   In FIG. 1, reference numeral 101 denotes a solid-state imaging device made of CCD, CMOS, or the like, and the surface thereof is covered with an RGB color filter such as a Bayer array so that color photography can be performed. Reference numeral 114 denotes a face detection unit that detects a face using an image signal stored in the memory 102. There are many face detection methods, but generally a method using learning typified by a neural network, a method using pattern recognition, extracting a region with physical shape features from an image area, skin color There are a number of methods such as a method that detects image feature quantities such as the shape of an eye and uses statistical analysis.

現在製品として提案されているものとしては、ウェーブレット変換と画像特徴量を利用して顔検出する方法などや、テンプレートマッチング等を組み合わせた方法などがある。   Currently proposed products include a method of detecting faces using wavelet transform and image feature amounts, a method of combining template matching, and the like.

ここではパターン認識の一つである、テンプレートマッチングについて説明する。パターン認識とは、観測されたパターンをあらかじめ定められた概念(クラス)の一つに対応させる処理である。図4は、図1における顔情報検出回路によって実行されるパターン認識処理のフローチャートである。本説明では、並行して図5を参照する。   Here, template matching, which is one of pattern recognition, will be described. Pattern recognition is a process of matching an observed pattern with one of predetermined concepts (classes). FIG. 4 is a flowchart of pattern recognition processing executed by the face information detection circuit in FIG. In this description, FIG. 5 is referred to in parallel.

図4において、メモリ102から取得した画像データ603を前処理し(ステップS501)、前処理された顔の画像データから特徴的部分のパターンを抽出し(ステップS502)、抽出されたパターンをテンプレート(標準パターン)601に対応させる(テンプレートマッチング)ことにより、認識パターンを取得して(ステップS503)、取得された認識パターンを出力して(ステップS504)、パターン認識処理を終了する。   In FIG. 4, the image data 603 acquired from the memory 102 is preprocessed (step S501), the characteristic pattern is extracted from the preprocessed face image data (step S502), and the extracted pattern is used as a template ( The recognition pattern is acquired by making it correspond to (standard pattern) 601 (template matching) (step S503), the acquired recognition pattern is output (step S504), and the pattern recognition processing is terminated.

上記テンプレートマッチングは、以下のように行われる。   The template matching is performed as follows.

図5において、まず、テンプレート601の中心点602を取得した画像データ603のある座標点(i,j)に置き、この中心点602を走査しながら、テンプレート601と画像データ603との重なり部分の類似度を計算して、類似度が最大になる位置を決定する。顔の画像データ603から抽出されたパターンを、例えば目や耳等の形状を含むテンプレート601にマッチングさせることにより、目の位置情報や顔領域(顔座標)を取得することができる。   In FIG. 5, first, the center point 602 of the template 601 is placed at a certain coordinate point (i, j) of the acquired image data 603, and the overlapping portion between the template 601 and the image data 603 is scanned while scanning the center point 602. The degree of similarity is calculated and the position where the degree of similarity is maximized is determined. By matching a pattern extracted from the face image data 603 with a template 601 including shapes such as eyes and ears, it is possible to acquire eye position information and face regions (face coordinates).

CPU115では、顔検出部114から送られた画像信号に基づいて、顔が検出されていれば、顔が最適な明るさになるようなシャッター速度、絞り値を計算し、また顔に合焦するようにフォーカスレンズの駆動量を計算する。一方、顔が検出されていなければCPU115は画像全体が明るさになるようなシャッター速度、絞り値を計算する共に、合焦領域内にある被写体に合焦するようにフォーカスレンズの駆動量を計算する。CPU115で計算された露出値(シャッター速度、絞り値)およびフォーカスレンズの駆動量は制御回路113に送られ、各値に基づいてそれぞれ制御される。103はホワイトバランス制御部であり、メモリ102に記憶された画像信号および顔検出部114から得られる顔情報に基づいてWB補正値を算出し、算出したWB補正値を用いて、メモリ102に記憶された画像信号に対してWB補正を行う。なお、このホワイトバランス制御部103の詳細構成およびWB補正値の算出方法については、後述する。   Based on the image signal sent from the face detection unit 114, the CPU 115 calculates a shutter speed and an aperture value so that the face has an optimum brightness if a face is detected, and focuses on the face. The driving amount of the focus lens is calculated as follows. On the other hand, if no face is detected, the CPU 115 calculates the shutter speed and aperture value so that the entire image becomes bright, and calculates the driving amount of the focus lens to focus on the subject in the in-focus area. To do. The exposure value (shutter speed and aperture value) calculated by the CPU 115 and the driving amount of the focus lens are sent to the control circuit 113 and controlled based on each value. A white balance control unit 103 calculates a WB correction value based on the image signal stored in the memory 102 and the face information obtained from the face detection unit 114, and stores it in the memory 102 using the calculated WB correction value. WB correction is performed on the processed image signal. The detailed configuration of the white balance control unit 103 and the method for calculating the WB correction value will be described later.

104はWB制御部103によりWB補正された画像信号が最適な色で再現されるように色ゲインをかけて色差信号R-Y、B-Yに変換する色マトリックス回路、105は色差信号R-Y、B-Yの帯域を制限するローパスフィルタ(LPF)回路、106はLPF回路105で帯域制限された画像信号の内、飽和部分の偽色信号を抑圧するCSUP(Chroma Supress)回路である。一方、WB制御部103によりWB補正された画像信号は輝度信号(Y)生成回路111にも出力されて輝度信号Yが生成され、生成された輝度信号Yに対してエッジ強調回路112にてエッジ強調処理が施される。   104 is a color matrix circuit that converts the color difference signals RY and BY by applying color gain so that the image signal corrected by WB by the WB control unit 103 is reproduced in an optimal color, and 105 is a band of the color difference signals RY and BY. A low pass filter (LPF) circuit 106 for limiting, and a CSUP (Chroma Supress) circuit 106 for suppressing a false color signal in a saturated portion of the image signal band-limited by the LPF circuit 105. On the other hand, the WB corrected image signal by the WB control unit 103 is also output to the luminance signal (Y) generation circuit 111 to generate the luminance signal Y, and the edge enhancement circuit 112 performs edge processing on the generated luminance signal Y. Emphasis processing is performed.

CSUP回路106から出力される色差信号R-Y、B-Yと、エッジ強調回路112から出力される輝度信号Yは、RGB変換回路107にてRGB信号に変換され、ガンマ補正回路108にて階調補正が施される。その後、色輝度変換回路109にてYUV信号に変換され、さらに圧縮回路110にて圧縮されて、外部記録媒体または内部記録媒体に画像信号として記録される。   The color difference signals RY and BY output from the CSUP circuit 106 and the luminance signal Y output from the edge enhancement circuit 112 are converted into RGB signals by the RGB conversion circuit 107, and gradation correction is performed by the gamma correction circuit 108. Is done. Thereafter, it is converted into a YUV signal by the color luminance conversion circuit 109, further compressed by the compression circuit 110, and recorded as an image signal on an external recording medium or an internal recording medium.

まず、最初に第一のホワイトバランス補正手段の算出方法について図6を用いて説明する。まず、メモリ102に記憶された画像信号を読み出し、その画面を図2のような任意のm個のブロックに分割する(ステップS101)。そして、各ブロック(1〜m)毎に、画素値を各色に加算平均して色平均値(R[i]、G[i]、B[i]、)を算出し、式(1)を用いて色評価値(Cx[i]、Cy[i])を算出する(ステップS102)。
Cx[i] =(R[i] − B[i])/ Y[i] × 1024
Cy[i] =(R[i] + B[i] − 2G[i])/ Y[i] × 1024
ただし、Y[i] = R[i] + 2G[i] + B[i]
次に、ステップS102で算出したi番目のブロックの色評価値(Cx[i]、Cy[i])が、図3に示す予め設定した白検出範囲301に含まれるかどうかを判断する(ステップS103)。
First, the calculation method of the first white balance correction means will be described with reference to FIG. First, the image signal stored in the memory 102 is read, and the screen is divided into arbitrary m blocks as shown in FIG. 2 (step S101). Then, for each block (1 to m), the pixel value is added and averaged to each color to calculate a color average value (R [i], G [i], B [i],). The color evaluation values (Cx [i], Cy [i]) are calculated by using them (step S102).
Cx [i] = (R [i]-B [i]) / Y [i] x 1024
Cy [i] = (R [i] + B [i]-2G [i]) / Y [i] x 1024
However, Y [i] = R [i] + 2G [i] + B [i]
Next, it is determined whether or not the color evaluation value (Cx [i], Cy [i]) of the i-th block calculated in step S102 is included in the preset white detection range 301 shown in FIG. S103).

白検出範囲301は、予め異なる光源下で白を撮影し、算出した色評価値をプロットしたものである。図3におけるx座標(Cx)の負方向が高色温度被写体の白を撮影したときの色評価値、正方向が低色温度被写体の白を撮影したときの色評価値である。またy座標(Cy)は光源の緑成分の度合いを意味しており、負方向になるにつれG成分が大きくなり、つまり蛍光灯であることを示している。算出した色評価値(Cx[i]、Cy[i])がこの白検出範囲301に含まれる場合には(ステップS103でYES)そのブロックが白色であると判断して、そのブロックの色平均値(R[i]、G[i]、B[i])を積算していき(ステップS104)、含まれない場合には加算せずにステップS105に進む。このステップS103及びステップS104の処理は、式(3)により表すことができる。   The white detection range 301 is obtained by photographing white under different light sources in advance and plotting the calculated color evaluation values. In FIG. 3, the negative direction of the x coordinate (Cx) is a color evaluation value when white of a high color temperature subject is photographed, and the positive direction is a color evaluation value when white of a low color temperature subject is photographed. Further, the y coordinate (Cy) means the degree of the green component of the light source, and the G component increases as it goes in the negative direction, that is, it indicates a fluorescent lamp. If the calculated color evaluation values (Cx [i], Cy [i]) are included in this white detection range 301 (YES in step S103), it is determined that the block is white, and the color average of the block The values (R [i], G [i], B [i]) are accumulated (step S104), and if not included, the process proceeds to step S105 without adding. The processing of step S103 and step S104 can be expressed by equation (3).

Figure 2007312099
ここで、式(3)において、色評価値(Cx[i]、Cy[i])が白検出範囲(図3の301)に含まれる場合はSw[i]を1に、含まれない場合にはSw[i]を0とすることにより、ステップS103の判断により色評価値(R[i]、G[i]、B[i])加算を行うか、行わないかの処理を実質的に行っている。
Figure 2007312099
Here, in Equation (3), when the color evaluation value (Cx [i], Cy [i]) is included in the white detection range (301 in FIG. 3), Sw [i] is not included in 1. In this case, by setting Sw [i] to 0, the process of adding or not adding color evaluation values (R [i], G [i], B [i]) according to the determination in step S103 is substantially performed. Is going to.

ステップS105では、すべてのブロックについて上記処理を行ったかどうかを判断し、未処理のブロックがあればステップS102に戻って上記処理を繰り返し、すべてのブロックの処理が終了していればステップS106に進む。   In step S105, it is determined whether or not the above process has been performed for all blocks. If there is an unprocessed block, the process returns to step S102 and the above process is repeated. If all the blocks have been processed, the process proceeds to step S106. .

ステップ106では、得られた色評価値の積分値(sumR、SumG、SumB)から、以下の式(4)式を用いて、第1のWB補正値(WBCol_R、WBCol_G、WBCol_B)を算出する。
WBCol_R = sumY × 1024 / sumR
WBCol_G = sumY × 1024 / sumG …(4)
WBCol_B = sumY × 1024 / sumB
ただし、sumY = (sumR + 2 × sumG + sumB)/ 4
次に、第2のWB補正値の算出方法について図7を参照して説明する。本実施例における第2のWB補正値算出方法は、第1のWB補正値と検出された顔領域の色評価値を後述する条件によって加重加算し、顔領域によるWBの不具合を抑圧することである。
In step 106, the first WB correction values (WBCol_R, WBCol_G, WBCol_B) are calculated from the integrated values (sumR, SumG, SumB) of the obtained color evaluation values using the following equation (4).
WBCol_R = sumY x 1024 / sumR
WBCol_G = sumY x 1024 / sumG (4)
WBCol_B = sumY × 1024 / sumB
However, sumY = (sumR + 2 x sumG + sumB) / 4
Next, a method for calculating the second WB correction value will be described with reference to FIG. In the second WB correction value calculation method in this embodiment, the first WB correction value and the color evaluation value of the detected face area are weighted and added according to the conditions described later, thereby suppressing WB defects caused by the face area. is there.

まず、S111で明るさ判定を行い、明るさが閾値以上であるなら屋外光源であると判断して、顔検出部によって得られる検出結果を使用しないでWB演算を行う。屋外光源であると判断した場合は、顔領域を白として認識しないため最終WB補正係数は前述した第1のWB補正値を最終WB補正係数とする(S119)。明るさが閾値以下である場合は、顔検出部によって顔が検出されたか否かを判断し(S112)、顔が検出されない場合は第1のWB補正値を使用する(S119)。顔があると判断した場合は、S113で領域内の画素値をRGBの各色毎に加算平均して人顔領域の色平均値を算出する。S113で算出された肌領域の色平均値(Cx、Cy)が白検出範囲内でなければ第1のWB補正値を使用する。S114で肌領域が白検出範囲と判断された場合は、S115において顔領域のサイズとS116で求められた第1の補正値、肌領域の色評価値から不具合さを推定し、第1のWB補正値からの補正値を決定する(S117)。その補正量は、検出された顔のサイズによる重み付けと(α)、第1のWB補正値と肌領域の色評価値との距離情報による重み付け(β)(図8参照)によって決定される。   First, the brightness is determined in S111. If the brightness is equal to or greater than the threshold, it is determined that the light source is an outdoor light source, and the WB calculation is performed without using the detection result obtained by the face detection unit. If it is determined that the light source is an outdoor light source, the face region is not recognized as white, and therefore the final WB correction coefficient uses the above-described first WB correction value as the final WB correction coefficient (S119). If the brightness is less than or equal to the threshold value, it is determined whether or not a face is detected by the face detection unit (S112). If no face is detected, the first WB correction value is used (S119). If it is determined that there is a face, the color average value of the human face area is calculated by averaging the pixel values in the area for each color of RGB in S113. If the color average value (Cx, Cy) of the skin area calculated in S113 is not within the white detection range, the first WB correction value is used. If it is determined in S114 that the skin area is a white detection range, a defect is estimated from the size of the face area in S115, the first correction value obtained in S116, and the color evaluation value of the skin area, and the first WB A correction value from the correction value is determined (S117). The correction amount is determined by weighting based on the detected face size (α) and weighting based on distance information between the first WB correction value and the skin area color evaluation value (β) (see FIG. 8).

つまり、顔領域によるホワイトバランスの不具合さを解消し得る補正量(ΔHosei)は、以下のように求められる(図9参照)。
ΔHosei=α×β×K
(なお、Kは補正量定数)
以上のことを実現することにより、顔が画面内に存在するときのホワイトバランス不具合を解消することが可能になる。また、顔検出回路において人顔を誤認識した場合においても、第1のWB補正結果と顔検出領域の色評価値から、ホワイトバランス補正結果に不具合を引き起こしているかを判断できるため、結果として所望なホワイトバランス補正係数を得ることが可能になる。
That is, the correction amount (ΔHosei) that can eliminate the problem of white balance due to the face area is obtained as follows (see FIG. 9).
ΔHosei = α × β × K
(K is a correction amount constant)
By realizing the above, it is possible to eliminate a white balance problem when a face is present in the screen. In addition, even when a human face is misrecognized in the face detection circuit, it can be determined from the first WB correction result and the color evaluation value of the face detection area whether the white balance correction result is causing a problem. A white balance correction coefficient can be obtained.

本発明の実施形態における顔検出機能を備えた撮像装置のブロック図。The block diagram of the imaging device provided with the face detection function in the embodiment of the present invention. 画面を複数ブロックに分割した例を示す図。The figure which shows the example which divided | segmented the screen into several blocks. 白検出範囲を示す図。The figure which shows a white detection range. 図1における顔検出部によって実行されるパターン認識処理のフローチャート。The flowchart of the pattern recognition process performed by the face detection part in FIG. 図4のパターン認識処理におけるテンプレートマッチングの例。The example of the template matching in the pattern recognition process of FIG. 第1のWB補正算出処理を示すフローチャート。The flowchart which shows a 1st WB correction | amendment calculation process. 第2のWB補正算出処理を示すフローチャート。The flowchart which shows a 2nd WB correction | amendment calculation process. 第2のWB補正算出の際に用いるサイズ、距離と重みの関係を示した図。The figure which showed the relationship between the size used in the 2nd WB correction | amendment calculation, distance, and a weight. 第2のWB補正算出の際に補正量を加える概念図。The conceptual diagram which adds correction amount in the case of the 2nd WB correction calculation.

符号の説明Explanation of symbols

101 CCD撮像素子
102 メモリ
103 WB回路
104 色変換MTX回路
105 LPF回路
106 CSUP回路
107 RGB変換回路
108 ガンマ補正回路
109 色輝度変換回路
110 圧縮回路
111 Y生成回路
112 エッジ強調回路
113 制御回路
114 顔検出部
115 CPU
101 CCD image sensor
102 memory
103 WB circuit
104 color conversion MTX circuit
105 LPF circuit
106 CSUP circuit
107 RGB conversion circuit
108 Gamma correction circuit
109 color luminance conversion circuit
110 Compression circuit
111 Y generator
112 Edge enhancement circuit
113 Control circuit
114 Face detector
115 CPU

Claims (7)

被写体を撮像し、得られた画像信号を処理する撮像装置であって、
撮像素子の各画素が白であるか否かを判定しホワイトバランス補正を行う第一のホワイトバランス補正手段と
前記画像信号から顔領域を検出する顔検出手段と、
撮影条件から光源を推定し前記顔検出手段の結果を用いるか否かの判別を行う判別手段を有し、
前記第一のホワイトバランス補正手段と前記顔検出手段によって出力された情報を基に、肌領域によるホワイトバランスの不具合を補正する第二のホワイトバランス補正手段を有することを特徴とする撮像装置。
An imaging device for imaging a subject and processing an obtained image signal,
First white balance correction means for determining whether each pixel of the image sensor is white and performing white balance correction; and face detection means for detecting a face area from the image signal;
Having a determination means for determining whether to estimate the light source from the photographing conditions and use the result of the face detection means;
An image pickup apparatus comprising: a second white balance correction unit that corrects a defect in white balance due to a skin region based on information output by the first white balance correction unit and the face detection unit.
前記顔検出手段は被写体の目の位置情報を検出することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the face detection unit detects position information of an eye of a subject. 前記顔検出手段では顔領域内の画素値を加算平均して色評価値を出力することを特徴とする請求項1に記載の撮像装置。   2. The imaging apparatus according to claim 1, wherein the face detection unit outputs a color evaluation value by averaging pixel values in the face area. 前記推測手段は撮影時の明るさと前記白検出手段によって得られたホワイトバランス補正係数情報を基に推測することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the estimation unit estimates based on brightness at the time of shooting and white balance correction coefficient information obtained by the white detection unit. 前記第二のホワイトバランス補正手段では、前記第一のホワイトバランス補正手段と顔領域の色評価値をもとにホワイトバランスの不具合を推測し加重加算することによってホワイトバランス補正する請求項1に記載の撮像装置。   2. The white balance correction unit according to claim 1, wherein the second white balance correction unit performs white balance correction by estimating and weighting a defect in white balance based on the color evaluation value of the first white balance correction unit and the face area. Imaging device. 前記第二のホワイトバランス補正では顔の大きさによって補正量が可変になることを特徴とする請求項5に記載の撮像装置。   6. The imaging apparatus according to claim 5, wherein in the second white balance correction, a correction amount is variable depending on a face size. 前記第二のホワイトバランス補正では前記第一のホワイトバランス補正結果と前記顔領域の特徴量の差分値によって補正量が可変になることを特徴とする請求項5に記載の撮像装置。   6. The imaging apparatus according to claim 5, wherein in the second white balance correction, a correction amount is variable depending on a difference value between the first white balance correction result and the feature amount of the face area.
JP2006139082A 2006-05-18 2006-05-18 Image-taking device Withdrawn JP2007312099A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006139082A JP2007312099A (en) 2006-05-18 2006-05-18 Image-taking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006139082A JP2007312099A (en) 2006-05-18 2006-05-18 Image-taking device

Publications (1)

Publication Number Publication Date
JP2007312099A true JP2007312099A (en) 2007-11-29

Family

ID=38844541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006139082A Withdrawn JP2007312099A (en) 2006-05-18 2006-05-18 Image-taking device

Country Status (1)

Country Link
JP (1) JP2007312099A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009159496A (en) * 2007-12-27 2009-07-16 Canon Inc White balance control device, imaging apparatus using the same, and white balance control method
JP2009164838A (en) * 2007-12-28 2009-07-23 Canon Inc Image processing device and method, and imaging device
JP2012257337A (en) * 2012-09-28 2012-12-27 Canon Inc White balance control device, imaging apparatus using the same, and white balance control method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009159496A (en) * 2007-12-27 2009-07-16 Canon Inc White balance control device, imaging apparatus using the same, and white balance control method
JP2009164838A (en) * 2007-12-28 2009-07-23 Canon Inc Image processing device and method, and imaging device
JP2012257337A (en) * 2012-09-28 2012-12-27 Canon Inc White balance control device, imaging apparatus using the same, and white balance control method

Similar Documents

Publication Publication Date Title
JP5113514B2 (en) White balance control device and white balance control method
JP5064947B2 (en) Image processing apparatus and method, and imaging apparatus
CN110022469B (en) Image processing method, image processing device, storage medium and electronic equipment
EP1528797B1 (en) Image processing apparatus, image-taking system and image processing method
JP2006352795A (en) Imaging apparatus and image processing method
JP2004088149A (en) Imaging system and image processing program
JP2015032966A (en) Image processing apparatus, imaging apparatus, control method, and program
CN110047060B (en) Image processing method, image processing device, storage medium and electronic equipment
JP4948591B2 (en) Image processing apparatus, image processing method, and program
US9392242B2 (en) Imaging apparatus, method for controlling imaging apparatus, and storage medium, for underwater flash photography
JP6904788B2 (en) Image processing equipment, image processing methods, and programs
JP4971785B2 (en) Image processing apparatus and method, and imaging apparatus
JP5215775B2 (en) White balance control device, imaging device using the same, and white balance control method
JP2003199115A (en) Method for contrast enhancement in color digital image
JP2007312099A (en) Image-taking device
JP2021136661A (en) Image processing apparatus, image processing method, program and storage medium
JP2009063674A (en) Imaging apparatus and flash control method
JP5106311B2 (en) White balance control device, imaging device using the same, and white balance control method
JP5744945B2 (en) Image processing apparatus and method, and imaging apparatus
JP6570311B2 (en) Image processing apparatus and image processing method
JP2015119436A (en) Imaging apparatus
JP5677485B2 (en) White balance control device, imaging device using the same, and white balance control method
JP2013132065A (en) Imaging apparatus and flash control method
JP6188360B2 (en) Image processing apparatus, control method thereof, control program, and discrimination apparatus
JP5943682B2 (en) Imaging apparatus, control method thereof, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090804