JP3343921B2 - Person adaptive exposure control device - Google Patents

Person adaptive exposure control device

Info

Publication number
JP3343921B2
JP3343921B2 JP22208391A JP22208391A JP3343921B2 JP 3343921 B2 JP3343921 B2 JP 3343921B2 JP 22208391 A JP22208391 A JP 22208391A JP 22208391 A JP22208391 A JP 22208391A JP 3343921 B2 JP3343921 B2 JP 3343921B2
Authority
JP
Japan
Prior art keywords
person
exposure control
skin color
signal
main subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP22208391A
Other languages
Japanese (ja)
Other versions
JPH0541830A (en
Inventor
賢次 水本
信雄 橋本
元 佐々木
圭三 越智
義彦 東
武宏 加藤
博司 大塚
Original Assignee
ミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ミノルタ株式会社 filed Critical ミノルタ株式会社
Priority to JP22208391A priority Critical patent/JP3343921B2/en
Publication of JPH0541830A publication Critical patent/JPH0541830A/en
Priority to US08/208,791 priority patent/US6249317B1/en
Priority to US08/887,792 priority patent/US6072526A/en
Application granted granted Critical
Publication of JP3343921B2 publication Critical patent/JP3343921B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明はビデオカメラ等の撮影機
器における露出制御装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an exposure control device for photographing equipment such as a video camera.

【0002】[0002]

【従来の技術】ビデオカメラ等においては、人物を如何
に上手に撮影することができるか、その特性が問われて
いる。人物を上手に撮影する要素の1つとして適正な露
出で撮影することが挙げられる。この点、従来の露出制
御装置は映像信号のレベルを検出して、そのレベルが一
定になるようにAGC回路等を制御しているだけであっ
た。従って、主被写体が人物であっても、風景であって
も、その露出制御形態は同一であった。
2. Description of the Related Art In a video camera or the like, the characteristics of how well a person can be photographed are required. One of the factors for successfully photographing a person is to photograph a person with an appropriate exposure. In this regard, the conventional exposure control apparatus merely detects the level of the video signal and controls the AGC circuit and the like so that the level becomes constant. Therefore, whether the main subject is a person or a landscape, the exposure control mode is the same.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、テレビ
ジョンシステムの研究成果では、人物撮影の場合は、そ
の顔部の露出レベルは映像信号レベルで60〜70IR
E程度に調整されればテレビジョン受信機のブラウン管
上にて自然で美しい人物表現が可能であるとしている。
従来技術では人物顔部がいつも自動的にこの映像信号レ
ベルに調整されることは保障されていない。また主被写
体の露出レベルを人物と人物以外とで選択的に自動調整
することもできなかった。本発明はこのような点に鑑み
なされたものであって、一般の風景撮影における場合
と、人物撮影における場合とでは、異なる露出で撮影で
きるようにした露出制御装置を提供することを目的とす
る。
However, according to the research results of the television system, in the case of photographing a person, the exposure level of the face is 60 to 70 IR as a video signal level.
It is stated that a natural and beautiful expression of a person is possible on a CRT of a television receiver if adjusted to about E.
The prior art does not guarantee that the person's face is always automatically adjusted to this video signal level. Also, the exposure level of the main subject cannot be selectively and automatically adjusted between a person and a person other than the person. The present invention has been made in view of such a point, and an object of the present invention is to provide an exposure control device that can shoot with different exposures in a case of general landscape shooting and a case of a person shooting. .

【0004】[0004]

【課題を解決するための手段】上記の目的を達成するた
め本発明の露出制御装置は、主被写体が人物か否かを
影映像信号中の肌色を示す色度情報に基づいて判定する
人物判定手段と、該人物判定手段により主被写体が人物
であると判定されたときと人物以外であると判定された
ときで異なる露出設定を行う露出制御手段とから成って
いる。その際、判定手段はビデオ撮影機器の撮影映像信
号中の肌色を示す色度情報より得た該色度情報の撮像平
面上での形状及び面積と撮影系の撮影倍率を用いて人物
の顔部を示すパラメータとの比較を行うことにより人物
か否かの判定を行う。また、露出制御手段は、前記人物
判定手段により主被写体が人物であると判定されたと
き、該人物の顔部の輝度信号レベルが65IRE付近の
値に設定されるように露出制御を行う。
Means for Solving the Problems] exposure control device of the present invention for achieving the above object, the main object is shooting whether a person
A person determining means for determining based on chromaticity information indicating a skin color in the shadow video signal, and different exposures when the main subject is determined to be a person by the person determining means and when the main subject is determined to be other than a person And exposure control means for setting. At this time, the determination means uses the shape and area on the imaging plane of the chromaticity information obtained from the chromaticity information indicating the skin color in the video signal captured by the video capturing device and the photographic magnification of the photographic system to determine the face of the person. It is determined whether or not the person is a person by comparing with a parameter indicating. Further, when the person determining means determines that the main subject is a person, the exposure controlling means controls the exposure so that the luminance signal level of the face of the person is set to a value near 65IRE.

【0005】[0005]

【作用】このような構成によると、人物撮影のときは、
人物撮影に適した露出制御(例えば顔部露出制御)を行
うことができる。また、人物以外の撮影のときは、その
撮影に適した露出制御(例えば撮影映像の輝度信号レベ
ルに基づく通常の露出制御)を行うことができる。
According to this configuration, when photographing a person,
Exposure control (for example, face exposure control) suitable for portrait photography can be performed. Also, when photographing a person other than a person, exposure control suitable for the photographing (for example, normal exposure control based on the luminance signal level of a photographed image) can be performed.

【0006】また、前記撮影機器はビデオ撮影機器であ
り、前記判定手段は撮影映像中の肌色を示す色度情報よ
り得た該色度情報の撮像平面上での形状及び面積と撮影
系の撮影倍率を用いて人物の顔部を示すパラメータとの
比較を行うことにより人物か否かの判定を行うことを特
徴とする請求項1に記載の露出制御装置のような場合
は、色度信号を作り、その色度信号に基づいて肌色を検
出していることにより、色検出精度が高くなるので、よ
り精度のよい露出制御が実現できる。色度信号に代わる
ものとして色差信号を使うことが考えられるが、色差信
号は被写体の色情報が不変でも露出レベルが変化すると
その信号レベルは変化するため色検出精度が悪い。これ
に対し、色度信号では露出レベルに対し不変な色情報を
示すため色検出精度は高い。更に、予め人物パラメータ
を設定し、撮影倍率を用いて撮像した肌色部との比較参
照を行うことにより、処理が簡単で精度の高い人物検出
ができる。
Further, the photographing device is a video photographing device, and the judging means determines the shape and area of the chromaticity information on the imaging plane, which is obtained from the chromaticity information indicating the flesh color in the photographed image, and the photographing of the photographing system. The apparatus according to claim 1, wherein a determination is made as to whether the person is a person by comparing the parameter with a parameter indicating a person's face using a magnification. Since the skin color is detected based on the chromaticity signal, the color detection accuracy is increased, so that more accurate exposure control can be realized. It is conceivable to use a color difference signal as an alternative to the chromaticity signal. However, even if the color information of the subject does not change, if the exposure level changes, the signal level changes, so that the color detection accuracy is poor. On the other hand, the chromaticity signal indicates color information that is invariant to the exposure level, so that the color detection accuracy is high. Furthermore, by setting a person parameter in advance and comparing and referring to a skin color portion imaged using a photographing magnification, a person can be detected easily and with high accuracy.

【0007】[0007]

【実施例】以下、本発明の実施例について説明する。図
1は本発明を実施したビデオカメラのブロック回路図で
あり、1は撮像レンズ部、2は絞りである。撮像レンズ
部1は、そのズーム情報や測距情報を撮影倍率算出部1
3へ出力する。3はCCD(charge coupl
ed device)等の撮像素子を含み、撮像映像の
R(赤)、G(緑)、B(青)信号成分を出力する撮像
部である。4はこの撮像部3で得られた映像信号の平均
又はピークのレベルを検出し、そのレベルが一定値とな
るように絞りを制御する露出制御部である。
Embodiments of the present invention will be described below. FIG. 1 is a block circuit diagram of a video camera embodying the present invention, wherein 1 is an imaging lens unit, and 2 is an aperture. The imaging lens unit 1 converts the zoom information and the distance measurement information into a photographing magnification calculation unit 1.
Output to 3. 3 is a CCD (charge couple)
ed device), and outputs an R (red), G (green), and B (blue) signal component of a captured image. Reference numeral 4 denotes an exposure control unit that detects the average or peak level of the video signal obtained by the imaging unit 3 and controls the aperture so that the level becomes a constant value.

【0008】5、6、7は絞り2が開放となる低照度時
において動作を開始するように制御処理部12によりゲ
インコントロールされるAGC回路である。8、9はR
チャンネルと、Bチャンネルにそれぞれ挿入されたホワ
イトバランス用の利得可変増幅器であって、外光式のホ
ワイトバランスセンサ(WBセンサ)部14で得られた
被写体照明光の色温度情報に基づいて制御処理部12を
介して、その利得が制御され所定のホワイトバランスを
実現する。この場合、制御処理部12は予め色温度情報
に対応したコントロールデータを用意しており、ホワイ
トバランスセンサ部14から与えられた色温度情報に対
応するコントロールデータを出力して利得可変増幅器
8、9へ与える。尚、そのコントロールデータはD/A
変換されてから利得可変増幅器8、9へ導かれるものと
する。
Reference numerals 5, 6, and 7 denote AGC circuits whose gains are controlled by the control processing unit 12 so as to start operation at low illuminance when the aperture 2 is open. 8, 9 is R
A variable gain amplifier for white balance inserted into each of a channel and a B channel, and a control process based on color temperature information of subject illumination light obtained by an external light type white balance sensor (WB sensor) unit 14 The gain is controlled via the unit 12 to achieve a predetermined white balance. In this case, the control processing unit 12 prepares control data corresponding to the color temperature information in advance, and outputs control data corresponding to the color temperature information provided from the white balance sensor unit 14 to output the variable gain amplifiers 8 and 9. Give to. The control data is D / A
It is assumed that the signal is converted and then guided to variable gain amplifiers 8 and 9.

【0009】次に、10は入力されたR、G、B信号に
ガンマ補正やマトリックス処理を施して輝度信号Yを形
成するとともに、色信号CSを形成して出力する信号処
理部である。この場合、輝度信号Yには水平、垂直の同
期信号が付加されているものとする。また、色信号CS
は色副搬送波(NTSC規格の場合は3.58MHz)
をR−Y、B−Y信号で平衡変調して形成され且つカラ
ーバースト信号が付加されているものとする。信号処理
部10で出力された輝度信号Yは別途ローパスフィルタ
30に与えられ、ここで帯域制限された後、制御処理部
12に取り込まれる。
Next, reference numeral 10 denotes a signal processing unit which performs gamma correction and matrix processing on the input R, G, and B signals to form a luminance signal Y, and forms and outputs a color signal CS. In this case, it is assumed that horizontal and vertical synchronization signals are added to the luminance signal Y. Also, the color signal CS
Is the color subcarrier (3.58 MHz for NTSC standard)
Is formed by performing balanced modulation with RY and BY signals and a color burst signal is added. The luminance signal Y output from the signal processing unit 10 is separately provided to a low-pass filter 30, where the signal is band-limited, and is taken into the control processing unit 12.

【0010】制御処理部12はその入力された輝度信号
のレベルによって低照度状態を検出すると、そのレベル
が所望のレベルとなるようにAGC回路5、6、7を制
御する。尚、この制御は本明細書でいう通常の露出制御
であり、主被写体が人物部であるときの露出制御(後述
する)とは区別される。人物自動露出モードにおいては
制御処理部12からの制御信号でAGC回路5、6、7
は所定の動作を行う。
When detecting the low illuminance state based on the level of the input luminance signal, the control processing unit 12 controls the AGC circuits 5, 6, and 7 so that the level becomes a desired level. Note that this control is a normal exposure control referred to in this specification, and is distinguished from exposure control when the main subject is a person (described later). In the person automatic exposure mode, AGC circuits 5, 6, and 7 are controlled by a control signal from the control processing unit 12.
Performs a predetermined operation.

【0011】11は、ホワイトバランスがなされたR、
G、B信号を入力して肌色検出信号B、Cを発生する肌
色検出部であり、クロックCLKが与えられるととも
に、制御処理部12からは指示信号Aを受ける。肌色検
出信号Cは常に出されているが、肌色検出信号Bは前記
指示信号が入ってきたときにのみ出力される。これらの
肌色検出信号B、Cはいずれも制御処理部12へ与えら
れる。15は人物データを格納している人物データ部で
あり、制御処理部12から要求信号Dがあった場合に人
物データを制御処理部12へ与える。
[0011] 11 is a white-balanced R,
This is a skin color detection unit that receives the G and B signals and generates skin color detection signals B and C, receives a clock CLK, and receives an instruction signal A from the control processing unit 12. The skin color detection signal C is always output, but the skin color detection signal B is output only when the instruction signal is input. Both of these skin color detection signals B and C are provided to the control processing unit 12. Reference numeral 15 denotes a person data section storing the person data, and when the request signal D is received from the control processing section 12, the person data is given to the control processing section 12.

【0012】13は撮影倍率βを算出する撮影倍率算出
部で、撮像レンズ部1のズーム情報よりその焦点距離f
値を得るとともに、測距情報より例えば被写体から撮像
レンズ部1の前側主点までの距離Lsを得て、それぞれ
f、Ls値より撮影倍率βをβ=f/(Ls−f)より
算出し、制御処理部12へ出力する。24は人物自動露
出モードの設定のための手動スイッチで、制御処理部1
2へ人物自動露出モードの設定を知らせる。
Reference numeral 13 denotes a photographing magnification calculating unit for calculating a photographing magnification β, and a focal length f of the photographing lens unit 1 based on zoom information of the imaging lens unit 1
In addition to obtaining the value, the distance Ls from the subject to the front principal point of the imaging lens unit 1 is obtained from the distance measurement information, and the photographing magnification β is calculated from β = f / (Ls−f) from the f and Ls values, respectively. , To the control processing unit 12. Reference numeral 24 denotes a manual switch for setting a person automatic exposure mode.
2 is notified of the setting of the person automatic exposure mode.

【0013】肌色検出部11は図2に示すように構成さ
れている。16はR、G、Bの各信号より撮像映像信号
の有する色度情報を量子化データとして出力する色度情
報抽出部で、その出力は肌色比較部23へ送られる。
R、G、B信号はマトリックス部17にそれぞれ出力さ
れ次式により混合される。マトリックス部17の混合出
力信号をMとすると、 M=(R+1.8G+B)/3.8 (0≦M≦1:正
規化信号) で示される。R、M、B信号はA/D(アナログ・デジ
タル変換)部18、19、20へそれぞれ出力され、水
平及び垂直同期信号φH、φVに同期したφHよりも高
い周波数を持つクロック信号CLK(例えば、NTSC
規格色副搬送波信号)の周期にて量子化される。
The skin color detecting section 11 is configured as shown in FIG. Reference numeral 16 denotes a chromaticity information extracting unit which outputs chromaticity information of the captured video signal from each of the R, G, and B signals as quantized data.
The R, G, and B signals are output to the matrix unit 17 and mixed by the following equation. Assuming that the mixed output signal of the matrix unit 17 is M, M = (R + 1.8G + B) /3.8 (0 ≦ M ≦ 1: normalized signal). The R, M, and B signals are output to A / D (analog-to-digital conversion) sections 18, 19, and 20, respectively, and a clock signal CLK having a higher frequency than φH synchronized with the horizontal and vertical synchronization signals φH, φV (for example, , NTSC
(The standard color subcarrier signal).

【0014】量子化されたR、M、B信号は除算部2
1、22にそれぞれ与えられR信号を分子、M信号を分
母とする除算結果R/M信号と、B信号を分子、M信号
を分母とする除算結果B/M信号を得る。A/D部1
8、19、20はそれぞれサンプリング定理に基づき、
折り返しノイズを防ぐための帯域制限手段と適当な量子
化ビット数を持つものであるとする。除算部21、22
の構成は例えばメモリーによるルック・アップ・テーブ
ル法でもロジック構成の除算器でも良い。
The quantized R, M, B signals are divided by a divider 2
1 and 22, a division result R / M signal using the R signal as the numerator and the M signal as the denominator, and a division result B / M signal using the B signal as the numerator and the M signal as the denominator are obtained. A / D section 1
8, 19 and 20 are based on the sampling theorem, respectively.
It is assumed that the filter has band limiting means for preventing aliasing noise and an appropriate number of quantization bits. Division units 21 and 22
May be, for example, a look-up table method using a memory or a divider having a logic configuration.

【0015】また、M信号の混合比(R:G:B=1:
1.8:1)はUVW表色系において刺激和を示すU+
V+W値をNTSC規格受像3原色R、G、B刺激値を
用いて表したもので、正確には下式となるが、該除算部
21、22を同じ構成とするため近似的に用いる。 M=0.261R+0.469G+0.270B (0≦M≦1:正規化信号)
The mixing ratio of the M signals (R: G: B = 1: 1)
1.8: 1) is U + indicating the sum of stimuli in the UVW color system.
The V + W value is expressed by using the R, G, and B stimulus values of the three primary colors of the NTSC standard image receiving device. To be exact, the following formula is used. However, since the division units 21 and 22 have the same configuration, they are used approximately. M = 0.261R + 0.469G + 0.270B (0 ≦ M ≦ 1: normalized signal)

【0016】よって、R/M、B/M各信号は、NTS
C規格に合致している撮像システムを用いた場合に、撮
像映像信号の有する色度情報が均等知覚色度図であるC
IE1960UCS色度図((u、v)色度図)又はC
IE1976UCS色度図((u´、v´)色度図)を
(G、R)軸、(G、B)軸に沿って均等に量子化可能
とするものである。図3にこの様子を示す(R/M、B
/M各信号の量子化ビット数は5ビットとし、(u´、
v´)色度図を用いた)。
Therefore, each of the R / M and B / M signals is
When an imaging system conforming to the C standard is used, the chromaticity information of the captured video signal is a uniform perceptual chromaticity diagram.
IE1960 UCS chromaticity diagram ((u, v) chromaticity diagram) or C
The IE1976 UCS chromaticity diagram ((u ′, v ′) chromaticity diagram) can be quantized uniformly along the (G, R) axis and the (G, B) axis. FIG. 3 shows this state (R / M, B
/ M The quantization bit number of each signal is 5 bits, and (u ′,
v ') A chromaticity diagram was used).

【0017】この量子化法により、人間の色度知覚に対
する量子化ノイズを色度情報の抽出範囲内でおおよそ均
一に処理できるため、最小限の量子化ビット数を考えた
場合、人物による肌色色度の差や肌色以外の色度との区
別が該色度知覚に対応してデータ処理できる利点があ
る。
According to this quantization method, quantization noise for human chromaticity perception can be processed approximately uniformly within the range of chromaticity information extraction. Therefore, considering the minimum number of quantization bits, the flesh color of a person There is an advantage that the difference in chromaticity and the chromaticity other than the skin color can be subjected to data processing corresponding to the chromaticity perception.

【0018】色度情報抽出部16のR/M、B/M各信
号は肌色比較部23へ送られる。肌色比較部23は予め
用意された肌色色度データ群を持っており、入力色度情
報R/M、B/M各信号と比較処理することにより、撮
像映像信号に対し肌色の有無を検出できる。該検出結果
は、肌色検出信号B及びCとして出力される。肌色が検
出できた場合は、直ちに制御処理部12に対して肌色検
出信号Cを送る。
The R / M and B / M signals of the chromaticity information extracting section 16 are sent to a skin color comparing section 23. The skin color comparison unit 23 has a skin color chromaticity data group prepared in advance, and can detect the presence or absence of a skin color in the captured video signal by comparing the input chromaticity information R / M and B / M signals. . The detection results are output as skin color detection signals B and C. If a flesh color is detected, a flesh color detection signal C is sent to the control processing unit 12 immediately.

【0019】制御処理部12はメモリ部を有しており、
例えばフィールドメモリ構成で、肌色比較部23へ指示
信号Aを出力した後、クロック信号CLKの周期毎に肌
色比較部23より肌色検出信号Bを取り込み、水平及び
垂直同期信号φH、φVによって、撮像画面に対応した
肌色色度の位置を示すパターン(肌色パターンとする)
を1フィールド分得るものである。例えば図4に示すよ
うに、(a)が撮像した人物被写体とすれば、(b)が
該メモリ部に上述した動作により記憶されている肌色パ
ターンである。ただし、該パターンは、肌色が有りの場
合“斜線”、無しの場合“白”の画素として表記した。
The control processing section 12 has a memory section,
For example, in a field memory configuration, after outputting the instruction signal A to the flesh color comparing unit 23, the flesh color detecting signal B is fetched from the flesh color comparing unit 23 at every cycle of the clock signal CLK, and the imaging screen is displayed by the horizontal and vertical synchronizing signals φH and φV. Pattern indicating the position of the skin color chromaticity corresponding to the image (skin color pattern)
For one field. For example, as shown in FIG. 4, if (a) is a captured human subject, (b) is a skin color pattern stored in the memory unit by the above-described operation. However, the pattern is represented as “hatched” pixels when there is a skin color, and as “white” when there is no skin color.

【0020】メモリ部が肌色検出信号Bを得る動作は、
あるタイミングにて制御処理部12が肌色検出信号Cを
調べて、肌色が有りの状態の場合のみ制御処理部12に
より肌色比較部23に対して指示信号Aを出力する。次
に肌色比較部23は、指示信号Aを受けた時点から次の
フィールド期間に相当する肌色検出信号Bを制御処理部
12に出力し、制御処理部12のメモリ部はこれを1フ
ィールド分記憶する。
The operation of the memory unit for obtaining the flesh color detection signal B is as follows.
At a certain timing, the control processing unit 12 checks the skin color detection signal C, and outputs the instruction signal A to the skin color comparing unit 23 by the control processing unit 12 only when there is a skin color. Next, the flesh color comparing section 23 outputs a flesh color detection signal B corresponding to the next field period from the time when the instruction signal A is received to the control processing section 12, and the memory section of the control processing section 12 stores this for one field. I do.

【0021】人物データ部15は人物の顔部の特徴を示
すパラメータとして、顔部の面積S及びその円形度Kに
対応するデータ(人物データHとする)をそれぞれn組
予め保有している。制御処理部12は人物データ部15
に対して指示信号Dを出力する。人物データ部15は該
信号Dに従い、人物データHを順にあるいは指定された
人物データを制御処理部12に出力する。
The person data section 15 previously holds n sets of data (referred to as person data H) corresponding to the area S of the face and its circularity K as parameters indicating the characteristics of the face of the person. The control processing unit 12 includes a person data unit 15
To output an instruction signal D. The person data unit 15 outputs the person data H to the control processing unit 12 in order or in accordance with the signal D.

【0022】ここで、円形度Kについて述べる。円形度
とはその図形の形の複雑さを表す一つの尺度係数で、あ
る図形の面積をS、その周囲長をLとしたときに下式よ
り求まる係数Kと本発明にて定義する。 K=L2/S (K≧4π) 例えば、円形の場合は4π(最小値)となり、正方形で
は16となる。その形状が複雑になる程その値は大きく
なるものである。人物の顔部(肌色部)は形状が円状で
単純であるので、比較的小さな円形度Kが得られるた
め、人物以外の肌色色度を有する物体との区別がこの値
により弁別可能となる。
Here, the circularity K will be described. The degree of circularity is a scale factor representing the complexity of the shape of a figure, and is defined in the present invention as a coefficient K obtained by the following equation when the area of a certain figure is S and its peripheral length is L. K = L 2 / S (K ≧ 4π) For example, the value is 4π (minimum value) in the case of a circle, and 16 in the case of a square. The value increases as the shape becomes more complicated. Since the face part (skin color part) of a person is circular and simple in shape, a relatively small circularity K can be obtained. Therefore, it is possible to discriminate from an object other than a person having skin color chromaticity by this value. .

【0023】制御処理部12では1フィールド分の肌色
検出信号Bより求まる肌色パターン、撮影倍率β、人物
データHより、その肌色パターン内の肌色面積部が人物
か否かを判定する。人物と判定したなら制御処理部12
は、該面積部の輝度信号Yの平均レベルが65IREに
なるようにAGC回路5、6、7を制御する。人物以外
(風景)と判定したなら制御処理部12はAGC回路
5、6、7に対し現状通りの制御を続ける、つまり新た
には何もしない。
The control processing unit 12 determines whether or not the skin color area in the skin color pattern is a person, based on the skin color pattern obtained from the skin color detection signal B for one field, the photographing magnification β, and the person data H. If it is determined that the person, the control processing unit 12
Controls the AGC circuits 5, 6, and 7 so that the average level of the luminance signal Y in the area becomes 65 IRE. If it is determined that the person is not a person (landscape), the control processing unit 12 continues controlling the AGC circuits 5, 6, and 7 as is, that is, does nothing newly.

【0024】以下、本実施例における制御処理部12に
よる制御動作を説明する。まず、肌色パターン内の肌色
面積部が人物か否かの判定の手順を図5、図6のフロー
チャートに従って説明する。肌色パターン内に複数個の
肌色面積部が存在すると仮定し、その中に顔部に相当す
る肌色面積部があるか否かを調べるものである。このフ
ローが開始されると、まずステップ#5でスイッチ24
がONかOFFかを調べて人物自動露出モードが設定さ
れているかどうかを判定する。スイッチ24がOFFで
あれば、ステップ#55へ進んで通常の自動露出モード
での露出処理を行うが、ONであればステップ#10以
降の人物自動露出モードでの露出処理を行う。
Hereinafter, the control operation by the control processing unit 12 in the present embodiment will be described. First, the procedure for determining whether or not the skin color area portion in the skin color pattern is a person will be described with reference to the flowcharts of FIGS. It is assumed that a plurality of flesh-colored areas exist in the flesh-colored pattern, and it is checked whether or not there is a flesh-colored area corresponding to the face. When this flow is started, first, in step # 5, the switch 24
Is turned on or off to determine whether or not the person automatic exposure mode is set. If the switch 24 is OFF, the process proceeds to step # 55 to perform the exposure processing in the normal automatic exposure mode. If the switch 24 is ON, the exposure processing in the person automatic exposure mode after step # 10 is performed.

【0025】ステップ#10では、肌色比較部23の肌
色検出信号Cを調べて肌色の有無を判定する。肌色が無
ければステップ#55へ進んで通常の露出モードを行
う。肌色があれば、ステップ#15で撮影倍率算出部1
3より現在の撮影倍率βを取り込む。次に、ステップ#
20に進んで、前に取り込んだ撮影倍率βが所定の値β
1及びβ2(β1<β2)の範囲内か否かを調べる。
尚、ここでβ1は撮影素子の撮像サイズにおいて人物の
顔の大きさがある程度以下であれば、たとえ主被写体が
人物であっても風景を撮影していると見なすための閾値
定数であり、β2は撮影サイズにおいて人物の顔の大き
さが不自然に大きくなりなり始める閾値定数である。
In step # 10, the presence or absence of a flesh color is determined by examining the flesh color detection signal C of the flesh color comparing section 23. If there is no flesh color, the process proceeds to step # 55 to perform the normal exposure mode. If there is a skin color, in step # 15 the photographing magnification calculating unit 1
3, the current photographing magnification β is taken. Then, step #
20 and the previously acquired photographing magnification β becomes a predetermined value β.
It is checked whether it is within the range of 1 and β2 (β1 <β2).
Here, β1 is a threshold constant for assuming that a landscape is being photographed even if the main subject is a person if the size of the face of the person is smaller than a certain size in the imaging size of the photographing element. Is a threshold constant at which the size of a person's face begins to grow unnaturally in the shooting size.

【0026】前記撮影倍率βがβ1〜β2の範囲外であ
れば、主被写体は風景であるとして、ステップ#55へ
進む。βがβ1〜β2の範囲内であればステップ#25
へ進んで、肌色比較部23に対して肌色検出信号Bを得
るため指示信号Aを与える。しかる後、ステップ#30
で肌色比較部23より肌色検出信号Bを制御処理部12
内のメモリ(フィールドメモリ)に取り込み、肌色パタ
ーンとする。
If the photographing magnification β is outside the range of β1 to β2, it is determined that the main subject is a landscape, and the flow proceeds to step # 55. If β is in the range of β1 to β2, step # 25
Then, the instruction signal A is supplied to the skin color comparing section 23 to obtain the skin color detection signal B. Then, step # 30
The skin color detection signal B from the skin color comparison unit 23 to the control processing unit 12
Into a memory (field memory) in the device to obtain a flesh color pattern.

【0027】次に、ステップ#35で、肌色パターンに
対して収縮・膨張画像処理を施す。収縮・膨張画像処理
とは、文献「画像処理装置とその使い方」丸谷洋二著
日刊工業新聞社発行に記載の技術で、ここでは肌色パタ
ーン内の肌色を示す面積部に存在する突起形状部や鋭角
部を比較的なめらかな輪郭部に変換する処理のことをい
う。例えば、顔の額部に頭髪がかかっている状態で肌色
抽出を行うと、肌色面積部にその頭髪部分に相当する突
起形状部が発生するのでこれを除去することにより複雑
な形を有する肌色面積部を比較的単純な形状に変換し、
顔部の検出精度を向上させる。この処理を適当に繰り返
して最適な形状を得る。また、この処理によって肌色面
積部に対して非常に小さい他の肌色面積部は消滅するの
で、後処理で行う人物データHとの比較処理回数が減る
効果もある。
Next, in step # 35, contraction / expansion image processing is performed on the flesh color pattern. Shrinking / dilating image processing is described in the document "Image Processing System and How to Use It", Yoji Marutani
A technique described in the Nikkan Kogyo Shimbun, which refers to a process of converting a projecting shape portion or an acute angle portion existing in an area showing a flesh color in a flesh color pattern into a relatively smooth contour portion. For example, if skin color is extracted in a state where hair is applied to the forehead of the face, a projection-shaped portion corresponding to the hair portion is generated in the skin-colored area. Convert the part to a relatively simple shape,
Improve face detection accuracy. This process is repeated as appropriate to obtain an optimal shape. In addition, since this process eliminates other skin color area portions that are very small with respect to the skin color area portion, there is also an effect that the number of times of comparison with the person data H performed in post-processing is reduced.

【0028】前記ステップ#35での処理が終了した
後、ステップ#40に進み、肌色パターン内の複数個の
肌色面積部の内、画面中央位置から優先してラベリング
画像処理をまだ施していない肌色面積部を1つ選択す
る。この理由は人物が主被写体の場合、画面中央付近に
その顔部が位置する確率が高いからである。次のステッ
プ#45では、前記ステップ#35の処理にて選択でき
た肌色面積部の有無を判定する。該判定結果が有りであ
ればステップ#50の処理へ進み、無しであれば主被写
体は人物以外(風景)と判定し上記ステップ#55の処
理へ進む。
After the processing in step # 35 is completed, the process proceeds to step # 40, in which the skin color not yet subjected to the labeling image processing has been given priority from the center of the screen among the plurality of skin color areas in the skin color pattern. Select one area part. The reason is that when the person is the main subject, the probability that the face is located near the center of the screen is high. In the next step # 45, it is determined whether or not there is a skin color area selected in the processing in step # 35. If the determination result is present, the process proceeds to step # 50. If not, the main subject is determined to be other than a person (landscape), and the process proceeds to step # 55.

【0029】ステップ#50では、ステップ#40で選
んだ肌色面積部にラベリング画像処理を施す。ラベリン
グ画像処理とは、連結している画素に同じラベル記号を
付け、異なった連結画素群には異なったラベル記号を付
けることにより複数の連結画素群を区別することであ
る。また同時に肌色面積部を構成する画素数Nを計数す
る。画素数Nはその肌色面積部の面積に相当する値であ
る。
In step # 50, labeling image processing is performed on the skin color area selected in step # 40. Labeling image processing refers to distinguishing a plurality of connected pixel groups by attaching the same label symbol to connected pixels and attaching different label symbols to different connected pixel groups. At the same time, the number N of pixels constituting the skin color area is counted. The number N of pixels is a value corresponding to the area of the skin color area.

【0030】次に、図6のステップ#55へ進み、該ス
テップ#55でn組の人物データHの内、特定の1つを
選ぶ変数をiとして、1番目を選ぶ(Hiと表記する)
処理を行う。そして、次のステップ#60で、人物デー
タ部15に変数i=1を含む指示信号Dを出力し、ステ
ップ#65で人物データ部15より変数i=1に対応す
る人物データHi(Si、Ki)を受け取る。
Next, the process proceeds to step # 55 of FIG. 6, and in the step # 55, a variable for selecting a specific one of the n sets of person data H is set to i, and the first is selected (denoted by Hi).
Perform processing. Then, in the next step # 60, an instruction signal D including the variable i = 1 is output to the person data section 15, and in step # 65, the person data section 15 outputs the person data Hi (Si, Ki) corresponding to the variable i = 1. Receive).

【0031】しかる後、ステップ#70で、N/(Si
・β2)を計算すると共に、このN/(Si・β2)が、
所定の比率γ1からγ2内に納まっているか否かを判定
する。尚、ここで、Nは画素数であり、Siは人物デー
タである。このステップ#70の判定は、前記肌色面積
部の画素数N(肌色部面積に相当)と、現在の撮影倍率
βでの面積倍率β2を人物顔部の面積Siにかけて得ら
れる撮像素子(CCD)上での顔部面積Si・β2とを
比較することにより、肌色面積部が人物か人物以外(風
景)かを見極めるものである。
Thereafter, at step # 70, N / (Si
• β 2 ) and N / (Si · β 2 )
It is determined whether the ratio falls within a predetermined ratio γ1 to γ2. Here, N is the number of pixels, and Si is the person data. This determination in step # 70 is based on the image sensor (CCD) obtained by multiplying the number of pixels N (corresponding to the skin color area) of the skin color area and the area magnification β 2 at the current photographing magnification β by the area Si of the human face. By comparing the face area Si · β 2 in the above, it is determined whether the skin color area is a person or a person other than a person (landscape).

【0032】この判定でN/(Si・β2)がγ1〜γ
2内に存しない場合はステップ#85で人物データ変数
iを1だけインクリメントしてステップ#90へ進み、
その人物データ変数iが人物データ組数n以内であれば
ステップ#60の処理に戻る。該人物組数nを超えたな
らステップ#40の処理に戻る。ステップ#70の判定
でN/(Si・β2)がγ1〜γ2内であれば、ステッ
プ#75に進んで、上記ステップ#50の処理にてラベ
リングを施した肌色面積部の周囲長Lを求める。周囲長
Lは該肌色面積部の輪郭を構成する画素を数えることに
よりそれに相当するデータを得る。ただし輪郭画素の並
ぶ様子によって画素の意味する長さが異なるのでその様
子に従って補正を加える。
In this determination, N / (Si · β 2 ) is γ1 to γ
If not, the person data variable i is incremented by 1 in step # 85, and the process proceeds to step # 90.
If the person data variable i is within the number n of person data sets, the process returns to step # 60. If the number of persons has exceeded n, the process returns to step # 40. If N / (Si · β 2 ) is in the range of γ1 to γ2 in the determination of step # 70, the process proceeds to step # 75, where the perimeter L of the flesh-colored area labeled in the processing of step # 50 is calculated. Ask. The perimeter L is obtained by counting the pixels constituting the contour of the skin color area, and obtaining data corresponding thereto. However, since the meaning of the pixel differs depending on the manner in which the outline pixels are arranged, correction is performed in accordance with the manner.

【0033】次に、ステップ#80では画素数N、人物
データKi、周囲長Lについて、 |L2/N−Ki|≦ε1 の演算を行い、それが所定の誤差ε1内に納まるか否か
判定する。この判定は前記面積部の円形度L2/Nと人
物顔部の円形度Kiを比較することにより、前記面積部
が人物か人物以外(風景)かを見極めるものである。N
O(納まらない)であれば、前記ステップ#85へ進
み、YES(納まる)であれば、図7のステップ#10
0へ進む。尚、ここでYESの場合は主被写体が人物と
判定されたことになる。
Next, in step # 80, an operation of | L 2 / N−Ki | ≦ ε1 is performed on the number of pixels N, the person data Ki, and the perimeter L, and whether or not it is within a predetermined error ε1 is determined. judge. In this determination, the circularity L 2 / N of the area is compared with the circularity Ki of the person's face to determine whether the area is a person or other than a person (landscape). N
If O (does not fit), the process proceeds to step # 85, and if YES (fits), step # 10 in FIG.
Go to 0. In the case of YES here, it is determined that the main subject is a person.

【0034】以上のような手順で人物検出が行われる
が、次に主被写体が人物と判定した後の露出制御法を図
7を参照して説明する。まず、ステップ#100で肌色
比較部23に対して肌色検出信号Bを得るため指示信号
Aを出力し、次のステップ#105へ進む。
The person detection is performed according to the above procedure. Next, an exposure control method after the main subject is determined to be a person will be described with reference to FIG. First, in step # 100, an instruction signal A for obtaining a skin color detection signal B is output to the skin color comparing section 23, and the process proceeds to the next step # 105.

【0035】ステップ#105では、肌色比較部23よ
り肌色検出信号Bを得、先の処理にて人物顔部と判定し
た肌色面積部と論理積をとりその結果の画素数Naを計
数する。この処理は先の肌色面積部が人物か否かの判定
処理にて幾分時間を要するため、新たに最新の肌色検出
信号Bを得て、これと人物と判定した肌色面積部とのA
ND信号が現在の肌色面積部と見なすためである。ステ
ップ#105の処理が済むと、ステップ#110へ進
み、ここで上記ステップ#50での処理の肌色面積部の
画素数Nとステップ#105の処理での画素数Naの比
Na/Nを求め、ある決められた値γ3との比較を行
う。
In step # 105, a skin color detection signal B is obtained from the skin color comparing section 23, and a logical product is obtained from the skin color area determined as a human face in the previous processing, and the number of pixels Na as a result is counted. Since this process requires some time in the process of determining whether or not the previous skin color area portion is a person, a new latest skin color detection signal B is newly obtained, and A
This is because the ND signal is regarded as the current skin color area. When the process of step # 105 is completed, the process proceeds to step # 110, where the ratio Na / N of the number of pixels N of the skin color area portion in the process of step # 50 and the number of pixels Na in the process of step # 105 is determined. Is compared with a predetermined value γ3.

【0036】Na/Nがγ3より小さい場合は、主被写
体や撮影状況に変化があったとしてステップ#5の処理
へ戻る。Na/Nがγ3以上であれば、ステップ#11
5へ進んで、肌色面積部内の輝度信号レベルが65IR
E以上の画素を計数してNbを得る。この点を図8を用
いて説明すると、制御処理部12へ出力された輝度信号
Yはゲート部24にてゲート信号に相当する期間のみ比
較部26へ出力される。該ゲート信号はAND回路25
において、人物顔部と判定した肌色面積部の信号と肌色
検出信号Bとの論理積を行って得られたAND信号であ
る。つまり現在の肌色面積部を意味する信号である。こ
のゲート信号はAND回路28にてクロックCLKとの
ANDをとることにより、肌色面積部の画素信号パルス
PNaとなる。
If Na / N is smaller than γ3, it is determined that there is a change in the main subject or the photographing situation, and the process returns to step # 5. If Na / N is γ3 or more, step # 11
5 and the luminance signal level in the skin color area is 65IR
Nb is obtained by counting pixels above E. This point will be described with reference to FIG. 8. The luminance signal Y output to the control processing unit 12 is output to the comparison unit 26 only during a period corresponding to the gate signal by the gate unit 24. The gate signal is supplied to the AND circuit 25.
And an AND signal obtained by performing a logical product of the signal of the skin color area determined as the person's face and the skin color detection signal B. That is, the signal indicates the current skin color area. The gate signal is ANDed with the clock CLK by the AND circuit 28 to become a pixel signal pulse PNa of the skin color area.

【0037】一方、比較部26では入力輝度信号Yの信
号レベルと基準輝度信号レベルとの比較を行い、Yの信
号レベルが基準輝度信号レベル以上の場合に比較出力信
号をAND回路27に出力する。AND回路27では該
比較部26の出力信号とクロック信号CLKとのAND
をとることにより、Yの信号レベルが基準輝度信号レベ
ル以上の画素信号パルスPNbを得る。基準輝度信号レ
ベルについて、テレビジョンシステムの研究成果による
と人物肌色の再現輝度レベルはおよそ60〜70IRE
が最適とされており、ここでは一応65IREとした。
On the other hand, the comparison section 26 compares the signal level of the input luminance signal Y with the reference luminance signal level, and outputs a comparison output signal to the AND circuit 27 when the signal level of Y is equal to or higher than the reference luminance signal level. . The AND circuit 27 performs an AND operation on the output signal of the comparison unit 26 and the clock signal CLK.
, A pixel signal pulse PNb having a Y signal level equal to or higher than the reference luminance signal level is obtained. Regarding the reference luminance signal level, according to the research results of the television system, the reproduction luminance level of the human skin color is about 60 to 70 IRE.
Is considered to be optimal, and here, it is assumed to be 65IRE.

【0038】29はAND回路28、27からの信号パ
ルスPNa、PNbを計数する計数部で、1フィールド
分の該信号パルスの計数値Na、Nbをそれぞれ出力す
る。さて、図7に戻って、上記ステップ#115での処
理が終ると、ステップ#120で、上記ステップ#10
5と#115の処理にて得た肌色面積部画素数Naと輝
度信号レベルが65IRE以上の画素数Nbについて、 Nb−Na/2 の値を求めて0との大小関係を判別する。
Reference numeral 29 denotes a counting unit for counting the signal pulses PNa and PNb from the AND circuits 28 and 27, and outputs the count values Na and Nb of the signal pulses for one field, respectively. Now, returning to FIG. 7, when the processing in step # 115 is completed, in step # 120, step # 10
5 and the number of pixels Nb having a luminance signal level of 65 IRE or more obtained in the processing of # 115 and # 115, the value of Nb−Na / 2 is determined to determine the magnitude relationship between 0 and Nb−Na / 2.

【0039】尚、この判別の意味は肌色面積部画素数N
aが示す輝度信号レベルが65IREを境にして半分ず
つ存在しているかどうかを調べることにより、肌色面積
部の平均輝度信号レベルを65IREに設定しようとす
るものである。そして、上式と0との比較結果によりA
GC回路5、6、7の利得を所定の単位レベルだけ上下
させる。即ち、上記式(Nb−Na/2)が0より大き
い場合はステップ#125へ進んで、AGC回路5、
6、7の利得を単位レベル下げ、しかる後ステップ#1
00の処理へ戻る。上記式が0より小さければ、ステッ
プ#130へ進んでAGC回路5、6、7の利得を単位
レベル上げた後、ステップ#100の処理へ戻る。0で
あれば、フローを終了する。
The meaning of this determination is the number N of pixels of the skin color area portion.
It is intended to set the average luminance signal level of the flesh-colored area to 65IRE by checking whether the luminance signal level indicated by a exists half by half with respect to 65IRE. Then, according to the comparison result between the above equation and 0, A
The gains of the GC circuits 5, 6, 7 are increased or decreased by a predetermined unit level. That is, if the above equation (Nb-Na / 2) is larger than 0, the process proceeds to step # 125, and the AGC circuit 5,
Lower the gains of units 6 and 7 by unit level, and then step # 1
It returns to the process of 00. If the above expression is smaller than 0, the process proceeds to step # 130 to increase the gain of the AGC circuits 5, 6, and 7 by a unit level, and then returns to the process of step # 100. If 0, the flow ends.

【0040】次に露出制御法について他の実施例を図9
及び図10を参照して説明する。この図9、図10に示
す制御法は主被写体が人物であると判定した場合におい
て、撮影画角に占める人物の大きさの相対比により、通
常露出制御の程度と人物自動露出制御の程度に対して重
み付けを行う。人物のその比率が高くなる程、通常自動
露出制御から人物自動露出制御へと連続的に移行するも
のである。
Next, another embodiment of the exposure control method is shown in FIG.
This will be described with reference to FIG. 9 and 10, when the main subject is determined to be a person, the degree of the normal exposure control and the degree of the person automatic exposure control are determined by the relative ratio of the size of the person to the shooting angle of view. Weighting is applied to this. As the ratio of the person increases, the normal automatic exposure control continuously shifts to the person automatic exposure control.

【0041】まず、ステップ#200で比較部26に初
期の基準輝度信号レベルYrefとして例えば65IR
Eを設定する。しかる後、ステップ#205、#21
0、#215で先の実施例のステップ#100、#10
5、#110と同じ処理をした後、ステップ#220で
肌色面積部内の輝度信号レベルがYref以上の画素を
計数してNbを得る。
First, in step # 200, the comparison unit 26 sets the initial reference luminance signal level Yref as 65IR, for example.
Set E. Then, steps # 205 and # 21
0 and # 215 are steps # 100 and # 10 of the previous embodiment.
5. After performing the same processing as in # 110, in step # 220, Nb is obtained by counting the pixels in which the luminance signal level in the skin color area is equal to or higher than Yref.

【0042】次に、ステップ#225で肌色面積部画素
数Naと輝度信号レベルがYref以上の画素数Nbに
ついて、(Nb−Na/2)の値を求めて、0との比較
を行う。Nb−Na/2>0のときはステップ#230
へ進んで、基準輝度信号レベルをYref値より所定の
単位レベルだけ上げ、Nb−Na/2<0のときはステ
ップ#235で所定の単位レベルだけ下げ、それぞれス
テップ#205へ戻る。Nb−Na/2=0のときは、
図10のステップ#240へ進む。ここまでのループ処
理により、通常自動露出制御による現在の肌色面積部の
平均の輝度信号レベルYrefが判明する。
Next, in step # 225, the value of (Nb−Na / 2) is obtained for the number of pixels Na of the skin color area portion and the number of pixels Nb of which the luminance signal level is equal to or more than Yref, and is compared with 0. If Nb-Na / 2> 0, step # 230
Then, the reference luminance signal level is raised by a predetermined unit level from the Yref value. If Nb-Na / 2 <0, the reference luminance signal level is lowered by a predetermined unit level in step # 235, and the process returns to step # 205. When Nb-Na / 2 = 0,
Proceed to step # 240 in FIG. By the loop processing up to this point, the average luminance signal level Yref of the current flesh color area by the normal automatic exposure control is determined.

【0043】次からの処理おいて、肌色面積部の輝度信
号レベルの目標とする設定値を求める。該設定値は、該
Yref値と人物肌色の再現輝度信号レベル65IRE
に対して撮影倍率β値による重み付けを行った合成値と
する。まず、ステップ#240、#245、#250で
それぞれ上記ステップ#100、#105、#110と
同じ処理をした後、ステップ#255で撮影倍率算出部
13より現在の撮影倍率βを得て重み係数WEを求め
る。重み係数WEは例えば、dの処理にて使用した撮影
倍率βの閾値β1、β2より下式にて決定する。
In the following processing, a target set value of the luminance signal level of the skin color area is obtained. The set value is the Yref value and the reproduction luminance signal level 65IRE of the human skin color.
Is a composite value obtained by performing weighting with the photographing magnification β value. First, in steps # 240, # 245, and # 250, the same processing as in steps # 100, # 105, and # 110 is performed, and in step # 255, the current photographing magnification β is obtained from the photographing magnification calculator 13 to obtain a weight coefficient. Ask for WE. The weighting coefficient WE is determined by the following formula, for example, from the thresholds β1 and β2 of the photographing magnification β used in the process d.

【0044】 WE=(β−β1)/(β2−β1) 又は、 WE={β2−(β1)2}/{(β2)2−(β1)2} である。ただし、β<β1の場合WE=0、β>β2の
場合WE=1とする。よって、重み係数WEの値域は0
≦WE≦1である。
WE = (β−β1) / (β2−β1) or WE = {β 2 − (β 1) 2 } / {(β 2) 2 − (β 1) 2 }. However, WE = 0 when β <β1, and WE = 1 when β> β2. Therefore, the value range of the weight coefficient WE is 0
≤WE≤1.

【0045】続いて次のステップ#260で、前記ステ
ップ#255の処理にて得た重み係数WEを用いて、現
在の肌色面積部の平均の輝度レベルYrefと人物肌色
の再現輝度信号レベル65IREに対する重み付け合成
値、つまり目標基準輝度信号レベルを下式により求め
る。 (65−Yref)・WE+Yref そして、上式の値を新しいYref値とする。
Subsequently, in the next step # 260, using the weighting coefficient WE obtained in the processing of the step # 255, the average luminance level Yref of the current skin color area and the reproduced luminance signal level 65IRE of the human skin color are obtained. A weighted composite value, that is, a target reference luminance signal level is obtained by the following equation. (65−Yref) · WE + Yref Then, the value of the above equation is set as a new Yref value.

【0046】以下、ステップ#265〜#280で、そ
れぞれ上述したステップ#220、#120、#12
5、#130と同じ処理を行い、ステップ#275、#
280へ進んだ場合は、それらの処理をした後、ステッ
プ#240へ戻る。
Hereinafter, in steps # 265 to # 280, the above-described steps # 220, # 120, and # 12 are respectively described.
5, the same processing as in # 130 is performed, and steps # 275 and # 130 are performed.
When proceeding to 280, after performing those processes, the process returns to step # 240.

【0047】[0047]

【発明の効果】以上説明したように本発明によれば、人
物撮影のときは、人物撮影に適した露出制御を行うこと
ができる。また、人物以外の撮影のときは、その撮影に
適した露出制御を行うことができる。特に、本発明では
人物判定を撮影映像信号中の肌色を示す色度情報に基づ
いて判定するので、色差信号に基づいて行う場合に比
し、色検出の精度(従って、判定の精度)が高い。
た、判定手段が撮影映像中の肌色を示す色度情報より得
た該色度情報の撮像平面上での形状及び面積と撮影系の
撮影倍率を用いて人物の顔部を示すパラメータとの比較
を行うことにより人物か否かの判定を行うようにした場
合は、露出レベルに対し不変な色情報を示す色度信号を
作り、その色度信号に基づいて肌色を検出することにな
り、色検出精度が高くなるので、より精度のよい露出制
御が実現できる。更に、人物パラメータを設定し、撮影
倍率を用いて撮像した肌色部との比較参照を行うことに
より、簡単で精度の高い人物検出ができる。
As described above, according to the present invention, when photographing a person, exposure control suitable for photographing a person can be performed. Also, when photographing a person other than a person, exposure control suitable for the photographing can be performed. In particular, in the present invention
The person is determined based on the chromaticity information indicating the skin color in the captured video signal.
Is determined based on the color difference signal.
However, the accuracy of color detection (accordingly, the accuracy of determination) is high. In addition, the determination means compares the shape and area on the imaging plane of the chromaticity information obtained from the chromaticity information indicating the skin color in the captured image with a parameter indicating the face of a person using the imaging magnification of the imaging system. Is performed, a chromaticity signal indicating color information that is invariant with respect to the exposure level is created, and a skin color is detected based on the chromaticity signal. Since the detection accuracy is increased, more accurate exposure control can be realized. Furthermore, by setting a person parameter and comparing and referring to a skin color part imaged using the photographing magnification, a simple and highly accurate person detection can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明を実施したビデオカメラの要部ブロッ
ク回路図。
FIG. 1 is a main part block circuit diagram of a video camera embodying the present invention.

【図2】 その肌色検出部の構成を示すブロック回路
図。
FIG. 2 is a block circuit diagram showing a configuration of the skin color detection unit.

【図3】 CIE1976UCS色度図。FIG. 3 is a CIE1976 UCS chromaticity diagram.

【図4】 人物被写体と記憶される肌色パターンを示す
図。
FIG. 4 is a view showing a human subject and a stored skin color pattern;

【図5】 本実施例の人物検出の動作フローを示すフロ
ーチャート。
FIG. 5 is a flowchart illustrating an operation flow of person detection according to the embodiment;

【図6】 図5に引き続くフローチャート。FIG. 6 is a flowchart following FIG. 5;

【図7】 本実施例の露出制御のフローチャート。FIG. 7 is a flowchart of exposure control according to the embodiment.

【図8】 その説明図。FIG. 8 is an explanatory diagram thereof.

【図9】 本発明の他の実施例の露出制御を示すフロー
チャート。
FIG. 9 is a flowchart illustrating exposure control according to another embodiment of the present invention.

【図10】 図9に引き続くフローチャート。FIG. 10 is a flowchart following FIG. 9;

【符号の説明】[Explanation of symbols]

5、6、7 AGC回路 10 信号処理部 11 肌色検出部 12 制御処理部 13 撮影倍率算出手段 15 人物データ部 16 色度情報抽出部 23 肌色比較部 5, 6, 7 AGC circuit 10 Signal processing unit 11 Skin color detection unit 12 Control processing unit 13 Shooting magnification calculation unit 15 Person data unit 16 Chromaticity information extraction unit 23 Skin color comparison unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 越智 圭三 大阪市中央区安土町二丁目3番13号 大 阪国際ビル ミノルタカメラ株式会社内 (72)発明者 東 義彦 大阪市中央区安土町二丁目3番13号 大 阪国際ビル ミノルタカメラ株式会社内 (72)発明者 加藤 武宏 大阪市中央区安土町二丁目3番13号 大 阪国際ビル ミノルタカメラ株式会社内 (72)発明者 大塚 博司 大阪市中央区安土町二丁目3番13号 大 阪国際ビル ミノルタカメラ株式会社内 (56)参考文献 特開 平3−148987(JP,A) 特開 平2−287225(JP,A) 特開 平1−114188(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 5/235 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Keizo Ochi 2-3-13 Azuchicho, Chuo-ku, Osaka-shi Osaka International Building Minolta Camera Co., Ltd. (72) Yoshihiko Higashi 2-chome Azuchicho, Chuo-ku, Osaka-shi No. 3-13 Osaka International Building Minolta Camera Co., Ltd. (72) Inventor Takehiro Kato 2-3-1 Azuchicho, Chuo-ku, Osaka City Osaka International Building Minolta Camera Co., Ltd. (72) Inventor Hiroshi Otsuka Osaka 2-3-3 Azuchicho, Chuo-ku Osaka International Building Minolta Camera Co., Ltd. (56) References JP-A-3-148987 (JP, A) JP-A-2-287225 (JP, A) JP-A-1 −114188 (JP, A) (58) Field surveyed (Int. Cl. 7 , DB name) H04N 5/235

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】撮影機器における露出制御装置であって、
主被写体が人物か否かを撮影映像信号中の肌色を示す色
度情報に基づいて判定する人物判定手段と、前記人物判
定手段により主被写体が人物であると判定されたときと
人物以外であると判定されたときで異なる露出設定を行
う露出制御手段とから成る露出制御装置。
1. An exposure control device for a photographing device, comprising:
Color indicating the flesh color in the captured video signal to the main subject is whether a person
A person determination unit that determines based on degree information, and an exposure control unit that performs different exposure settings when the main subject is determined to be a person and when the main subject is determined to be other than a person by the person determination unit. Exposure control device.
【請求項2】撮影機器における露出制御装置であって、
主被写体が人物か否かを判定する人物判定手段と、前記
人物判定手段により主被写体が人物であると判定された
ときと人物以外であると判定されたときで異なる露出設
定を行う露出制御手段とから成る露出制御装置におい
て、 前記撮影機器はビデオ撮影機器であり、前記判定手段は
撮影映像信号中の肌色を示す色度情報より得た該色度情
報の撮像平面上での形状及び面積と撮影系の撮影倍率を
用いて人物の顔部を示すパラメータとの比較を行うこと
により人物か否かの判定を行うことを特徴とする露出制
御装置。
2. An exposure control device for a photographing device, comprising:
A person determining means for determining whether or not the main subject is a person;
The main subject is determined to be a person by the person determination means
The exposure setting differs depending on when
Exposure control means for performing exposure control
The photographing device is a video photographing device, and the determination unit determines the shape and area on the imaging plane of the chromaticity information obtained from chromaticity information indicating skin color in the captured video signal and the photographic magnification of the photographic system. An exposure control device that determines whether a person is a person by comparing the parameter with a parameter indicating a person's face.
【請求項3】前記露出制御手段は、前記人物判定手段に
より主被写体が人物であると判定されたとき、該人物の
顔部の輝度信号レベルが65IRE付近の値に設定され
るように露出制御を行うことを特徴とする請求項2に記
載の露出制御装置。
3. The exposure control means according to claim 1, wherein when the person determination means determines that the main subject is a person, the exposure control means sets the luminance signal level of the face of the person to a value near 65IRE. 3. The exposure control device according to claim 2, wherein the exposure control is performed.
【請求項4】人物の顔部の面積が画面内に占める大きさ
を撮影倍率によって重み付けすることを特徴とする請求
項3に記載の露出制御装置。
4. The exposure control apparatus according to claim 3, wherein the size of the area of the face of the person occupying in the screen is weighted by the photographing magnification.
JP22208391A 1990-08-01 1991-08-06 Person adaptive exposure control device Expired - Lifetime JP3343921B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP22208391A JP3343921B2 (en) 1991-08-06 1991-08-06 Person adaptive exposure control device
US08/208,791 US6249317B1 (en) 1990-08-01 1994-03-09 Automatic exposure control apparatus
US08/887,792 US6072526A (en) 1990-10-15 1997-07-03 Image sensing device that can correct colors corresponding to skin in a video signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22208391A JP3343921B2 (en) 1991-08-06 1991-08-06 Person adaptive exposure control device

Publications (2)

Publication Number Publication Date
JPH0541830A JPH0541830A (en) 1993-02-19
JP3343921B2 true JP3343921B2 (en) 2002-11-11

Family

ID=16776864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22208391A Expired - Lifetime JP3343921B2 (en) 1990-08-01 1991-08-06 Person adaptive exposure control device

Country Status (1)

Country Link
JP (1) JP3343921B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4504492B2 (en) * 2000-02-04 2010-07-14 オリンパス株式会社 Camera with main subject detection function
CN100448267C (en) 2004-02-06 2008-12-31 株式会社尼康 Digital camera
JP4154400B2 (en) * 2004-04-01 2008-09-24 キヤノン株式会社 Imaging apparatus, control method thereof, and program
JP4006415B2 (en) * 2004-06-03 2007-11-14 キヤノン株式会社 Image capturing apparatus, control method therefor, and control program
JP4424292B2 (en) 2005-09-28 2010-03-03 ソニー株式会社 Imaging apparatus, exposure control method, and program
JP5386793B2 (en) * 2006-12-11 2014-01-15 株式会社リコー Imaging apparatus and exposure control method for imaging apparatus
JP5056297B2 (en) * 2007-09-14 2012-10-24 カシオ計算機株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL PROGRAM, AND IMAGING DEVICE CONTROL METHOD
JP5821214B2 (en) * 2011-02-28 2015-11-24 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5885416B2 (en) 2011-07-14 2016-03-15 キヤノン株式会社 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Also Published As

Publication number Publication date
JPH0541830A (en) 1993-02-19

Similar Documents

Publication Publication Date Title
JP3927995B2 (en) Image display control apparatus, image display control method, and imaging apparatus
US6249317B1 (en) Automatic exposure control apparatus
US7358988B1 (en) Image signal processor for performing image processing appropriate for an output device and method therefor
US7925047B2 (en) Face importance level determining apparatus and method, and image pickup apparatus
JP5141733B2 (en) Imaging apparatus, imaging method, and program
US7274400B2 (en) Digital camera and composition assist frame selecting method for digital camera
JPH09322191A (en) Image input device
US20030103158A1 (en) System and method for the formation of multiple exposure images
JP2007124604A (en) Image processing apparatus and processing method therefor
JP2012054811A (en) Image processor, image processing method and program
JP2011124967A (en) Imaging apparatus, imaging method and imaging program
JP3343921B2 (en) Person adaptive exposure control device
JP2008005081A (en) Authentication apparatus
JP2002271638A (en) White balance correction method and device, and recording medium recorded with program for executing the method
JPH09284784A (en) Color image pickup device
JP2000148978A (en) Method and device for estimating photographic light source, method and device for processing image and recording medium
JP2003163944A (en) White balance-control method and digital camera
JP2010011153A (en) Imaging apparatus, imaging method and program
JP2002218495A (en) White balance control method and electronic camera
JP2000165896A (en) White balance control method and its system
JP2002368982A (en) Picture processor, picture processing method and recording medium
JP3958700B2 (en) Digital camera
JP2002223355A (en) Image processor and recording medium with image processing program recorded thereon
JP3217163B2 (en) Video camera
JP2005142953A (en) Digital image pickup apparatus

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080830

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080830

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090830

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100830

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110830

Year of fee payment: 9

EXPY Cancellation because of completion of term