JP3399995B2 - Video signal tracking method and video camera system - Google Patents

Video signal tracking method and video camera system

Info

Publication number
JP3399995B2
JP3399995B2 JP32265592A JP32265592A JP3399995B2 JP 3399995 B2 JP3399995 B2 JP 3399995B2 JP 32265592 A JP32265592 A JP 32265592A JP 32265592 A JP32265592 A JP 32265592A JP 3399995 B2 JP3399995 B2 JP 3399995B2
Authority
JP
Japan
Prior art keywords
area
small
candidate
image
small area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32265592A
Other languages
Japanese (ja)
Other versions
JPH06153047A (en
Inventor
忠房 富高
高行 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP32265592A priority Critical patent/JP3399995B2/en
Priority to KR1019930023646A priority patent/KR100276681B1/en
Publication of JPH06153047A publication Critical patent/JPH06153047A/en
Priority to US08/763,426 priority patent/US5812193A/en
Application granted granted Critical
Publication of JP3399995B2 publication Critical patent/JP3399995B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【目次】以下の順序で本発明を説明する。 産業上の利用分野 従来の技術 発明が解決しようとする課題 課題を解決するための手段(図1〜図14) 作用(図1〜図14) 実施例 発明の効果[Table of Contents] The present invention will be described in the following order. Industrial applications Conventional technology Problems to be Solved by the Invention Means for Solving the Problems (FIGS. 1 to 14) Action (Figs. 1-14) Example The invention's effect

【0002】[0002]

【産業上の利用分野】本発明は映像信号追尾方法及びビ
デオカメラシステムに関し、特に人の顔をほぼ同じ大き
さの画像として映出できるようにしたものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video signal tracking method and a video camera system, and more particularly to a human face which can be displayed as an image having substantially the same size.

【0003】[0003]

【従来の技術】従来、オートズーム機能をもつカメラと
して一眼レフカメラがあり、CCD(charge coupled d
evice )ラインセンサを用いて被写体とカメラとの間の
距離を正確に求めてズームモータを動かすようにしたも
のが提案されている。この従来の一眼レフカメラにおけ
るオートズームカメラシステムにおいては、被写体を人
間に限定し、ユーザが操作ボタンによつて顔のアツプ、
バストシヨツト及び全身のシヨツトを予め選択してお
き、各シヨツトに応じて予めプログラムされている被写
体との距離に対するズームレンズ位置を参照しながら当
該ズームレンズ位置に適合するようにズームモータを駆
動するようになされている。
2. Description of the Related Art Conventionally, there is a single-lens reflex camera as a camera having an auto-zoom function, and a CCD (charge coupled d
(evice) A system has been proposed in which a line sensor is used to accurately obtain the distance between a subject and a camera and a zoom motor is moved. In this conventional auto-zoom camera system for a single-lens reflex camera, the subject is limited to humans, and the user touches the face with the operation buttons.
The bust shot and whole body shot are selected in advance, and the zoom motor is driven so as to match the zoom lens position while referring to the zoom lens position with respect to the distance to the subject that is programmed in advance for each shot. Has been done.

【0004】かかる一眼レフカメラにおいては、別途オ
ートフオーカスのためにCCDラインセンサが設けられ
ているので、前ピン及び後ピンの判断や、正確な距離の
測定をなし得、これにより比較的簡易にオートズームシ
ステムを構成することができる。
In such a single-lens reflex camera, since a CCD line sensor is additionally provided for autofocusing, it is possible to judge the front pin and the rear pin and to measure an accurate distance, which is relatively simple. The auto zoom system can be configured.

【0005】[0005]

【発明が解決しようとする課題】しかしながらこの一眼
レフカメラのオートズームシステムの手法は、山登り制
御方式のオートフオーカスシステムを有するビデオカメ
ラにおいては、正確な距離の測定をすることができない
ので、そのままは利用できない。本発明は以上の点を考
慮してなされたもので、被写体となる人がカメラに近づ
いたり遠ざかつたりしたとき、常にほぼ同じ大きさの顔
の画像を得ることができるようにした映像信号追尾方法
及びビデオカメラシステムを提案しようとするものであ
る。
However, since the method of the auto zoom system of the single lens reflex camera cannot measure the accurate distance in the video camera having the hill climbing control type auto focus system, it cannot be used as it is. Is not available. The present invention has been made in view of the above points, and when a person as a subject approaches or moves away from the camera, it is possible to always obtain an image of a face of almost the same size. An attempt is made to propose a method and a video camera system.

【0006】[0006]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、ズーミング動作する撮像手段1か
ら得られる撮像信号S1に基づいて、被写体画像部を含
む映像を表示画面PICに表示させる出力映像信号S3
を形成する映像信号追尾方法及びビデオカメラシステム
であつて、表示画面PICに表示すべき映像を複数の小
領域ARに分割し(SP11)、小領域ARに対応する
撮像信号S1の色特性に基づいて、被写体画像部の候補
となる被写体画像候補小領域ARA1、ARB1を抽出
し、被写体画像候補小領域ARA1、ARB1の集まり
の間に空白小領域が生じたとき、当該空白小領域のうち
被写体画像候補小領域ARA1、ARB1と隣接する当
該空白小領域を被写体画像候補小領域ARA1、ARB
1と併合して被写体画像部の検出領域ARA2、ARB
2として決定し(SP12)、検出領域ARA2、AR
B2の大きさが予め決められている基準の大きさと一致
するように撮像手段1をズーミング動作させることによ
り(RT1)、表示画面PIC上に常時基準の大きさに
対応する大きさの被写体画像部を表示させるようにす
る。
In order to solve such a problem, in the present invention, an output for displaying an image including a subject image portion on a display screen PIC based on an image pickup signal S1 obtained from an image pickup means 1 performing a zooming operation. Video signal S3
In the video signal tracking method and the video camera system for forming the image, the video to be displayed on the display screen PIC is divided into a plurality of small areas AR (SP11), and based on the color characteristics of the image pickup signal S1 corresponding to the small areas AR. Then, the subject image candidate small areas ARA1 and ARB1 that are candidates for the subject image portion are extracted, and when a blank small area occurs between the collection of the subject image candidate small areas ARA1 and ARB1, the subject image among the blank small areas is extracted. The blank small area adjacent to the candidate small areas ARA1 and ARB1 is defined as the subject image candidate small areas ARA1 and ARB.
1 and the detection areas ARA2 and ARB of the subject image part
2 (SP12), and the detection areas ARA2, AR
By performing the zooming operation of the image pickup means 1 so that the size of B2 matches the predetermined reference size (RT1), the subject image portion of the size corresponding to the reference size is always displayed on the display screen PIC. To be displayed.

【0007】[0007]

【作用】小領域AR内の被写体画像部の色特性に基づい
て、被写体画像候補小領域ARA1、ARB1を統合し
て被写体画像部の検出領域ARA2、ARB2として決
定し、その大きさを基準の大きさと一致するように撮像
手段1をズーミング動作させることにより、一段と簡易
な構成によつて常に同じ大きさの被写体画像部の映像を
映出できるような映像信号追尾方法及びビデオカメラシ
ステムを容易に実現できる。
The object image candidate small areas ARA1 and ARB1 are integrated and determined as the detection areas ARA2 and ARB2 of the object image section based on the color characteristics of the object image section in the small area AR, and the size thereof is used as a reference size. By performing the zooming operation of the image pickup means 1 so as to coincide with the above, it is possible to easily realize a video signal tracking method and a video camera system by which a video of a subject image portion having the same size can always be displayed by a simpler configuration. it can.

【0008】[0008]

【実施例】以下図面について、本発明の一実施例を詳述
する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described in detail below with reference to the drawings.

【0009】図1において、VCSは全体としてビデオ
カメラシステムを示し、ビデオカメラシステムVCSは
被写体として人間顔モデルを対象とした人間顔モデルに
よる人間認識装置(Autonomous Target Tracker with H
uman Recognition, ATT−HR)システムに応用でき
るものである。ビデオカメラシステムVCSは、被写体
である人間顔モデルから到来する撮像光LAをレンズブ
ロツク部1のレンズ2、アイリス3を順次通つて例えば
CCD(charge coupled device )でなる撮像素子4に
受けて被写体像を表す撮像出力信号S1を信号分離/自
動利得調整回路部5に与える。
In FIG. 1, VCS indicates a video camera system as a whole, and the video camera system VCS is a human face recognition device (Autonomous Target Tracker with H) for a human face model as a subject.
uman Recognition, ATT-HR) system. The video camera system VCS receives the imaged light LA coming from a human face model, which is a subject, through a lens 2 of a lens block unit 1 and an iris 3 in order and received by an image pickup device 4 which is, for example, a CCD (charge coupled device). The image pickup output signal S1 representing the above is given to the signal separation / automatic gain adjustment circuit unit 5.

【0010】信号分離/自動利得調整回路部5は撮像出
力信号S1をサンプルホールドすると共に、オートアイ
リス(AE)システム(図示せず)からの制御信号によ
つて撮像出力信号S2が所定のゲインをもつように利得
制御され、かくして得られる撮像出力信号S2をアナロ
グ/デイジタル変換回路6を介してデイジタルカメラ処
理回路7に供給する。デイジタルカメラ処理回路7は撮
像出力信号S2に基づいて輝度信号Y、クロマ信号C並
びに色差信号R−Y及びB−Yを形成し、輝度信号Y及
びクロマ信号Cをデイジタル/アナログ変換回路8を介
してビデオ信号S3として送出する。
The signal separation / automatic gain adjustment circuit section 5 samples and holds the image pickup output signal S1, and the image pickup output signal S2 has a predetermined gain by a control signal from an auto iris (AE) system (not shown). The image pickup output signal S2 thus obtained is gain-controlled, and is supplied to the digital camera processing circuit 7 through the analog / digital conversion circuit 6. The digital camera processing circuit 7 forms a luminance signal Y, a chroma signal C and color difference signals R-Y and B-Y based on the image pickup output signal S2, and passes the luminance signal Y and the chroma signal C through a digital / analog conversion circuit 8. And sends out as a video signal S3.

【0011】これに加えてデイジタルカメラ処理回路7
は被写体ズーム用検出信号S4として輝度信号Y並びに
色差信号R−Y及びB−Yを追従制御回路部11に供給
し、追従制御回路部11はこの被写体ズーム用検出信号
S4に基づいてレンズブロツク部1について設けられた
ズーミング駆動モータ12に対する追従制御信号S5を
発生する。
In addition to this, the digital camera processing circuit 7
Supplies the luminance signal Y and the color difference signals RY and BY as the object zoom detection signal S4 to the tracking control circuit section 11, and the tracking control circuit section 11 determines the lens block section based on the object zoom detection signal S4. A follow-up control signal S5 for the zooming drive motor 12 provided for No. 1 is generated.

【0012】追従制御回路11はデイジタルカメラ処理
回路7から得られる輝度信号Y、並びに色差信号R−Y
及びB−Yをローパスフイルタ13を介して画面縮小回
路14に与える。画面縮小回路14はデイジタルカメラ
処理回路7から送出される各画素の輝度信号Y並びに色
差信号R−Y及びB−Yを追従信号処理回路15から送
出される画面縮小制御信号S21によつて、図3に示す
ように、表示画面PICを32×32個の小領域AR又は16
×16個の小領域ARに分割する処理を実行する。
The follow-up control circuit 11 is a luminance signal Y and a color difference signal RY obtained from the digital camera processing circuit 7.
And BY are applied to the screen reduction circuit 14 via the low-pass filter 13. The screen reduction circuit 14 receives the luminance signal Y of each pixel and the color difference signals RY and BY from the digital camera processing circuit 7 according to the screen reduction control signal S21 sent from the follow-up signal processing circuit 15. As shown in FIG. 3, the display screen PIC is set to 32 × 32 small areas AR or 16
A process of dividing into 16 small areas AR is executed.

【0013】かくして画面縮小回路14から32×32個の
小領域AR又は16×16個の小領域ARに対応する色差信
号R−Y及びB−Yを飽和度/色相検出回路16に与え
ることにより色相信号HUE及び飽和度信号SATを画
像メモリ17に供給すると共に、輝度信号Yを直接画像
メモリ17に供給する。この場合画像メモリ17は32×
32ブロツク分のメモリエリアを有し、かくして画面縮小
回路14から1フイールド分の画素データが32×32個の
小領域又は16×16個の小領域に対応して送出される32×
32又は16×16ブロツク分の画像情報に圧縮して画像メモ
リ17に格納し、その結果一般的には1フイールド分の
画素についてのメモリ容量を用意する必要があるのに対
して、図1の場合は、これを一段と簡略化し得るように
なされている。
Thus, the screen reduction circuit 14 supplies the saturation / hue detection circuit 16 with the color difference signals RY and BY corresponding to 32 × 32 small areas AR or 16 × 16 small areas AR. The hue signal HUE and the saturation signal SAT are supplied to the image memory 17, and the luminance signal Y is directly supplied to the image memory 17. In this case, the image memory 17 is 32 ×
It has a memory area for 32 blocks, and thus pixel data for one field is transmitted from the screen reduction circuit 14 to 32 × 32 small areas or 16 × 16 small areas corresponding to 32 × 32.
Image information for 32 or 16 × 16 blocks is stored in the image memory 17 after being compressed, and as a result, it is generally necessary to prepare a memory capacity for one field pixel, whereas in FIG. In some cases, this can be further simplified.

【0014】飽和度/色相検出回路16は色差信号R−
Y及びB−Yを直交座標/極座標変換することにより色
相信号HUE及び飽和度信号SATを形成し、かくして
輝度信号Y、色相信号HUE及び飽和度信号SATによ
つて被写体としての人間顔モデルを人間が知覚できる視
覚刺激に基づいて被写体認識をする。因に一般に人間が
知覚できる視覚刺激は図2に示すように、L軸とこれに
直交するSH平面を有するいわゆるHLS系と呼ばれる
色座標系によつて表現される。L軸は明るさ(Lightnes
s )を表し、輝度信号Yに相当する。SH平面はL軸に
直交する極座標で表現される。SH平面において、Sは
飽和度(Saturation)を表し、L軸からの距離によつて
表現される。またHは色相(Hue )を表し、色差信号B
−Yの方向を0°としたときの角度によつて色相を表
す。
The saturation / hue detection circuit 16 uses the color difference signal R-
The hue signal HUE and the saturation signal SAT are formed by transforming Y and B-Y into rectangular coordinates / polar coordinates, and thus the human face model as a human subject is represented by the luminance signal Y, the hue signal HUE, and the saturation signal SAT. The subject is recognized based on the visual stimulus that can be perceived. Generally, a visual stimulus that can be perceived by humans is represented by a color coordinate system called an HLS system having an L axis and an SH plane orthogonal to the L axis as shown in FIG. L-axis is brightness (Lightnes
s) and corresponds to the luminance signal Y. The SH plane is represented by polar coordinates orthogonal to the L axis. On the SH plane, S represents the saturation, which is represented by the distance from the L axis. Further, H represents a hue (Hue), and the color difference signal B
The hue is represented by an angle when the −Y direction is 0 °.

【0015】このHLS系の立体は、光源が明るくなる
と色座標すなわちSH平面がL軸に沿つて上方向に行く
と共に、すべての色が白になる。このとき飽和度Sが減
少して行く。これに対して光源が暗くなると、色座標す
なわちSH平面がL軸に沿つて下方向に行くと共に、す
べての色が黒になる。このとき同時に飽和度Sも減少し
て行く。このようなHLS色座標系の特徴に基づいて、
飽和度S及び輝度Yは光源の明るさの影響を受け易く、
従つて被写体の特徴量を表すパラメータとしては最適と
は言い難いことが分る。これとは逆に色相Hは被写体固
有の特徴量を表現するものとして、光源の影響を受け難
い量であることが分る。
In the HLS system solid, when the light source becomes brighter, the color coordinates, that is, the SH plane goes upward along the L axis, and all the colors become white. At this time, the saturation S decreases. On the other hand, when the light source becomes dark, the color coordinates, that is, the SH plane goes downward along the L axis, and all the colors become black. At this time, the saturation S also decreases at the same time. Based on such characteristics of the HLS color coordinate system,
The saturation S and the brightness Y are easily affected by the brightness of the light source,
Therefore, it is difficult to say that the parameter representing the feature amount of the subject is optimal. On the contrary, it can be seen that the hue H is a quantity that is not easily influenced by the light source, as it expresses the characteristic quantity unique to the subject.

【0016】ただしそうであるといつても、被写体の色
がL軸上の近傍にあるような場合、すなわち白、黒、灰
色の場合は、色相Hの信号が情報としての意味をもたな
くなり、最悪の場合S/Nの悪い画像では白であるにも
かかわらず様々な色相Hのベクトルをもつている可能性
があることが分る。かかるHLS色座標系の性質を利用
して追従制御回路部11は被写体である人間顔モデルの
特徴を抽出し、特徴に変化が生じたときこれに追従する
ようにズーミング駆動モータ12を駆動することにより
結果としてビデオ信号S3として被写体の動きに追従し
てズーミングするような映像信号を得るようにする。
However, at any time, when the color of the subject is near the L axis, that is, when the color is white, black, or gray, the signal of the hue H has no meaning as information. It can be seen that, in the worst case, an image with poor S / N may have various hue H vectors even though the image is white. The tracking control circuit unit 11 extracts the characteristics of the human face model, which is the subject, by utilizing the property of the HLS color coordinate system, and drives the zooming drive motor 12 so as to follow the characteristics when the characteristics change. As a result, as the video signal S3, a video signal that follows the movement of the subject and is zoomed is obtained.

【0017】すなわち、画像メモリ17に記憶された被
写体ズーム用検出信号S4は、マイクロプロセツサ構成
の追従信号処理回路15から送出されるブロツク指定信
号S22をアドレス発生回路18に与えることにより、
図3に示すように、実質上画像メモリ17内に形成され
ている表示画面PICをxy直交座標(x、y)に基づ
いて所定の大きさの小領域ARに分割するようなアドレ
ス信号S23を画像メモリ17に供給させる。かくして
画像メモリ17の表示画面PICを構成する各ブロツク
のデータは小領域ARごとに読み出されて各小領域AR
ごとに1つの画像情報として評価される。
That is, the subject zoom detection signal S4 stored in the image memory 17 is given to the address generation circuit 18 by the block designation signal S22 sent from the follow-up signal processing circuit 15 of the microprocessor configuration.
As shown in FIG. 3, an address signal S23 that substantially divides the display screen PIC formed in the image memory 17 into small areas AR having a predetermined size based on the xy rectangular coordinates (x, y) is used. It is supplied to the image memory 17. Thus, the data of each block forming the display screen PIC of the image memory 17 is read out for each small area AR and
Each is evaluated as one image information.

【0018】この実施例の場合、表示画面PICはx方
向及びy方向にそれぞれ32個(又は16個)の小領域AR
に分割され、かくして32×32個(又は16×16個)の小領
域ARについて直交座標(x、y)の座標x=i、y=
jを指定することにより指定される小領域ARの画像情
報I(x=i、y=j)を読み出すことができる。この
ようにして画像メモリ17から小領域ARごとに読み出
される画像情報I(x=i、y=j)のうち、色相信号
HUE成分がゲート回路19を通つて肌色検出回路20
に与えられるのに対して、輝度信号Y成分が直接髪の毛
検出回路21に与えられる。
In the case of this embodiment, the display screen PIC has 32 (or 16) small areas AR in the x and y directions, respectively.
And thus the coordinates x = i, y = of the Cartesian coordinates (x, y) for the 32 × 32 (or 16 × 16) small areas AR.
By specifying j, the image information I (x = i, y = j) of the specified small area AR can be read. In the image information I (x = i, y = j) read out from the image memory 17 for each small area AR in this manner, the hue signal HUE component passes through the gate circuit 19 and the skin color detection circuit 20.
On the other hand, the luminance signal Y component is directly applied to the hair detection circuit 21.

【0019】肌色検出回路20は人間の顔モデルのうち
肌の画像部分を検出するもので、到来する各ブロツクの
色相信号HUE成分が所定の肌色範囲に入つていると
き、肌色候補検出出力S24を送出する。実際上色相信
号HUE成分のダイナミツクレンジは角度で0〜359 °
の範囲の値をとる。これに対して髪の毛検出回路21は
人間顔モデルの画像部分のうち髪の毛の領域を検出する
もので、この実施例の場合輝度信号Yのダイナミツクレ
ンジは数値0〜 255(8ビツト)で表現されており、各
画素の輝度信号Yが値50以下のときこれを黒として当該
画素が髪の毛領域にあると判定して、髪の毛候補検出信
号S25を追従信号処理回路15に送出する。
The skin color detection circuit 20 detects the image portion of the skin of the human face model. When the hue signal HUE component of each incoming block is within the predetermined skin color range, the skin color candidate detection output S24 is output. Send out. Actually, the dynamic range of the hue signal HUE component is 0 to 359 ° in angle.
Takes a value in the range. On the other hand, the hair detection circuit 21 detects the hair area in the image portion of the human face model. In this embodiment, the dynamic range of the luminance signal Y is represented by the numerical value 0 to 255 (8 bits). Therefore, when the luminance signal Y of each pixel is 50 or less, the pixel is determined to be black, it is determined that the pixel is in the hair region, and the hair candidate detection signal S25 is sent to the tracking signal processing circuit 15.

【0020】この実施例の場合、ゲート回路19に対し
てコンパレータ構成の色相ノイズゲート信号形成回路2
5が設けられ、画像メモリ17から各ブロツクごとに読
み出される飽和度信号SATを追従信号処理回路15か
ら送出されるノイズ判定信号S26と比較し、飽和度信
号SATが所定レベル以下のときゲート回路19を閉動
作させるゲート信号S27をゲート回路19に与えるこ
とにより、当該画素の色相信号HUE成分を肌色検出回
路20に入力させないようになされている。
In the case of this embodiment, the hue noise gate signal forming circuit 2 having a comparator configuration with respect to the gate circuit 19 is used.
5 is provided to compare the saturation signal SAT read from the image memory 17 for each block with the noise determination signal S26 sent from the tracking signal processing circuit 15. When the saturation signal SAT is below a predetermined level, the gate circuit 19 By supplying the gate signal S27 for closing the signal to the gate circuit 19, the hue signal HUE component of the pixel is not input to the skin color detection circuit 20.

【0021】因に飽和度/色相検出回路16において検
出された色相信号HUEがL軸の近傍(図2)にあると
き、このことは当該色相信号HUEは飽和度が小さいた
めにノイズに埋もれて情報としての意味をもつていない
おそれがあるので、このような意味をもたない色相信号
HUEをゲート回路19において除去する。以上の構成
において、追従信号処理回路15は図4に示すズーム処
理手順RT1を実行することにより、表示画面PIC上
に常にほぼ同じ大きさの顔画像を映出させるような処理
を実行する。
Incidentally, when the hue signal HUE detected by the saturation / hue detection circuit 16 is in the vicinity of the L axis (FIG. 2), this is buried in noise because the hue signal HUE has a low saturation. Since there is a possibility that it does not have meaning as information, the hue signal HUE having no meaning is removed in the gate circuit 19. In the above configuration, the follow-up signal processing circuit 15 executes the zoom processing procedure RT1 shown in FIG. 4 so that the face image of almost the same size is always displayed on the display screen PIC.

【0022】すなわち追従信号処理回路15はズーム処
理手順RT1に入ると、まずステツプSP1においてユ
ーザが顔のアツプシヨツト、バストシヨツト又は全身の
フルシヨツトを選択するのを待ち受け、このときのフレ
ーム番号FNをFN=1に選定し、かくして追従信号処
理回路15はビデオカメラシステムVCSを初期設定す
る。その後追従信号処理回路15はステツプSP2に移
つて顔抽出処理手順RT2に従つて顔領域を抽出し、フ
レーム番号FNをFN+1にインクリメントする。
That is, when the follow-up signal processing circuit 15 enters the zoom processing procedure RT1, it waits for the user to select the face up shot, bust shot or full body full shot at step SP1, and the frame number FN at this time is FN = 1. Therefore, the tracking signal processing circuit 15 initializes the video camera system VCS. After that, the follow-up signal processing circuit 15 moves to step SP2 to extract the face area according to the face extraction processing procedure RT2, and increments the frame number FN to FN + 1.

【0023】顔抽出処理手順RT2は図5及び図6に示
すように、画像メモリ17に取り込んだ各ブロツクに対
応する輝度信号Y、色相信号HUE及び飽和度信号SA
Tに基づいて得られる肌色検出信号S24及び髪の毛候
補検出信号S25から表示画面PIC上の画像の特徴を
判断して、常時表示画面PIC上に映出される人の顔モ
デルの大きさがほぼ同じになるような追従制御信号S5
をズーミング駆動モータ12に与える。
The face extraction processing procedure RT2 is, as shown in FIGS. 5 and 6, a luminance signal Y, a hue signal HUE, and a saturation signal SA corresponding to each block loaded in the image memory 17.
The feature of the image on the display screen PIC is judged from the skin color detection signal S24 and the hair candidate detection signal S25 obtained based on T, and the size of the face model of the person displayed on the display screen PIC is almost the same. Follow-up control signal S5
To the zooming drive motor 12.

【0024】すなわち追従信号処理回路15は、図5の
顔抽出処理手順RT2に入ると、まずステツプSP11
において表示画面PICを32×32個の小領域ARに分割
した後、各小領域ARに含まれる画素のブロツクについ
て、肌色検出回路20及び髪の毛検出回路21において
当該画素のブロツクの画像部分が肌色及び髪の毛である
か否かの検出をさせ、当該小領域が肌色領域候補である
とき当該肌色候補検出信号S24を取り込むと共に、当
該小領域ARが髪の毛領域候補であるとき髪の毛候補検
出信号S25を取り込む。
That is, when the follow-up signal processing circuit 15 enters the face extraction processing procedure RT2 of FIG. 5, first, at step SP11.
After dividing the display screen PIC into 32 × 32 small areas AR, in the block of pixels included in each small area AR, in the skin color detecting circuit 20 and the hair detecting circuit 21, the image portion of the block of the pixel is Whether or not the hair is detected is detected, and the skin color candidate detection signal S24 is acquired when the small area is a skin color area candidate, and the hair candidate detection signal S25 is acquired when the small area AR is a hair area candidate.

【0025】このようにしてステツプSP11の処理が
終わると、追従信号処理回路15には図3又は図7に示
すように髪の毛候補小領域ARA及び肌色候補小領域A
RBと判定された小領域ARの分布状態が得られる。こ
こで、図3のように、髪の毛候補小領域ARA及び肌色
小領域ARBがそれぞれ隙間なく隣接し、しかも髪の毛
候補小領域ARAの集まり及び肌色候補小領域ARBの
集まりの間にも隙間がないような候補の抽出結果が得ら
れると、この場合には被写体としての人間顔モデルの実
態に適合するような情報が得られていることを意味す
る。
When the processing of step SP11 is completed in this way, the follower signal processing circuit 15 indicates in the hair candidate small area ARA and the skin color candidate small area A as shown in FIG. 3 or FIG.
The distribution state of the small area AR determined as RB is obtained. Here, as shown in FIG. 3, the hair candidate small areas ARA and the skin color small areas ARB are adjacent to each other without any space, and there is no space between the hair candidate small areas ARA and the skin color candidate small areas ARB. If such a candidate extraction result is obtained, it means that in this case, information that matches the actual condition of the human face model as the subject has been obtained.

【0026】しかしながら通常は、被写体に対する光源
の向きや反射の仕方が一様ではないために、図7に示す
ように、髪の毛候補小領域ARA及び肌色候補小領域A
RBの集まりの中に空白領域はでき、これに加えて髪の
毛候補小領域ARBの集まり及び肌色候補小領域ARB
の集まり間においても空白小領域ができるような抽出結
果が得られることが多い。
However, since the direction of the light source with respect to the subject and the manner of reflection are not uniform in general, as shown in FIG. 7, the hair candidate small area ARA and the skin color candidate small area A are shown in FIG.
A blank area is formed in the collection of RBs, and in addition to this, a collection of hair candidate small areas ARB and a skin color candidate small area ARB.
It is often possible to obtain an extraction result in which a small blank area is formed even between groups of.

【0027】不連続領域の「併合ルール1」は『IF I
(i+p、j+q)=髪の毛領域候補、(p、q=+1
or−1or0、ただしp=q=0を除く) Then I
(i、j)=髪の毛領域候補』として併合する。この不
連続領域の「併合ルール1」は、アドレス(x=i、y
=j)領域において、当該小領域ARを中心として隣接
する小領域に髪の毛候補小領域ARAがあつた場合には
当該指定小領域(x=i、y=j)の画像情報I(i、
j)を髪の毛候補小領域ARAに併合することを意味す
る。
The "merging rule 1" of the discontinuous area is "IF I
(I + p, j + q) = hair region candidate, (p, q = + 1)
or-1or0, except p = q = 0) Then I
(I, j) = hair region candidate ”. The “merging rule 1” of this discontinuous area is the address (x = i, y
= J) area, if there is a hair candidate small area ARA in a small area adjacent to the small area AR, the image information I (i, i, i) of the specified small area (x = i, y = j) is obtained.
j) is merged into the hair candidate small area ARA.

【0028】例えば図7において空白小領域(x=6、
y=5)(△印を付して示す)を指定領域としたとき、
当該空白小領域(x=6、y=5)を囲む周囲の小領域
AR、すなわち(x=5、y=4)(x=6、y=4)
(x=7、y=4)(x=7、y=5)(x=7、y=
6)(x=6、y=6)(x=5、y=6)及び(x=
5、y=6)の小領域ARには髪の毛候補小領域ARA
1として髪の毛領域(x=6、y=4)が含まれている
ので、「併合ルール1」によつて当該空白小領域(x=
6、y=5)は髪の毛候補小領域ARA1の集まりに併
合される。また不連続領域の「併合ルール2」は、「併
合ルール1」を適用した後に適用され、その内容は『IF
I(i、j)=肌色領域候補andI(i+p、j+
q)=肌色領域候補(p、q=1or−1or0、ただ
しp=q=0を除く)ThenI(i、j)=肌色領域候
補』として併合する。
For example, in FIG. 7, a small blank area (x = 6,
When y = 5) (marked with a triangle) is the designated area,
A small area AR surrounding the blank small area (x = 6, y = 5), that is, (x = 5, y = 4) (x = 6, y = 4)
(X = 7, y = 4) (x = 7, y = 5) (x = 7, y =
6) (x = 6, y = 6) (x = 5, y = 6) and (x =
5, y = 6) small area AR has a hair candidate small area ARA
Since the hair area (x = 6, y = 4) is included as 1, the blank small area (x =
6, y = 5) is merged into a group of hair candidate small areas ARA1. The "merge rule 2" of the discontinuous area is applied after the "merge rule 1" is applied, and the content is "IF.
I (i, j) = skin color region candidate andI (i + p, j +
q) = skin color region candidate (p, q = 1 or-1 or 0, except p = q = 0) Then I (i, j) = skin color region candidate ”.

【0029】この不連続領域の「併合ルール2」は髪の
毛候補小領域ARAについて上述したと同様に、指定小
領域(x=i、y=j)についてこれに隣接する領域に
肌色領域候補があれば、当該指定された小領域(x=
i、y=j)の画像情報I(x=i、y=j)を肌色候
補小領域ARBであるとして併合する。例えば図7にお
いて空白小領域(x=6、y=6)(×印を付して示
す)を指定小領域としたとき、当該空白小領域(x=
6、y=6)を囲む周囲の小領域AR、すなわち(x=
5、y=5)(x=6、y=5)(x=7、y=5)
(x=7、y=6)(x=7、y=7)(x=6、y=
7)(x=5、y=7)及び(x=5、y=6)の小領
域ARには肌色候補小領域ARB1として肌色小領域
(x=7、y=7)が含まれているので、「併合ルール
2」によつて当該空白小領域(x=6、y=6)は肌色
候補小領域ARB1の集まりに併合される。
The "merging rule 2" of this discontinuous area is similar to that described above for the hair candidate small area ARA, and for the designated small area (x = i, y = j), there is a skin color area candidate in the area adjacent thereto. For example, the designated small area (x =
The image information I (x = i, y = j) of i, y = j) is merged as the skin color candidate small area ARB. For example, in FIG. 7, when the blank small area (x = 6, y = 6) (marked with an X) is designated as the designated small area, the blank small area (x =
6, y = 6) surrounding small area AR, that is, (x =
5, y = 5) (x = 6, y = 5) (x = 7, y = 5)
(X = 7, y = 6) (x = 7, y = 7) (x = 6, y =
7) The small area AR of (x = 5, y = 7) and (x = 5, y = 6) includes the small skin area (x = 7, y = 7) as the small skin area ARB1. Therefore, according to the “merging rule 2”, the blank small area (x = 6, y = 6) is merged into the set of skin color candidate small areas ARB1.

【0030】かくしてステツプSP12の不連続領域の
併合処理が終わると、図7に示すように、髪の毛候補小
領域ARA1の集まりの間に空白小領域があるために髪
の毛候補小領域ARA1の集まりが不連続であつたもの
が、図8に示すように併合領域ARA2によつて埋めて
行くことができる。肌色候補小領域ARB1についても
同様に、図7に示すように、肌色候補小領域ARB1の
集まりの間に空白があるために当該肌色候補小領域AR
B1が不連続であつたものが、図8に示すように当該空
白を併合肌色候補小領域ARB2によつて埋めることが
できる。
When the merge processing of the discontinuous areas of step SP12 is completed in this way, as shown in FIG. 7, there is a blank small area between the collection of hair candidate small areas ARA1 and therefore the collection of hair candidate small areas ARA1 is not complete. What is continuous can be filled with the merge area ARA2 as shown in FIG. Similarly for the skin color candidate small area ARB1, as shown in FIG. 7, since there is a space between the group of skin color candidate small areas ARB1, the skin color candidate small area AR is present.
When B1 is discontinuous, the blank can be filled with the merged skin color candidate small area ARB2 as shown in FIG.

【0031】追従信号処理回路15はステツプSP12
の処理が終了すると、ステツプSP13に移つて髪の毛
領域及び肌色領域の決定を「髪の毛領域の決定ルール
1」及び「肌色領域の決定ルール2」によつて決定す
る。「髪の毛領域の決定ルール1」は、『IF I(i、
j)=髪の毛領域候補 and I(i+p、j+q)=髪
の毛領域候補(p、q=+1or−1or0、ただしp=q
=0を除く) Then I(i、j)、I(i+p、j+
q)を髪の毛領域』として統合する。
The follow-up signal processing circuit 15 has a step SP12.
When the processing of (1) is completed, the process proceeds to step SP13 to determine the hair region and the skin color region by the "hair region determination rule 1" and the "skin color region determination rule 2". “Hair area determination rule 1” is “IF I (i,
j) = hair region candidate and I (i + p, j + q) = hair region candidate (p, q = + 1 or-1 or 0, where p = q
= 0 except) Then I (i, j), I (i + p, j +
q) as the hair area ”.

【0032】この「髪の毛領域の決定ルール1」は、ア
ドレス(x=i、y=j)の小領域において、当該小領
域を中心として隣接する小領域に髪の毛候補小領域があ
つた場合には当該指定領域(x=i、y=j)の画像情
報I(i、j)を髪の毛小領域群HRに統合することを
意味する。また「肌色領域の決定ルール2」は、『IF
I(i、j)=肌色領域候補 and I(i+p、j+
q)=肌色領域候補(p、q=+1or−1or0、ただし
p=q=0を除く) Then I(i、j)、I(i+
p、j+q)を肌色領域』として統合する。
This "hair region determination rule 1" is applied when a hair candidate small region is located in a small region adjacent to the small region of the address (x = i, y = j) with the small region as the center. This means that the image information I (i, j) of the designated area (x = i, y = j) is integrated into the small hair area group HR. In addition, "Skin color area determination rule 2" is "IF
I (i, j) = skin color region candidate and I (i + p, j +
q) = skin color region candidate (p, q = + 1or-1or0, except p = q = 0) Then I (i, j), I (i +
p, j + q) as the skin color region ”.

【0033】この「肌色領域の決定ルール2」は、髪の
毛候補小領域について上述したと同様に、指定小領域
(x=i、y=j)についてこれに隣接する領域に肌色
候補小領域があれば、当該指定された小領域(x=i、
y=j)の画像情報I(x=i、y=j)及び肌色候補
小領域がある隣接領域の画像情報を肌色小領域群FCに
統合する。
This "skin color region determination rule 2" is similar to that described above for the hair candidate small region, and for the designated small region (x = i, y = j), there is a skin color candidate small region adjacent to this. For example, the designated small area (x = i,
The image information I (x = i, y = j) of y = j) and the image information of the adjacent area having the skin color candidate small area are integrated into the skin color small area group FC.

【0034】そこで例えば上述したように「髪の毛領域
の併合ルール1」によつて髪の毛小領域に併合された△
印が付された領域(x=6、y=5)(図7)について
「髪の毛領域の決定ルール1」を適用すれば、小領域
(x=6、y=5)の周囲の小領域すなわち(x=5、
y=4)(x=6、y=4)(x=7、y=4)(x=
7、y=5)(x=7、y=6)(x=6、y=6)
(x=5、y=6)及び(x=5、y=5)の小領域に
は髪の毛候補小領域として髪の毛小領域(x=5、y=
5)、(x=5、y=4)、(x=6、y=4)(x=
7、y=4)及び(x=7、y=5)が含まれているの
で、領域(x=5、y=4)(x=6、y=4)(x=
7、y=4)(x=7、y=5)(x=6、y=5)及
び(x=5、y=5)が髪の毛小領域群FC1として統
合される。
Then, for example, as described above, the data is merged into the small hair region according to "merging rule 1 of the hair region".
By applying the “rule of hair region determination rule 1” to the marked area (x = 6, y = 5) (FIG. 7), the small area around the small area (x = 6, y = 5), that is, (X = 5,
y = 4) (x = 6, y = 4) (x = 7, y = 4) (x =
7, y = 5) (x = 7, y = 6) (x = 6, y = 6)
In the small areas of (x = 5, y = 6) and (x = 5, y = 5), small hair areas (x = 5, y =
5), (x = 5, y = 4), (x = 6, y = 4) (x =
7, y = 4) and (x = 7, y = 5) are included, the region (x = 5, y = 4) (x = 6, y = 4) (x =
7, y = 4) (x = 7, y = 5) (x = 6, y = 5) and (x = 5, y = 5) are integrated as a hair sub-region group FC1.

【0035】また例えば上述したように「肌色領域の併
合ルール2」によつて肌色小領域に併合された×印が付
された小領域(x=6、y=6)について「肌色領域の
決定ルール2」を適用すれば、小領域(x=6、y=
6)の周囲の小領域、すなわち(x=5、y=5)(x
=6、y=5)(x=7、y=5)(x=7、y=6)
(x=7、y=7)(x=6、y=7)(x=5、y=
7)及び(x=5、y=6)の小領域には肌色領域候補
として肌色小領域(x=7、y=6)、(x=7、y=
7)及び(x=6、y=7)が含まれているので、領域
(x=6、y=6)(x=7、y=6)(x=7、y=
7)及び(x=6、y=7)が肌色小領域群FC1とし
て統合される。
Further, for example, as described above, for the small area (x = 6, y = 6) marked with an X, which is merged into the small skin color area according to the "skin color area merging rule 2", "skin color area determination" is performed. Rule 2 ”is applied, a small area (x = 6, y =
6) around the small area, that is, (x = 5, y = 5) (x
= 6, y = 5) (x = 7, y = 5) (x = 7, y = 6)
(X = 7, y = 7) (x = 6, y = 7) (x = 5, y =
7) and (x = 5, y = 6) small areas as skin color area candidates (x = 7, y = 6), (x = 7, y =
7) and (x = 6, y = 7) are included, the region (x = 6, y = 6) (x = 7, y = 6) (x = 7, y =
7) and (x = 6, y = 7) are integrated as the skin color small area group FC1.

【0036】このようにしてステツプSP12及びSP
13において不連続小領域の併合、並びに髪の毛小領域
及び肌色小領域の統合処理をすることにより、表示画面
PICは、図8に示すように、小領域群HR1及びHR
2が髪の毛領域として統合され、かつ小領域群FC1及
びFC2が肌色領域として統合される。その後追従信号
処理回路15は図6のステツプSP14に移つて、統合
された髪の毛領域HR1及びHR2並びに肌色領域FC
1及びFC2の面積Area Hair並びにArea Skinを算出
する。図8の表示画面PICの場合、髪の毛領域HR1
の面積Area Hair HR1はこれに含まれる領域の総数
としてArea Hair HR1=45と算出され、同様にし
て髪の毛領域群HR2の面積はArea Hair HR2=1
4、肌色領域群FC1の面積はArea Skin FC1=6
6、肌色領域群FC2の面積はArea Skin FC2=1
0としても算出される。
In this way, steps SP12 and SP
As shown in FIG. 8, the display screen PIC displays the small area groups HR1 and HR by merging the discontinuous small areas and integrating the small hair area and the skin color small area in FIG.
2 is integrated as a hair area, and the small area groups FC1 and FC2 are integrated as a skin color area. After that, the tracking signal processing circuit 15 moves to step SP14 of FIG. 6 to integrate the hair regions HR1 and HR2 of the hair and the skin color region FC.
Area of 1 and FC2 Area Hair and Area Calculate the Skin. In the case of the display screen PIC of FIG. 8, the hair area HR1
Area of Hair HR1 is Area as the total number of areas included in this Hair HR1 = 45 is calculated, and in the same way, the area of the hair region group HR2 is Area. Hair HR2 = 1
4. Area of skin color area group FC1 is Area Skin FC1 = 6
6. Area of skin color area group FC2 is Area Skin FC2 = 1
It is also calculated as 0.

【0037】続いて追従信号処理回路15はステツプS
P15に移つて顔領域を決定する処理を「顔領域決定ル
ール1」及び「顔領域決定ルール2」の条件を満たすこ
とを条件として判定する。「顔領域決定ルール1」は1
つの髪の毛小領域群と1つの肌色小領域群とを1組の領
域と考えて、当該1つの髪の毛領域群の面積Area Hair
と1つの肌色小領域群の面積Area Skinとの面積比が、
『IF (Area Hair) /(Area Skin) <5and (Area
Hair) /(Area Skin) >1/5 Then 顔領域候補で
ある』と決定する。
Then, the follow-up signal processing circuit 15 executes step S.
The process proceeds to P15 to determine the face area on condition that the conditions of "face area determination rule 1" and "face area determination rule 2" are satisfied. "Face region determination rule 1" is 1
Considering one hair small area group and one skin color small area group as one area, the area Area of the one hair area group Hair
And area of one skin color small area group Area The area ratio with Skin is
`` IF (Area Hair) / (Area Skin) <5and (Area
Hair) / (Area Skin)> 1/5 Then it is a face area candidate ”.

【0038】この「顔決定ルール1」は、髪の毛小領域
群と肌色小領域群の面積比が5倍以内かつ1/5 倍以上で
あれば、この小領域群の組は顔領域である可能性がある
と判定する。このような判定をするのは、表示画面PI
C上輝度レベルが暗い小領域が多数あるような画像(例
えば背景に暗幕がある場合などのように)、この暗い小
領域をすべて髪の毛領域として判断するおそれがあるの
でこれを防止し、同様にして肌色の小領域が顔の肌色以
外に大量に存在するような場合には顔領域の判断を正し
くできなくなるおそれがあり、かかる誤判断を防止する
ものである。
According to the "face determination rule 1", if the area ratio of the hair small area group and the skin color small area group is within 5 times and 1/5 times or more, the set of the small area groups can be the face area. Determined to be It is the display screen PI that makes such a determination.
In an image in which there are a large number of small areas with a dark brightness level on C (for example, when there is a dark curtain in the background), all of these dark small areas may be judged as hair areas, so this is prevented, and the same applies. If there are a large number of small flesh-colored areas other than the flesh-colored area of the face, it may not be possible to correctly determine the face area, and this erroneous determination is prevented.

【0039】また「顔領域決定ルール2」は、『IF I
(i、j)=髪の毛領域 and I(i、j−1)=肌色
領域 Then Neighbor=Neighbor+1 IF Neighbor>
3 Then 髪の毛領域+肌色領域は顔である』と決定す
る。この「顔領域決定ルール2」は、画面の上側が髪の
毛小領域群であり(すなわちI(i、j)であり)、か
つ下側が肌色小領域群であり(すなわちI(i、j−
1)の領域であり)、しかもこれら髪の毛小領域群及び
肌色小領域群が最低3つの小領域で接しているという条
件があれば、この髪の毛小領域群及び肌色小領域群の組
を顔であると判断する。
The "face area determination rule 2" is "IF I
(I, j) = hair area and I (i, j-1) = skin color area Then Neighbor = Neighbor + 1 IF Neighbor>
3 Then the hair area + skin color area is the face. " In this "face area determination rule 2", the upper side of the screen is the small hair area group (that is, I (i, j)), and the lower side is the skin color small area group (that is, I (i, j-).
1)), and if there is a condition that the hair small area group and the skin color small area group are in contact with each other in at least three small areas, the set of the hair small area group and the skin color small area group is formed on the face. Judge that there is.

【0040】この「顔領域決定ルール2」を適用するこ
とにより、図8の表示画面PICのうち、一対の小領域
群、すなわち髪の毛小領域群HR1及び肌色小領域群F
C1の組は8つの小領域で接しているのでルール2を満
たしており、従つて1つの顔であると判断する。これに
対して一対の領域群、すなわち髪の毛小領域群HR2及
び肌色小領域群FC2の組は接している小領域がないの
で、ルール2の条件を満たしておらず、従つて顔領域の
判断から除外される。
By applying this "face area determination rule 2", a pair of small area groups, that is, a hair small area group HR1 and a skin color small area group F in the display screen PIC of FIG.
Since the set C1 is in contact with eight small areas, it satisfies the rule 2, and thus it is determined that the face is one face. On the other hand, since there is no small area in contact with the pair of area groups, that is, the set of the hair small area group HR2 and the skin color small area group FC2, the condition of Rule 2 is not satisfied, and accordingly, the face area is determined. Excluded.

【0041】かくして追従信号処理回路15は顔の抽出
処理を終了し、ステツプSP16から図4のメインルー
チンに戻る。続いて追従信号処理回路15は図4のメイ
ンルーチンにおいてステツプSP3に移つてステツプS
P2において決定した顔領域の面積Area Faceを「髪の
毛領域+肌色領域」として求める。かくして追従信号処
理回路15はフレーム番号FN=1についての顔領域の
面積を検出し、その後ステツプSP4に移つて現在選定
されたシヨツトの種類に対応する顔の基準面積Area St
d を顔面積テーブルから引いて来る。
Thus, the follow-up signal processing circuit 15 finishes the face extraction processing, and returns from the step SP16 to the main routine of FIG. Then, the tracking signal processing circuit 15 moves to step SP3 in the main routine of FIG.
Area of the face area determined in P2 Area Find Face as "hair area + skin color area". Thus, the follow-up signal processing circuit 15 detects the area of the face area for the frame number FN = 1, and then moves to step SP4, where the reference area Area of the face corresponding to the currently selected type of shot area. St
D is drawn from the face area table.

【0042】ここで顔面積テーブルは2種類の画面分割
方法、すなわち32×32ブロツク及び16×16ブロツクそれ
ぞれについて、アツプシヨツトモードが選定されたとき
の基準面積Area Std =400 及び100 に設定されてお
り、バストシヨツトが選定されたときの基準面積Area
Std =100 及び25に選定され、フルシヨツトが選択され
たときの基準面積Area Std が25及び7に選定されてい
る。続いて追従信号処理回路15はステツプSP5に移
つて基準顔面積と現在の被写体の検出顔面積とを比較
し、その差が0になるような追従制御信号S5をズーム
駆動モータ12に供給する。
Here, the face area table is a reference area Area when the upshot mode is selected for two types of screen division methods, that is, 32 × 32 blocks and 16 × 16 blocks, respectively. Std is set to 400 and 100, and the standard area Area when the bust shot is selected
Standard area Area when Strud = 100 and 25 is selected, and Furushoto is selected Std has been selected for 25 and 7. Subsequently, the follow-up signal processing circuit 15 proceeds to step SP5 to compare the reference face area with the current detected face area of the subject, and supplies the zoom drive motor 12 with the follow-up control signal S5 such that the difference becomes zero.

【0043】そのとき追従制御信号S5による制御量Co
ntrol Signalは、画面分割の仕方に基づいてルール1及
びルール2のように決められている。ルール1は画面分
割が16×16ブロツクの場合で、『IF画面分割=16×16
Then Control Signal=(Area Face−Area Std )の
ように、制御量Control Signalとして検出顔面積Area
Faceと基準顔面積Area Std との差の値を4倍した値』
として求められる。これに対してルール2は32×32ブロ
ツクに画面分割した場合の制御量を指定するもので、
『IF画面分割=32×32 Then Control Signal=(Area
Face−Area Std )のように、制御量Control Signalと
して検出顔面積Area Faceと基準顔面積Area Std との
差の値』に規定されている。
At this time, the control amount Co by the follow-up control signal S5
ntrol Signal is rule 1 and
And rule 2 are decided. Rule 1 is for screen
If the ratio is 16x16 block, "IF screen division = 16x16
 Then Control Signal = (Area Face-Area Std)
, The detected face area Area as the controlled variable Control Signal
Face and standard face area Area Value that is 4 times the value of the difference from Std ”
Is required as. On the other hand, rule 2 is 32 × 32 block
It specifies the control amount when the screen is divided into
"IF screen division = 32 x 32 Then Control Signal = (Area
Face-Area Std) and the controlled variable Control Signal
Detected face area Area Face and standard face area Area With Std
Difference value ”.

【0044】かくして追従信号処理回路15はフレーム
番号FN=1についてのズーム処理を終了し、続いて上
述のステツプSP2に戻つて次のフレームFN=FN+
1についてのズーム処理を繰り返し実行する。追従信号
処理回路15がこのようなズーム処理を繰り返すと、ズ
ーミング駆動モータ12はレンズブロツク部1のレンズ
2を現在の検出顔面積の値がステツプSP4において顔
面積テーブルから引いた基準顔面積Area Std とほぼ同
じ値にズーム制御され、かくして表示画面PIC上に映
出される顔画像の大きさは常に基準顔面積Area Std に
相当する大きさを維持することになる。
Thus, the follow-up signal processing circuit 15 finishes the zoom process for the frame number FN = 1, and then returns to the above-mentioned step SP2 and the next frame FN = FN +.
The zoom process for 1 is repeatedly executed. When the tracking signal processing circuit 15 repeats such zoom processing, the zooming drive motor 12 causes the zooming drive motor 12 to subtract the current detected face area value of the lens 2 of the lens block unit 1 from the face area table at step SP4. The zoom is controlled to a value almost the same as Std, and thus the size of the face image displayed on the display screen PIC is always the reference face area Area. It will maintain the size equivalent to Std.

【0045】以上の構成によれば、被写体としての顔モ
デルがカメラに近づいて来たり、カメラから離れて行つ
たりしたような場合でも、表示画面PIC上に常に同じ
大きさの顔画像を映出することができるようにレンズブ
ロツクのレンズ2をズーム制御することができ、かくす
るにつき1眼レフカメラにおいて用いられているような
距離センサのような手段を用意する必要性をなくし得、
この分全体としての構成が一段と簡易なビデオカメラシ
ステムを実現できる。
With the above arrangement, even when the face model as the subject approaches the camera or moves away from the camera, the face image of the same size is always displayed on the display screen PIC. The lens 2 of the lens block can be zoom-controlled so that it can be taken out, thus eliminating the need to provide means such as a distance sensor as used in single-lens reflex cameras,
Therefore, it is possible to realize a video camera system having a much simpler configuration as a whole.

【0046】なお上述の実施例においては、ズーミング
手段としてレンズブロツク部1のレンズ2をズーミング
駆動モータ12によつて光学的にズーム処理するように
した場合について述べたが、ズーミング手段としてはこ
れに限らず、例えばレンズブロツク部1の固体撮像素子
4から得られる撮像信号S1に基づいて得たデイジタル
ビデオ信号をフレームメモリに取込み、当該フレームメ
モリを追従信号処理回路15から得られる追従制御信号
S5に対応する読出し方で読み出すことにより実効的に
画像を拡大又は縮小したような画像を得ることによりズ
ーム処理をするようにしても、上述の場合と同様の効果
を得ることができる。
In the above-described embodiment, the case where the lens 2 of the lens block unit 1 is optically zoomed by the zooming drive motor 12 as the zooming means has been described. Not limited to this, for example, a digital video signal obtained based on the image pickup signal S1 obtained from the solid-state image pickup device 4 of the lens block unit 1 is taken into a frame memory, and the frame memory is converted into a follow-up control signal S5 obtained from the follow-up signal processing circuit 15. Even if the zoom process is performed by obtaining an image that is actually enlarged or reduced by reading by the corresponding reading method, the same effect as in the above case can be obtained.

【0047】[0047]

【発明の効果】上述のように本発明によれば、小領域内
の被写体画像部の色特性に基づいて、被写体画像候補小
領域を統合して被写体画像部の検出領域として決定し、
その大きさを基準の大きさと一致するように撮像手段を
ズーミング動作させることにより、一段と簡易な構成に
よつて常に同じ大きさの被写体画像部の映像を映出でき
るような映像信号追尾方法及びビデオカメラシステムを
容易に実現できる。
As described above, according to the present invention, the subject image candidate small areas are integrated and determined as the detection area of the subject image portion based on the color characteristics of the subject image portion in the small area.
By performing the zooming operation of the image pickup means so that the size thereof matches the reference size, a video signal tracking method and a video that can always display a video image of a subject image part having the same size with a simpler configuration. A camera system can be easily realized.

【図面の簡単な説明】[Brief description of drawings]

【図1】図1は本発明によるビデオカメラシステムの一
実施例を示すブロツク図である。
FIG. 1 is a block diagram showing an embodiment of a video camera system according to the present invention.

【図2】図2は視覚刺激を表すHLS色座標系の説明に
供する略線図である。
FIG. 2 is a schematic diagram for explaining an HLS color coordinate system that represents a visual stimulus.

【図3】図3は小領域に分割することにより画像情報を
得るようにした表示画面PICを示す略線図である。
FIG. 3 is a schematic diagram showing a display screen PIC in which image information is obtained by dividing it into small areas.

【図4】図4はズーム処理手順を示すフローチヤートで
ある。
FIG. 4 is a flow chart showing a zoom processing procedure.

【図5】図5は顔抽出処理手順を示すフローチヤートで
ある。
FIG. 5 is a flow chart showing a face extraction processing procedure.

【図6】図6は図5に続いて顔抽出処理手順を示すフロ
ーチヤートである。
FIG. 6 is a flowchart showing a face extraction processing procedure following FIG. 5;

【図7】図7は検出された髪の毛領域及び肌色領域をも
つ表示画面PICを示す略線図である。
FIG. 7 is a schematic diagram showing a display screen PIC having a detected hair region and skin color region.

【図8】図8は図7の髪の毛領域及び肌色領域を併合及
び統合処理してなる表示画面PICを示す略線図であ
る。
8 is a schematic diagram showing a display screen PIC obtained by merging and integrating the hair region and the skin color region of FIG. 7.

【符号の説明】[Explanation of symbols]

VCS……ビデオカメラシステム、1……レンズブロツ
ク部、2……レンズ、3……アイリス、4……固体撮像
素子、5……信号分離/自動利得調整回路部、7……デ
イジタルカメラ処理回路、11……追従制御回路部、1
2……ズーミング駆動モータ、14……画面縮小回路、
15……追従信号処理回路、16……飽和度/色相検出
回路、17……画像メモリ、18……アドレス発生回
路、20……肌色検出回路、21……髪の毛検出回路。
VCS ... video camera system, 1 ... lens block section, 2 ... lens, 3 ... iris, 4 ... solid-state image sensor, 5 ... signal separation / automatic gain adjustment circuit section, 7 ... digital camera processing circuit , 11 ... Tracking control circuit section, 1
2 ... Zooming drive motor, 14 ... Screen reduction circuit,
15 ... Follow-up signal processing circuit, 16 ... Saturation / hue detection circuit, 17 ... Image memory, 18 ... Address generation circuit, 20 ... Skin color detection circuit, 21 ... Hair detection circuit.

フロントページの続き (56)参考文献 特開 平2−87876(JP,A) 特開 平3−77927(JP,A) 特開 昭63−223974(JP,A) 特開 平4−60769(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 5/222 - 5/247 Continuation of the front page (56) Reference JP-A-2-87876 (JP, A) JP-A-3-77927 (JP, A) JP-A-63-223974 (JP, A) JP-A-4-60769 (JP , A) (58) Fields investigated (Int.Cl. 7 , DB name) H04N 5/222-5/247

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】ズーミング動作する撮像手段から得られる
撮像信号に基づいて、被写体画像部を含む映像を表示画
面に表示させる出力映像信号を形成する映像信号追尾方
法であつて、上記表示画面に表示すべき上記映像を複数の 小領域に分
割し、上記小領域に対応する上記撮像信号の色特性に基づい
て、上記被写体画像部の候補となる被写体画像候補 小領
域を抽出し、 上記被写体画像候補小領域の集まりの間に空白小領域が
生じたとき、当該空白小領域のうち上記被写体画像候補
小領域と隣接する当該空白小領域を上記被写体画像候補
小領域と併合して上記被写体画像部の検出領域として決
定し、上記検出領域の大きさが予め決められている基準の大き
さと 一致するように上記撮像手段をズーミング動作させ
ことにより、上記表示画面上に常時上記基準の大きさ
に対応する大きさの上記被写体画像部を表示させること
を特徴とする映像信号追尾方法。
1. A video signal tracking method for forming an output video signal for displaying an image including a subject image portion on a display screen based on an image pickup signal obtained from an image pickup means which performs a zooming operation, which is displayed on the display screen. The image to be divided is divided into a plurality of small areas, and based on the color characteristics of the image pickup signal corresponding to the small areas.
Te extracts object image candidate small area serving as candidates of the subject image portion, the blank subregion during collection of the subject image candidate subregion
When it occurs, the subject image candidate in the blank small area
The blank small area adjacent to the small area is the subject image candidate.
The size of the detection area is determined as a detection area of the subject image portion in combination with a small area, and the size of the detection area is a predetermined reference size.
By performing the zooming operation of the image pickup means so as to coincide with the above, the size of the reference is constantly displayed on the display screen.
A method for tracking a video signal, characterized in that the subject image portion having a size corresponding to is displayed .
【請求項2】ズーミング動作する撮像手段から得られる
撮像信号に基づいて、被写体画像部を含む映像を表示画
面に表示させる出力映像信号を形成するビデオカメラシ
ステムであつて、上記表示画面に表示すべき上記映像を 複数の小領域に分
割する手段と、上記小領域に対応する上記撮像信号の色特性に基づい
て、上記被写体画像部の候補となる被写体画像候補 小領
域を抽出する手段と、 上記被写体画像候補小領域の集まりの間に空白小領域が
生じたとき、当該空白小領域のうち上記被写体画像候補
小領域と隣接する当該空白小領域を上記被写体画像候補
小領域と併合して上記被写体画像部の検出領域として決
定する手段と、上記検出領域の大きさが予め決められている基準の大き
さと 一致するように上記撮像手段をズーミング動作させ
ことにより、上記表示画面上に常時上記基準の大きさ
に対応する大きさの上記被写体画像部を表示させる手段
を具えることを特徴とするビデオカメラシステム。
2. A video camera system for forming an output video signal for displaying an image including a subject image portion on a display screen based on an image pickup signal obtained from an image pickup means which performs a zooming operation, which is displayed on the display screen. means for dividing said image into a plurality of small areas to be, based on the color characteristics of the image pickup signal corresponding to the small region
Means for extracting a subject image candidate small area that is a candidate for the subject image section, and a blank small area between the group of subject image candidate small areas.
When it occurs, the subject image candidate in the blank small area
The blank small area adjacent to the small area is the subject image candidate.
Means for merging with a small area to determine as a detection area of the subject image portion, and a reference size for which the size of the detection area is predetermined
By performing the zooming operation of the image pickup means so as to coincide with the above, the size of the reference is constantly displayed on the display screen.
For displaying the subject image portion having a size corresponding to
Video camera system which is characterized in that it comprises and.
JP32265592A 1992-11-07 1992-11-07 Video signal tracking method and video camera system Expired - Fee Related JP3399995B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP32265592A JP3399995B2 (en) 1992-11-07 1992-11-07 Video signal tracking method and video camera system
KR1019930023646A KR100276681B1 (en) 1992-11-07 1993-11-06 Video camera system
US08/763,426 US5812193A (en) 1992-11-07 1996-12-11 Video camera system which automatically follows subject changes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32265592A JP3399995B2 (en) 1992-11-07 1992-11-07 Video signal tracking method and video camera system

Publications (2)

Publication Number Publication Date
JPH06153047A JPH06153047A (en) 1994-05-31
JP3399995B2 true JP3399995B2 (en) 2003-04-28

Family

ID=18146124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32265592A Expired - Fee Related JP3399995B2 (en) 1992-11-07 1992-11-07 Video signal tracking method and video camera system

Country Status (1)

Country Link
JP (1) JP3399995B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1085366B1 (en) * 1999-09-14 2004-09-15 Kabushiki Kaisha Toshiba Face image photographing apparatus and face image photographing method
CN100448267C (en) 2004-02-06 2008-12-31 株式会社尼康 Digital camera
JP2007251429A (en) * 2006-03-14 2007-09-27 Omron Corp Moving image imaging unit, and zoom adjustment method
JP4110178B2 (en) 2006-07-03 2008-07-02 キヤノン株式会社 IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP4655054B2 (en) 2007-02-26 2011-03-23 富士フイルム株式会社 Imaging device
JP2010041365A (en) * 2008-08-05 2010-02-18 Nikon Corp Imaging apparatus
JP5539045B2 (en) 2010-06-10 2014-07-02 キヤノン株式会社 Imaging apparatus, control method therefor, and storage medium

Also Published As

Publication number Publication date
JPH06153047A (en) 1994-05-31

Similar Documents

Publication Publication Date Title
JP3487436B2 (en) Video camera system
KR100274999B1 (en) Human face tracking system
KR100276681B1 (en) Video camera system
US6476868B1 (en) Image pickup apparatus provided with enlargement process means for enlarging image signals output from an image pickup device
US5631697A (en) Video camera capable of automatic target tracking
US7725019B2 (en) Apparatus and method for deciding in-focus position of imaging lens
KR100312608B1 (en) Video Signal Tracking Processing System
EP1628465A1 (en) Image capture apparatus and control method therefor
CN105740757A (en) Zoom Control Device, Imaging Apparatus, Control Method Of Zoom Control Device, And Recording Medium
JP2007306416A (en) Method for displaying face detection frame, method for displaying character information, and imaging apparatus
US7614559B2 (en) Apparatus and method for deciding in-focus position of imaging lens
CN105744149A (en) Zoom control device, imaging apparatus, control method of zoom control device
US7466356B2 (en) Method and apparatus for setting a marker on an object and tracking the position of the object
CN102843510A (en) Imaging device and distance information detecting method
WO2010073619A1 (en) Image capture device
US6100927A (en) Photographing apparatus having a blurring correcting apparatus
CN111246093B (en) Image processing method, image processing device, storage medium and electronic equipment
JPH09149311A (en) Image pickup device
JP3399995B2 (en) Video signal tracking method and video camera system
JPH06268894A (en) Automatic image pickup device
US6115067A (en) Apparatus for maintaining object image size during zooming
JP5062095B2 (en) Imaging device
JP2603212B2 (en) Automatic tracking device in camera
JP3610604B2 (en) Subject tracking device and tracking method for video camera
JP2001211354A (en) Electronic camera

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080221

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090221

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100221

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100221

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110221

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120221

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees