JP2947037B2 - Video camera - Google Patents

Video camera

Info

Publication number
JP2947037B2
JP2947037B2 JP5321185A JP32118593A JP2947037B2 JP 2947037 B2 JP2947037 B2 JP 2947037B2 JP 5321185 A JP5321185 A JP 5321185A JP 32118593 A JP32118593 A JP 32118593A JP 2947037 B2 JP2947037 B2 JP 2947037B2
Authority
JP
Japan
Prior art keywords
subject
area
information
signal
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP5321185A
Other languages
Japanese (ja)
Other versions
JPH07154665A (en
Inventor
宏行 北村
裕美 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP5321185A priority Critical patent/JP2947037B2/en
Publication of JPH07154665A publication Critical patent/JPH07154665A/en
Application granted granted Critical
Publication of JP2947037B2 publication Critical patent/JP2947037B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、被写体の画像が常時同
一の大きさになるようにズームレンズの倍率の可変制御
が可能なカメラ一体型VTR(いわゆるビデオカメラ)
に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera-integrated VTR (so-called video camera) capable of variably controlling the magnification of a zoom lens so that an image of a subject always has the same size.
It is about.

【0002】[0002]

【従来の技術】ビデオカメラで被写体の動きに無関係に
常に、同じ大きさの被写体画像を得るように撮像レンズ
のズーム制御を行うことは困難であった。
2. Description of the Related Art It has been difficult to perform zoom control of an image pickup lens so that a video camera always obtains a subject image of the same size regardless of the movement of the subject.

【0003】即ち、例えば、子供を被写体として運動会
の徒競走のスタートからゴールまでを映す場合、走って
くる子供の大きさはスタート時からゴール時まで徐々に
変化し、次第に大きく映る。このとき、子供にピントを
常に合わせておくことは可能であるが、モニタ画面内に
おいて子供の画像を常に同じ大きさに保つという撮影を
継続するズーム制御を行うことが困難であった。
That is, for example, when a child's subject is taken as an image of the athletic meet from start to finish, the size of the running child changes gradually from the start to the finish and gradually becomes larger. At this time, it is possible to keep the child in focus at all times, but it has been difficult to perform zoom control to keep shooting the child's image at the same size on the monitor screen.

【0004】このため、被写体の動きに無関係に常に同
じ大きさの被写体画像を得るように撮像レンズのズーム
制御が可能なビデオカメラが求められていた。
For this reason, there has been a demand for a video camera capable of controlling the zoom of the imaging lens so as to always obtain a subject image of the same size regardless of the movement of the subject.

【0005】即ち、撮影した被写体に係る映像信号を1
フレーム前後夫々記憶するメモリと、モニタ画面内にお
ける被写体画像の大きさを検出する手段及び相前後する
フレーム間における被写体画像の動きを検出する手段と
を持ち、この動き検出手段において検出された被写体画
像の動きの変化量及びその方向(動きベクトル)から被
写体の大きさの変化を検出し、この大きさの変化に対応
してズームレンズの倍率を可変制御する制御信号発生手
段を持つビデオカメラが提案されていた(例えば特開平
5−75908号)。
That is, the video signal relating to the photographed subject is 1
A memory for storing the subject image before and after the frame, a unit for detecting the size of the subject image in the monitor screen, and a unit for detecting the motion of the subject image between successive frames; A video camera having control signal generating means for detecting a change in the size of a subject from the amount of change in the motion of the subject and its direction (motion vector) and variably controlling the magnification of the zoom lens in accordance with the change in the size is proposed. (For example, JP-A-5-75908).

【0006】これにより、被写体の動きに無関係に常
に、同じ大きさの被写体画像を得るように撮像レンズの
ズーム制御が可能なビデオカメラを得ることができた。
As a result, it is possible to obtain a video camera capable of controlling the zoom of the imaging lens so as to always obtain a subject image of the same size irrespective of the movement of the subject.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上記し
たビデオカメラは被写体の動きに無関係に常に同じ大き
さの被写体画像を得るようにズームレンズの倍率の可変
制御を行うことが可能ではあるが、次の場合には、常に
同じ大きさの被写体画像が得られない問題があった。
However, the above-mentioned video camera can perform variable control of the magnification of the zoom lens so as to always obtain a subject image of the same size regardless of the movement of the subject. In the case of, there is a problem that a subject image of the same size cannot always be obtained.

【0008】即ち、上記したビデオカメラはモニタ画面
内の特定部分にカーソルを移動してその部分の座標
(X,Y)及び輝度情報を登録(記憶)することによ
り、この座標(X,Y)及び輝度情報を被写体画像とし
て処理するものである。このために、この座標(X,
Y)領域に上記した輝度情報と略同一の輝度情報を有し
かつ異なる色彩(例えば元の被写体画像の色彩は「白」
であるが、「白」に近い「クリーム色」)の他の画像が
瞬時に入れ替わった場合でも、この新たに入れ替わった
画像を元の被写体画像として誤認識してしまう虞れがあ
り、従って、被写体の動きに無関係に常に、同じ大きさ
の被写体画像を得るように撮像レンズのズーム制御を行
うことができない場合があった。
That is, the above-mentioned video camera moves the cursor to a specific portion on the monitor screen and registers (stores) the coordinates (X, Y) and luminance information of the portion, thereby obtaining the coordinates (X, Y). And brightness information as a subject image. For this purpose, the coordinates (X,
Y) The area has substantially the same luminance information as the above-described luminance information and has a different color (for example, the color of the original subject image is “white”).
However, even if another image that is “cream” close to “white” is instantaneously replaced, the newly replaced image may be erroneously recognized as the original subject image. In some cases, zoom control of the imaging lens cannot be performed so as to always obtain a subject image of the same size regardless of the movement of the subject.

【0009】[0009]

【課題を解決するための手段】よって、本発明は上記し
た課題を解決するため、以下の構成のビデオカメラを提
供するものである。
SUMMARY OF THE INVENTION Accordingly, the present invention provides a video camera having the following configuration to solve the above-mentioned problems.

【0010】撮像した被写体に係る画像を被写体領域と
それ以外の領域とに2値化する2値化処理手段と、前記
被写体領域に係る2値画像信号をフィル処理するフィル
処理手段と、前記フィル処理手段から出力するフィル処
理画像信号における前記被写体領域の面積情報信号及び
重心位置情報信号を夫々出力するデータ算出手段と、前
記面積情報信号及び重心位置情報信号、前記被写体領域
に係る色情報信号を夫々更新保持すると共に、保持した
前記色情報信号及び重心位置情報信号を前記2値化処理
手段及びフィル処理手段に夫々出力し、初期設定された
面積情報信号を基準として、これと更新保持した面積情
報信号との差に基づく制御信号を出力する制御信号発生
手段と、前記制御信号に基づいてズームレンズの倍率を
可変制御するズームレンズ駆動制御手段とを備えたこと
を特徴とするビデオカメラ。
[0010] Binarization processing means for binarizing an image of a captured subject into a subject area and other areas, fill processing means for performing a fill process on a binary image signal relating to the subject area, and the fill processing means A data calculating unit that outputs an area information signal and a center-of-gravity position information signal of the subject region in the fill-processed image signal output from the processing unit; and the area information signal and the center-of-gravity position information signal, and a color information signal related to the subject region. The color information signal and the center-of-gravity position information signal are output to the binarization processing means and the fill processing means, respectively. Control signal generating means for outputting a control signal based on a difference from the information signal, and a zoom for variably controlling the magnification of the zoom lens based on the control signal Video camera comprising the lens drive control means.

【0011】[0011]

【実施例】図1は本発明に係るビデオカメラの一実施例
を説明するためのブロック図、図2は2値化処理手段の
動作を説明するための図、図3はロジカルフィルタの動
作を説明するための図、図4及び図5はフィル処理手段
の動作を夫々説明するための図、図6は初期設定状態以
降のフィル処理手段の動作を説明するための図である。
以下、図面を参照しつつ本発明に係る自動追尾装置の一
実施例を説明する。さて、本発明なるビデオカメラの映
像信号処理系は、図1に示すように、CCD1、信号処
理部2、A/D変換部3、前処理部4、2値化処理部
5、ロジカルフィルタ6、フィル処理部7、データ算出
部8、制御信号発生部9、ズームレンズ駆動制御系A
(ズームレンズ駆動制御部10及びモータ11から構
成)、ズームレンズ12、映像信号記録系(図示せず)
から構成される。ここでは詳述しないが、この映像信号
処理系に並列して音声信号処理系があることは言うまで
もない。
FIG. 1 is a block diagram for explaining an embodiment of a video camera according to the present invention, FIG. 2 is a diagram for explaining the operation of a binarization processing means, and FIG. 3 is an operation of a logical filter. FIGS. 4 and 5 are diagrams for explaining the operation of the fill processing unit, respectively, and FIG. 6 is a diagram for explaining the operation of the fill processing unit after the initial setting state.
Hereinafter, an embodiment of an automatic tracking device according to the present invention will be described with reference to the drawings. As shown in FIG. 1, the video signal processing system of the video camera according to the present invention comprises a CCD 1, a signal processing unit 2, an A / D conversion unit 3, a pre-processing unit 4, a binarization processing unit 5, a logical filter 6 , Fill processing section 7, data calculation section 8, control signal generation section 9, zoom lens drive control system A
(Composed of a zoom lens drive control unit 10 and a motor 11), a zoom lens 12, and a video signal recording system (not shown)
Consists of Although not described in detail here, it goes without saying that there is an audio signal processing system in parallel with the video signal processing system.

【0012】前記したズームレンズ12は、図示せぬ被
写体の光学像を所望の大きさに拡大・縮小調整するため
の焦点倍率の可変が任意に可能な撮像レンズであり、そ
の鏡胴の進退駆動に応じて焦点倍率の可変制御を行うも
のである。この鏡胴を進退駆動する鏡胴駆動部(図示せ
ず)は前記したモータ11の回転軸に軸支され、この回
転軸の回転に応じて鏡胴を進退駆動する。
The above-described zoom lens 12 is an imaging lens that can arbitrarily change the focal magnification for enlarging or reducing an optical image of a subject (not shown) to a desired size, and moves the lens barrel forward and backward. Variably control of the focal magnification. A lens barrel driving section (not shown) for driving the lens barrel forward and backward is supported by a rotation shaft of the motor 11 and drives the lens barrel forward and backward in accordance with the rotation of the rotation shaft.

【0013】前記したCCD1は、このズームレンズ1
2を介して入光した光学像を光電変換して得た線順次映
像信号を次段の信号処理部2に出力する。
The above-mentioned CCD 1 is a zoom lens 1
A line-sequential video signal obtained by photoelectrically converting the optical image incident through the signal processor 2 is output to the signal processor 2 at the next stage.

【0014】前記した信号処理部2は、このCCD1か
ら出力された線順次映像信号に所定の信号処理を施して
得た複合映像信号を次段のA/D変換部3及び周知のV
TRの記録系と略同一の映像信号記録系に夫々出力す
る。
The above-mentioned signal processing section 2 converts the composite video signal obtained by subjecting the line-sequential video signal output from the CCD 1 to predetermined signal processing to an A / D conversion section 3 at the next stage and a well-known V
The signals are output to substantially the same video signal recording system as the recording system of the TR.

【0015】前記したA/D変換部3は、この信号処理
部2から出力されたアナログ複合映像信号をA/D変換
して得たデジタル複合映像信号(以下デジタル映像信号
と記す)を次段の前処理部4に出力する。
The A / D conversion section 3 converts the analog composite video signal output from the signal processing section 2 into a digital composite video signal (hereinafter referred to as a digital video signal) obtained by A / D conversion at the next stage. Is output to the pre-processing unit 4.

【0016】前記した前処理部4は、このA/D変換部
3から出力されたデジタル映像信号に後述する2値化画
像処理をするため、前処理を施したデジタル映像信号を
次段の2値化処理部5に出力する。即ち、この前処理部
4は、ローパスフィルタ及びサブサンプリング回路(い
ずれも図示せず)を有しており、このローパスフィルタ
によって前記A/D変換部3から出力されたデジタル映
像信号の不要な高域成分を除去し、このサブサンプリン
グ回路で前段のローパスフィルタから出力されたデジタ
ル映像信号を所定の情報量に圧縮するという前処理を行
う。
The pre-processing unit 4 converts the pre-processed digital video signal to the next stage of the digital video signal output from the A / D conversion unit 3 in order to perform a binary image processing described later. Output to the value processing unit 5. That is, the pre-processing unit 4 has a low-pass filter and a sub-sampling circuit (both not shown), and the low-pass filter causes the digital video signal output from the A / D conversion unit 3 to have an unnecessary high level. The sub-sampling circuit performs a pre-process of removing the frequency components and compressing the digital video signal output from the low-pass filter at the preceding stage into a predetermined amount of information.

【0017】前記した2値化処理部5は、被写体とすべ
き画像領域(以下被写体領域と記す。ここで被写体領域
とは撮像すべきもの全体を指すものではなく、後述する
ユーザが指定した点にある領域を便宜上被写体そのもの
として認識するものである。例えば、赤いシャツを着て
ジーパンを穿いている人を被写体とする場合、ユーザが
赤いシャツの領域を指定するとこの赤いシャツに対応し
た2値化信号の画像領域を被写体領域とする。図2に図
示の領域5C)内におけるユーザが指定した点(画素。
同図中の点5A)を構成する色情報(色相、彩度、明度
の各情報等から構成される色に関する情報)に基づい
て、前記した前処理部4から出力されたデジタル映像信
号をこの色情報を含む画像領域とこの色情報を含まない
画像領域とに2分割(2値化)処理して得た2値化信号
を次段のロジカルフィルタ6に出力する。
The above-mentioned binarization processing unit 5 is adapted to provide an image area to be set as a subject (hereinafter referred to as a subject area. The subject area does not indicate the entirety of the object to be imaged, For example, in the case where the subject is a person wearing a red shirt and wearing jeans as a subject, if a user specifies a red shirt area, binarization corresponding to the red shirt is performed. The image area of the signal is a subject area, and points (pixels) specified by the user in the area 5C shown in FIG.
The digital video signal output from the pre-processing unit 4 is converted into a digital image signal based on color information (information on a color including information on hue, saturation, lightness, and the like) constituting point 5A in FIG. A binary signal obtained by subjecting an image area including color information and an image area not including the color information to two-division (binarization) processing is output to the logical filter 6 at the next stage.

【0018】前記したロジカルフィルタ6は、前記の2
値化処理部5から出力された2値化信号における被写体
領域5Cの近傍に存在する多数の小領域(図2中の孤立
点、細線等の多数の領域5E)を除去し、被写体領域5
Cを整形(フィルタ処理)する画像処理を行って、被写
体領域5Cを含む指定の色情報を有する画像領域(被写
体候補領域)を明確化するフィルタ処理を行う(図2に
図示の画像をフィルタ処理することにより図3に図示の
2つの領域6Aを得る)。こうしてこのフィルタ処理が
施された整形2値化信号を次段のフィル処理部7に供給
する。
The above logical filter 6 is composed of the above 2
A large number of small regions (a large number of regions 5E such as isolated points and fine lines in FIG. 2) existing near the subject region 5C in the binarized signal output from the binarization processing unit 5 are removed.
Image processing for shaping (filtering) C is performed to clarify an image area (subject candidate area) having specified color information including the object area 5C (filtering the image shown in FIG. 2). By doing so, two regions 6A shown in FIG. 3 are obtained. The shaped binary signal thus filtered is supplied to the next-stage fill processing unit 7.

【0019】前記したフィル処理部7は、上記したロジ
カルフィルタ6から出力された整形2値化信号における
被写体領域5Cに相当する領域(図3中、左側の領域6
A)の全体を、先にユーザが指定した色情報を用いて塗
りつぶす画像処理(以下フィル処理と記す)を行った結
果、指定の色情報でフィル処理された領域7D(図5に
図示)を含む2値化信号を次段のデータ算出部8に供給
する。
The above-mentioned fill processing section 7 is provided in an area corresponding to the object area 5C in the shaped binary signal output from the logical filter 6 (the area 6 on the left side in FIG. 3).
As a result of performing image processing (hereinafter, referred to as fill processing) for filling the entire area A) using the color information designated by the user, an area 7D (shown in FIG. 5) that has been filled with the designated color information is obtained. The supplied binary signal is supplied to the data calculator 8 in the next stage.

【0020】前記したデータ算出部8は、このフィル処
理部7から出力された2値化信号におけるフィル処理さ
れた領域7Cについて、その領域7C内における前記し
た色情報を有する部分領域の総画素数を積算(カウン
ト)することにより面積情報を求めると共に、この領域
7C全体を包含する座標(X,Y)を仮想的に設定して
前記した画素数が夫々最大となるX値,Y値を夫々求
め、これを前記した総画素数の重心(即ち、面積情報の
重心)とする重心情報を求め、そして、これにより得た
面積情報に関する面積情報信号、重心情報に関する重心
位置情報信号、色情報に関する色情報信号を次段の制御
信号発生部9に夫々供給する。後述する「初期設定状
態」時に、前記した制御信号発生部9に供給される面積
情報信号の面積情報値は基準値としてメモリされ、この
初期設定時以後、1フレーム期間毎に順次供給される面
積情報信号の面積情報値はこの基準値と比較されこれに
より得た差分値に応じた信号をズームレンズ12の焦点
倍率を制御する制御信号として次段のズームレンズ駆動
制御部10に供給する。この結果、この差分値がゼロに
なるとこの制御信号は出力されない。また、後述する
「撮影状態(初期設定時以後)」、1フレーム期間毎に
順次供給される重心情報信号及び色情報信号は夫々メモ
リ(更新保持)される。そして直前の1フレーム期間
(前フレーム画面)の重心情報信号及び色情報信号を前
記したフィル処理部7及び2値化処理部5に夫々順次供
給する。この結果、フィル処理部7及び2値化処理部5
は、前フレーム画面における重心情報信号及び色情報信
号と現在の1フレーム期間(現フレーム画面)の重心情
報信号及び色情報信号とを比較し、その比較結果が前フ
レーム画面のものと相関を持つ範囲内であれば、現フレ
ーム画面は前フレーム画面と略同一の画面と判断して被
写体画像を認識し続ける。
The data calculating section 8 calculates the total number of pixels of the partial area having the above-mentioned color information in the area 7C in the binary signal output from the fill processing section 7 which has been subjected to the fill processing. , The area information is obtained by integrating (counting), and the coordinates (X, Y) encompassing the entire area 7C are virtually set, and the X value and the Y value at which the number of pixels becomes the maximum are respectively set. The center of gravity of the total number of pixels (that is, the center of gravity of the area information) is obtained, and the area information signal of the obtained area information, the center of gravity information signal of the center information, and the color information of the color information are obtained. The color information signals are supplied to the control signal generator 9 at the next stage. In the “initial setting state” described later, the area information value of the area information signal supplied to the control signal generator 9 is stored as a reference value, and the area supplied sequentially for each frame period after this initial setting. The area information value of the information signal is compared with the reference value, and a signal corresponding to the obtained difference value is supplied to the next-stage zoom lens drive control unit 10 as a control signal for controlling the focal magnification of the zoom lens 12. As a result, when the difference value becomes zero, the control signal is not output. In addition, a center-of-gravity information signal and a color information signal, which are sequentially supplied for each frame period, in a “shooting state (after initial setting)” described later, are respectively stored (updated). Then, the center-of-gravity information signal and the color information signal of the immediately preceding one frame period (previous frame screen) are sequentially supplied to the above-described fill processing unit 7 and binarization processing unit 5, respectively. As a result, the fill processing unit 7 and the binarization processing unit 5
Compares the center-of-gravity information signal and color information signal in the previous frame screen with the center-of-gravity information signal and color information signal of the current one frame period (current frame screen), and the comparison result has a correlation with that of the previous frame screen. If it is within the range, the current frame screen is determined to be substantially the same as the previous frame screen, and the subject image is continuously recognized.

【0021】前記したズームレンズ駆動制御部10は、
前記した制御信号発生部9から出力された制御信号及び
ズームレンズ倍率可変操作部(図示せず)から出力され
た指示信号に基づいたモータ回転駆動制御信号を次段の
モータ11に供給する。
The above-described zoom lens drive control unit 10 includes:
A motor rotation drive control signal based on the control signal output from the control signal generator 9 and an instruction signal output from a zoom lens magnification variable operation unit (not shown) is supplied to the motor 11 at the next stage.

【0022】前記したモータ11は、このズームレンズ
駆動制御部10から出力されるモータ回転駆動制御信号
に基づいた回転角度、回転数を得るように回転する。こ
れにより、前記したズームレンズ12の鏡胴駆動部にこ
のモータ回転駆動制御信号に基づいた動力を伝達するこ
とができるので、これに応じたズームレンズ12の焦点
倍率の自動調整が可能となる。
The motor 11 rotates so as to obtain a rotation angle and a rotation number based on a motor rotation drive control signal output from the zoom lens drive control unit 10. As a result, the power based on the motor rotation drive control signal can be transmitted to the lens barrel drive section of the zoom lens 12, so that the focus magnification of the zoom lens 12 can be automatically adjusted according to the power.

【0023】さて、ここで上記した構成を有するビデオ
カメラの動作について、被写体画像を所望の大きさに先
ず初期設定する「初期設定状態」、次に、被写体画像が
動いて、この画像の大きさが初期設定した被写体画像の
大きさと比較して変化したときこの画像の大きさを初期
設定画像の大きさに戻す自動ズーム制御(オートズー
ム)を行う「撮影状態」の動作を以下に詳しく述べる。
Now, regarding the operation of the video camera having the above-described configuration, the "initial setting state" in which the subject image is first initialized to a desired size, and then the subject image moves, The operation of the “shooting state” for performing automatic zoom control (auto zoom) for returning the size of the image to the size of the initially set image when the size of the image changes compared with the size of the initially set subject image will be described in detail below.

【0024】1.「初期設定状態」この初期設定状態に
おいては、撮像画面上中央に撮像した被写体画像の色情
報に基づきこの被写体画像を被写体領域とそれ以外の領
域とに識別し、被写体領域の面積情報と重心位置情報と
を算出して各初期値を夫々設定すると共に、この色情報
を保持する。
1. "Initial setting state" In this initial setting state, the subject image is identified as a subject area and other areas based on the color information of the subject image captured at the center on the imaging screen, and the area information and the center of gravity of the subject area are identified. The information is calculated, each initial value is set, and the color information is held.

【0025】先ず、被写体を図示しないビューファイン
ダ等によりモニタ画面上中央に設定撮影し、あるいはモ
ニタ画面上でカーソル等の使用により被写体画像を指定
し、また前記したズームレンズ倍率可変操作部から出力
される指示信号を前記したズームレンズ駆動制御部10
に供給することでズームレンズ12のズーム位置(焦点
倍率)を設定(いわゆるズーム制御)して、モニタ画面
上において被写体画像が所望の大きさになるようにこの
被写体を撮像する。上記したズーム制御は、ここでは詳
述しない周知の自動焦点設定(いわゆるオートフォーカ
ス)機構によって被写体の焦点設定が完了していること
を前提として行われるものであり、本発明に係るビデオ
カメラはこのオートフォーカスを行う構成を持つことは
勿論である。また、上記したズーム制御は、説明の都合
上、本発明に係るビデオカメラが常にモニタ画面上に被
写体を捕らえていることを前提として、行われるものと
する。
First, the subject is set and photographed at the center on the monitor screen by a viewfinder or the like (not shown), or the subject image is specified by using a cursor or the like on the monitor screen, and is output from the zoom lens variable operation section. The zoom lens drive control unit 10
To set the zoom position (focal magnification) of the zoom lens 12 (so-called zoom control), and image the subject so that the subject image has a desired size on the monitor screen. The above-described zoom control is performed on the assumption that the focus setting of the subject has been completed by a well-known automatic focus setting (so-called auto focus) mechanism which will not be described in detail here. Needless to say, it has a configuration for performing auto focus. In addition, the above-described zoom control is performed on the assumption that the video camera according to the present invention always captures the subject on the monitor screen for convenience of explanation.

【0026】さて、この初期設定状態において、下記の
手順(1)〜(3)に従って映像信号の処理を行う。即
ち、 (1)色情報の抽出及び色情報に基づく2値化 (2)2値化情報の整形 (3)被写体情報の収集 (1)色情報の抽出及び色情報に基づく2値化 前記した前処理部4から出力されたデジタル映像信号は
前記した2値化処理部5に供給され、そのデジタル映像
信号に基づく画像領域内において前記したようにユーザ
が指定した点の色情報の抽出が行われる。この色情報と
はデジタル映像信号に含まれる色信号の位相(色相)、
色信号の振幅(彩度)、輝度信号の振幅(明度)の各情
報等に関するデータを集合化したものであり、後述する
2値化及びフィル処理を行うために必要なデータであ
る。
Now, in this initial setting state, video signal processing is performed according to the following procedures (1) to (3). That is, (1) extraction of color information and binarization based on color information (2) shaping of binarized information (3) collection of subject information (1) extraction of color information and binarization based on color information The digital video signal output from the pre-processing unit 4 is supplied to the above-mentioned binarization processing unit 5, and the extraction of the color information of the point designated by the user as described above in the image area based on the digital video signal is performed. Will be This color information is the phase (hue) of the color signal contained in the digital video signal,
It is a set of data relating to each information of the amplitude (chroma) of the color signal, the amplitude (brightness) of the luminance signal, and the like, and is necessary for performing binarization and fill processing described later.

【0027】そして、色情報の抽出が為されると、その
色情報に基づいて前記したデジタル映像信号に基づく全
ての画像領域を上記した色情報が存在する領域とそれ以
外の色情報を持つ領域とに2分割(2値化)する。即
ち、図2に示すように、ユーザが指定した被写体の存在
する領域5B内の任意の1点5A(あるいは複数の点)
を指定し、その点において検出される色(色相、彩度、
明度等)を被写体の色情報とする。そしてこの色情報を
持つ領域5Cとそれ以外の色情報を持つ領域5Dとにす
べての画像領域を2分割した2値化信号(例えば、被写
体として特定する領域5Cを“1”とし、それ以外の領
域5Dを“0”とする)を得る。この2値化を行なった
後、この色情報は後述する「撮影状態」において、被写
体を識別するための情報として用いられる。
When the color information is extracted, all the image areas based on the digital video signal are converted into an area where the color information exists and an area having other color information based on the color information. Are divided into two (binarization). That is, as shown in FIG. 2, an arbitrary point 5A (or a plurality of points) in the area 5B where the subject designated by the user exists.
And specify the color (hue, saturation,
Brightness, etc.) as color information of the subject. Then, a binarized signal (for example, the area 5C specified as a subject is set to “1” and the other area 5C having the color information and the area 5D having the other color information are divided into two). The area 5D is set to "0"). After the binarization, the color information is used as information for identifying a subject in a “photographing state” described later.

【0028】尚、上記したのはカーソル等の使用により
ユーザが被写体画像を特定しているが、これに限らず、
例えば、上記した領域5Bの対角線が交わる点を色情報
を抽出する点としてこの点にある画像を被写体画像とし
て自動設定されるように行っても良い。 (2)2値化情報の整形 上記した2値化信号の画像は、図2に示すように、領域
5Cの近傍では信号ノイズ等に起因する複数の孤立点、
細線等の多数の領域5Eが生じている。この領域5Eは
後述するフィル処理、データ処理において煩雑な信号処
理をしなければならないため、この領域5Eを除去し、
領域5Cを整形(フィルタ処理)する必要があり、この
整形をロジカルフィルタ6にて行う。このロジカルフィ
ルタ6によって前記した“1”の領域を探索し、検出さ
れた“1”の孤立点のみを除去する。孤立点は“1”の
領域の周囲の領域が全て“0”の領域であることから検
出される。また、細線は“1”の領域の周囲(上下左
右)の領域の内1方向が“1”の領域に繋がっているの
で、この繋がっている“1”の領域が連続して検出され
る方向に探索を行い、検出された“1”の領域を順次除
去して“1”の細線の除去を行う。こうして、図3に示
すように、前記したロジカルフィルタ6は被写体の色情
報を持つ領域5Cの近傍に存在する多数の小領域を除去
し、比較的大きな“1”の領域を整形することにより、
同図中に示す大小の被写体候補領域6Aを有する整形2
値化信号を出力する。このとき得られた複数の被写体候
補領域6Aは被写体の色情報(“1”の情報)を持つ大
きな領域である。このためここで得られた複数の被写体
候補領域6Aの内、前述したように、カーソル等の使用
によりユーザが指定した領域5B内に存在する被写体領
域5Cに対応する領域を特定するためにこの整形2値化
信号をフィル処理部7に供給し、先にユーザが指定した
領域5B内の任意の1点5Aの色情報に基づいて後述す
るフィル処理を行う。 (3)被写体情報の収集 ここでは前記したロジカルフィルタ部6から供給された
整形2値化信号に基づいて上記した複数の被写体候補領
域6Aから被写体領域5Cに対応する領域を特定するた
め先にユーザが指定した領域5C内の任意の1点5Aの
色情報によってこの被写体領域5Cに相当する被写体候
補領域6Aのみにフィル処理を行い、こうしてフィル処
理部7から出力された2値化信号はデータ算出部8によ
ってこの被写体領域5Cに相当するフィル処理された被
写体候補領域の面積情報及び重心位置情報を夫々算出す
る。この後、この領域の色情報、面積情報及び重心位置
情報を被写体情報として制御信号発生部9に供給するこ
とにより、後述する「撮影状態」における前記したズー
ム倍率の可変制御を行うことが可能となる。
In the above description, the user specifies the subject image by using a cursor or the like. However, the present invention is not limited to this.
For example, a point at which the diagonal of the area 5B intersects may be used as a point for extracting color information, and an image at this point may be automatically set as a subject image. (2) Shaping of binarized information As shown in FIG. 2, the image of the binarized signal has a plurality of isolated points near the region 5C due to signal noise or the like.
Many regions 5E such as thin lines are generated. Since this area 5E must be subjected to complicated signal processing in fill processing and data processing described later, this area 5E is removed.
The area 5C needs to be shaped (filtered), and this shaping is performed by the logical filter 6. The logical filter 6 searches for the above-mentioned "1" area, and removes only the detected "1" isolated point. An isolated point is detected because the area around the area of “1” is all “0”. Also, since the thin line is connected to the area of “1” in one direction of the area (up, down, left and right) around the area of “1”, the direction in which the connected area of “1” is continuously detected , And the detected area of “1” is sequentially removed to remove the thin line of “1”. Thus, as shown in FIG. 3, the logical filter 6 removes a number of small areas existing near the area 5C having the color information of the subject, and shapes a relatively large “1” area.
Shaping 2 having large and small subject candidate areas 6A shown in FIG.
Outputs a digitized signal. The plurality of subject candidate regions 6A obtained at this time are large regions having subject color information (information of “1”). Therefore, as described above, this shaping is performed to identify an area corresponding to the object area 5C existing within the area 5B designated by the user by using the cursor or the like, among the plurality of object candidate areas 6A obtained here. The binarized signal is supplied to the fill processing unit 7, and a fill process described later is performed based on the color information of an arbitrary point 5A in the area 5B previously specified by the user. (3) Collection of subject information Here, the user first specifies a region corresponding to the subject region 5C from the plurality of subject candidate regions 6A based on the shaped binary signal supplied from the logical filter unit 6 described above. Performs fill processing only on the subject candidate area 6A corresponding to the subject area 5C based on the color information of an arbitrary point 5A in the designated area 5C, and the binary signal output from the fill processing unit 7 is subjected to data calculation. The unit 8 calculates the area information and the center-of-gravity position information of the filled subject candidate area corresponding to the subject area 5C. Thereafter, by supplying the color information, the area information, and the center-of-gravity position information of the region to the control signal generating unit 9 as subject information, it is possible to perform the above-mentioned variable control of the zoom magnification in the “photographing state” described later. Become.

【0029】さて、前記したフィル処理部7の動作を図
4及び図5を用いて詳細に説明する。ここでフィル処理
とは、図4に示す2つの被写体候補領域6Aの内、被写
体候補領域5Cに相当する領域(図4中、左側の領域6
A)の後述する始点7Aが含まれる全ての領域を上記し
た色情報だけの集合領域に置き換えるという処理である
(言うまでもないが、この領域内には上記した色情報と
は異なった色情報が多数存在している)。この始点7A
は領域6Aのいずれの場所にあっても良く、先にユーザ
が指定した領域5B内の任意の1点(あるいは複数の
点)5Aであっても良い。
Now, the operation of the above-mentioned fill processing unit 7 will be described in detail with reference to FIGS. Here, the fill processing refers to an area corresponding to the subject candidate area 5C of the two subject candidate areas 6A shown in FIG.
A) is a process of replacing all areas including a starting point 7A described later with a set area including only the above-described color information (it goes without saying that many color information different from the above-described color information exist in this area). Existing). This starting point 7A
May be at any place in the area 6A, and may be an arbitrary point (or a plurality of points) 5A in the area 5B specified by the user first.

【0030】即ち、先ずこの始点(画素)7Aから左方
向に領域6Aの左境界線までフィル処理を行い、次に右
方向に領域6Aの右境界線までフィル処理を行う。次に
このフィル処理が行われた列の上下の画素列を左右の境
界線までフィル処理を順次行い、このように順次領域6
A内のすべての画素を走査したときこのフィル処理を終
了する。こうして図5に示すようにフィル処理が行われ
た領域、即ち、被写体領域7Cを得る。
That is, first, a fill process is performed from the start point (pixel) 7A to the left to the left boundary of the region 6A, and then a fill process is performed to the right to the right boundary of the region 6A. Next, the fill process is sequentially performed on the upper and lower pixel columns of the column on which the fill process has been performed up to the left and right boundary lines.
When all the pixels in A have been scanned, the filling process ends. Thus, as shown in FIG. 5, an area where the fill processing has been performed, that is, a subject area 7C is obtained.

【0031】前記したフィル処理部7においてフィル処
理が行われた2値化信号は前記したデータ算出部8に供
給され、ここで前記した被写体領域7Cのフィル処理を
行った全画素数を積算(カウント)することにより被写
体領域7Cの面積情報が求まる。また、この被写体領域
7C全体を包含する画像領域における座標(X,Y)を
仮想的に設定して前記した画素数が最大となるX値,Y
値を夫々求めることにより被写体領域7Cの重心7Dに
おける座標の値が重心位置情報として得られる。こうし
て求められた面積情報及び重心位置情報は夫々面積情報
信号及び重心位置情報信号として制御信号発生部9に供
給される。そして、この面積情報信号はこの制御信号発
生部9において被写体領域7Cの初期面積情報(基準面
積情報)として以下「撮影状態」に得られる被写体情報
の面積情報と逐次比較するために記憶される。また、こ
の重心位置情報は後述する「撮影状態」時、真の被写体
領域のみにフィル処理を施すための始点を予測するため
のデータとして保持される。 2.「撮影状態」さて、「初期設定状態」において初期
設定を行った後、通常のビデオカメラの撮影状態となる
状態を「撮影状態」という。このときズーム制御を行う
動作について説明する。「撮影状態」では撮像される映
像は刻々と変化しているので、先の「初期設定状態」に
おいて設定した被写体情報を基準としてこの被写体の色
と大きさの変化に対応して、常に被写体の大きさが常時
同一に保たれるようなズーム制御を行う。ここでは被写
体の映像信号について前記した「初期設定状態」時の前
記した(1)〜(3)までの手順に沿った信号処理を行
った後、更に後述する(4)被写体情報の再設定、
(5)ズーム制御の各手順が1フレーム毎に順次繰り返
し行われる。 (4)被写体情報の再設定 この「撮影状態」において、被写体の色や形状が刻々と
変化するとその被写体領域の色情報、面積情報、重心位
置情報(これら3つの情報を以下被写体情報という)も
変化する。このため、この被写体情報の内、色情報及び
重心位置情報を順次求め、現在の1フレーム期間(現フ
レーム画面)の色情報及び重心位置情報と直前の1フレ
ーム期間(前フレーム画面)の色情報及び重心位置情報
とを比較し、この比較結果が前フレーム画面のものと相
関を持つ範囲内であれば、現フレーム画面は前フレーム
画面と略同一であると判断し、被写体画像を認識し続け
ると共に、現フレーム画面の被写体情報を最新の被写体
情報として再設定する。この「撮影状態」に撮像された
映像信号は、前述した「(1)色情報の設定及び色情報
に基づく2値化」と同様な処理が行われた後、後述する
被写体領域7E(図6に図示)が決定される(図6は、
便宜上「初期設定状態」における被写体領域7Cと、
「撮影状態」おける被写体領域7Eとを同一モニタ画面
上に表示している状態を示している)。このとき前記し
た制御信号発生部9に記憶保持していた色情報(「初期
設定状態」も含む前フレーム画面の色情報)に基づいて
この色情報と相関を持つ範囲として最も近い色相、彩
度、明度から構成される色情報(現フレーム画面の色情
報)を持つ領域を決定する。そして、このとき決定され
た領域が得られた2値化信号は前記したロジカルフィル
タ6に供給され、前記した「(2)2値化情報の整形」
と同様な処理が行われることによって孤立点及び細線が
フィルタ処理された後、前記したフィル処理部7に供給
され、前記した「(3)被写体情報の収集」と同様な処
理が行われる。
The binarized signal that has been subjected to the fill processing in the above-described fill processing section 7 is supplied to the above-described data calculation section 8, where the total number of pixels that have been subjected to the above-described fill processing of the subject area 7C is integrated ( (Counting), the area information of the subject area 7C is obtained. Further, the coordinates (X, Y) in the image area including the entire subject area 7C are virtually set, and the X value and the Y value at which the number of pixels is maximized are set.
By obtaining the respective values, the value of the coordinates at the center of gravity 7D of the subject area 7C can be obtained as the center of gravity position information. The area information and the center-of-gravity position information thus obtained are supplied to the control signal generator 9 as an area information signal and a center-of-gravity position information signal, respectively. The area information signal is stored in the control signal generator 9 as initial area information (reference area information) of the object area 7C for successive comparison with the area information of the object information obtained in the “photographing state”. Also, this center-of-gravity position information is held as data for predicting a starting point for performing a fill process only on a true subject region in a “photographing state” described later. 2. "Shooting state" Now, the state in which the normal video camera is in the shooting state after the initial setting in the "initial setting state" is called "shooting state". The operation for performing the zoom control at this time will be described. In the “shooting state”, the image to be captured is changing every moment. Therefore, based on the subject information set in the above “initial setting state”, the subject always changes according to the change in color and size of the subject. Zoom control is performed so that the size is always kept the same. Here, after subjecting the video signal of the subject to signal processing in accordance with the above-described procedures (1) to (3) in the above-mentioned “initial setting state”, (4) resetting of subject information, which will be described later,
(5) Each procedure of the zoom control is sequentially repeated for each frame. (4) Resetting of subject information In this “shooting state”, when the color or shape of the subject changes every moment, the color information, area information, and center of gravity position information of the subject area (these three pieces of information are hereinafter referred to as subject information) are also obtained. Change. Therefore, the color information and the barycentric position information of the subject information are sequentially obtained, and the color information and the barycentric position information of the current one frame period (current frame screen) and the color information of the immediately preceding one frame period (previous frame screen) are obtained. If the comparison result is within a range having a correlation with that of the previous frame screen, it is determined that the current frame screen is substantially the same as the previous frame screen, and the subject image is continuously recognized. At the same time, the subject information on the current frame screen is reset as the latest subject information. The video signal imaged in the “shooting state” is subjected to the same processing as in “(1) Setting of color information and binarization based on color information” described above, and thereafter, a subject area 7E described later (FIG. 6). (Shown in FIG. 6).
For convenience, the subject area 7C in the “initial setting state”
This shows a state in which the subject area 7E in the “shooting state” is displayed on the same monitor screen). At this time, based on the color information (color information of the previous frame screen including the “initial setting state”) stored and held in the control signal generator 9, the hue and the saturation closest to the range having a correlation with the color information are displayed. , An area having color information (color information of the current frame screen) composed of lightness is determined. Then, the binarized signal from which the area determined at this time is obtained is supplied to the above-described logical filter 6, and the above-mentioned “(2) Shaping of binarized information” is performed.
After the isolated point and the thin line are filtered by performing the same processing as described above, the resulting data is supplied to the above-described fill processing unit 7, and the same processing as the above-described "(3) Collection of subject information" is performed.

【0032】さて、被写体情報の再設定のときのフィル
処理部7の動作を図6を用いて説明する。同図において
前記した2値化処理部5及びロジカルフィルタ6を介し
て被写体領域7Eが得られており、この被写体領域7E
のフィル処理を行う場合、フィル処理の始点を設定する
ためにこの被写体領域7Eの重心を予測する(予測点7
F)。この予測点7Fは、1フレーム毎に求められる被
写体領域7Eの重心位置情報を順次蓄積していくことに
より、この重心位置情報の軌跡7H(一点鎖線)を満足
あるいは近似する関数により求められる。そして、この
予測点7Fを始点として上記したフィル処理を行う。ま
た、このとき得られた被写体領域7Eからこの被写体領
域7Eの持つ色情報(予測点7Fを構成する色相、色
彩、明度から構成される色情報)が求められるので先の
色情報(前フレーム画面の色情報)をこの被写体領域7
Eの色情報(現フレーム画面の色情報)に更新し、前記
したデータ算出部8を介して今後変化する被写体領域7
Eの動きを予測するために前記した制御信号発生部9に
現フレーム画面の色情報を記憶保持する。
The operation of the fill processing unit 7 when resetting the subject information will be described with reference to FIG. In the figure, a subject area 7E is obtained via the binarization processing unit 5 and the logical filter 6, and the subject area 7E is obtained.
Is performed, the center of gravity of the subject area 7E is predicted in order to set the starting point of the fill processing (the prediction point 7).
F). The predicted point 7F is determined by a function that satisfies or approximates the locus 7H (dot-dash line) of the center-of-gravity position information by sequentially accumulating the center-of-gravity position information of the subject area 7E obtained for each frame. Then, the above-described fill processing is performed with the predicted point 7F as a starting point. Further, since the color information (color information including the hue, color, and lightness constituting the prediction point 7F) of the subject area 7E is obtained from the obtained subject area 7E, the previous color information (the previous frame screen) is obtained. Of the subject area 7
E is updated to the color information of E (the color information of the current frame screen), and the subject area 7 to be changed in the future through the data calculation unit 8 described above.
In order to predict the movement of E, the control signal generator 9 stores and holds the color information of the current frame screen.

【0033】また、前記した予測点7Fに被写体候補領
域が存在しないとき(例えば被写体の動きが激しかった
り、大きい場合等)、初期設定状態で求められた重心7
Dの座標データから一番近い被写体領域7E内の点の座
標データを求め(重心7Dから最短距離にある被写体領
域7E内の点)、その点7Gを始点として上記したフィ
ル処理を行ってもよい。更に、上記したフィル処理を行
う始点を予測点7Fより求める方法に対し、「初期設定
状態」における被写体領域7Cの重心7Dが現在の被写
体領域7Eに含まれるとき、例えば「初期設定状態」に
おける被写体領域7Cの重心7Dが被写体領域7Eに含
まれるとき等、被写体の動きがほとんど変わらない場
合、この重心7Dをフィル処理の始点としてもよい。
Further, when the subject candidate area does not exist at the above-mentioned predicted point 7F (for example, when the subject moves rapidly or is large), the center of gravity 7 determined in the initial setting state is used.
The coordinate data of a point in the subject area 7E closest to the coordinate data of D is obtained (a point in the subject area 7E located at the shortest distance from the center of gravity 7D), and the above-described fill processing may be performed with the point 7G as a starting point. . Further, when the center of gravity 7D of the subject area 7C in the "initial setting state" is included in the current subject area 7E, for example, the subject in the "initial setting state" When the motion of the subject hardly changes, such as when the center of gravity 7D of the area 7C is included in the subject area 7E, the center of gravity 7D may be used as the starting point of the fill processing.

【0034】こうして得られた予測点(始点)7Fある
いは点7Gにより被写体領域7Eのフィル処理を行い、
同様にして前記データ算出部8によって面積情報及び重
心位置情報が求まるので、これら情報を色情報と共に最
新の被写体情報として更新するため、この面積情報信号
及び重心位置情報信号を前記制御信号発生部9に夫々供
給する。そして前記した制御信号発生部9に記憶されて
いる前フレーム画面の被写体情報をこの被写体情報に置
き換える。この制御信号発生部9において、「初期設定
状態」における被写体領域7Cの面積情報信号の値(基
準面積情報信号の値、基準値とする)に対するこの被写
体領域7Eの面積情報信号の値(現在面積値)との差分
値を求める。この差分値により現在面積値の増減比率を
求め、この現在面積値の増減比率が減少した場合、被写
体が「初期設定状態」にあった位置から遠ざかった距離
をこの面積情報信号の値の比率から算出する。また、こ
の現在面積値の増減比率が増加した場合、被写体が「初
期設定状態」にあった位置から近付いてきた距離をこの
面積情報信号の値の比率から算出する。 (5)ズーム制御 こうして算出された前記面積情報信号の値の増減比率か
ら現在の被写体の面積情報信号の値である現在面積値を
基準値と同一の値にするときの倍率が求まるので、この
現在面積値を基準値と等しくする拡大・縮小倍率が定ま
るから、これに対応するズームレンズ倍率制御信号が求
まり、これをズームレンズ駆動制御部10に供給する。
このズームレンズ駆動制御部10はこのズームレンズ倍
率制御信号に基づいてモータ回転駆動制御信号をモータ
11に供給する。このモータ11はこのモータ回転駆動
制御信号により前記したズームレンズ12の鏡胴駆動部
に前記したモータ回転駆動制御信号に基づく回転角度及
び回転数に応じた動力を伝達し、ズームレンズ12の焦
点倍率の自動調整を行う。例えば、現フレーム画面の被
写体の大きさが前フレーム画面の被写体の大きさより小
さくなったとき(面積値にして基準値の1/4倍)、被
写体の大きさを前画面における被写体の大きさと等しく
するため前記した制御信号発生部9はズームレンズの倍
率を4倍に指示する旨のズームレンズ倍率制御信号をズ
ームレンズ駆動制御部10に供給する。
The subject area 7E is filled with the predicted point (start point) 7F or the point 7G obtained as described above.
Similarly, since the area information and the barycentric position information are obtained by the data calculating section 8, the area information signal and the barycentric position information signal are updated with the control signal generating section 9 in order to update these information together with the color information as the latest subject information. Supply each. Then, the subject information of the previous frame screen stored in the control signal generator 9 is replaced with the subject information. In the control signal generator 9, the value (current area) of the area information signal of the subject area 7E with respect to the value of the area information signal of the subject area 7C in the “initial setting state” (the value of the reference area information signal and the reference value). Value). The increase / decrease ratio of the current area value is obtained from the difference value, and when the increase / decrease ratio of the current area value decreases, the distance of the subject away from the position where the subject was in the “initial setting state” is calculated from the ratio of the value of the area information signal. calculate. When the increase / decrease ratio of the current area value increases, the distance from the position where the subject is in the “initial setting state” is calculated from the ratio of the value of the area information signal. (5) Zoom control From the increase / decrease ratio of the value of the area information signal thus calculated, a magnification for setting the current area value, which is the value of the current object area information signal, to the same value as the reference value is obtained. Since the enlargement / reduction magnification for making the current area value equal to the reference value is determined, a zoom lens magnification control signal corresponding to this is obtained and supplied to the zoom lens drive control unit 10.
The zoom lens drive control section 10 supplies a motor rotation drive control signal to the motor 11 based on the zoom lens magnification control signal. The motor 11 transmits power corresponding to the rotation angle and the number of revolutions based on the motor rotation drive control signal to the lens barrel drive unit of the zoom lens 12 according to the motor rotation drive control signal. Perform automatic adjustment of. For example, when the size of the subject on the current frame screen is smaller than the size of the subject on the previous frame screen (1/4 times the reference value in terms of area value), the size of the subject is equal to the size of the subject on the previous screen. To this end, the control signal generator 9 supplies a zoom lens magnification control signal to the zoom lens drive controller 10 to instruct the magnification of the zoom lens to be four times.

【0035】さて、上記したフィル処理において、前フ
レーム画面と相関を持たない画像が現フレーム画面で得
られたとき(例えば、前フレーム画面まで青い服を着た
人が被写体として認識されていたが、この被写体が現フ
レーム画面において急に赤い人形を抱えてたとき等)、
被写体の色情報と被写体内部の別の物体の色情報が異な
るため、上記した2値化処理によって得られる被写体領
域内部に穴に相当する領域が生じてしまい、被写体が変
化しなくとも、人形の形が変わったり、人形を移動する
ことによってフィル処理によって得られたこの穴の領域
が変化するので、算出される重心位置が変化する。この
ため、重心位置の予測が誤ったり、面積量の変化を誤っ
て検出してしまうのでズームの誤作動を起こす虞れがあ
る。但し、前記した別領域は被写体領域の内部に発生す
るものとする。
In the above-described fill processing, when an image having no correlation with the previous frame screen is obtained on the current frame screen (for example, a person wearing blue clothes up to the previous frame screen has been recognized as a subject. , When this subject suddenly holds a red doll on the current frame screen),
Since the color information of the subject is different from the color information of another object inside the subject, a region corresponding to a hole is generated in the subject region obtained by the above-described binarization process. Since the shape of the hole or the movement of the doll changes the area of the hole obtained by the fill process, the calculated position of the center of gravity changes. For this reason, the prediction of the position of the center of gravity is erroneous, or the change in the area amount is erroneously detected, which may cause a malfunction of the zoom. However, it is assumed that the different area described above occurs inside the object area.

【0036】そこで、被写体領域内部に別の色情報を持
つ領域(別領域)が存在する場合、この別領域に影響さ
れないで被写体を優先したフィル処理を行う必要があ
る。この方法として次に述べるように段階的に上記した
フィル処理を行う。先ず、別領域を除く被写体領域に上
記したフィル処理を行った(フィル処理1とする)後、
被写体領域以外の画面の全領域のフィル処理を行う(フ
ィル処理2とする)。このとき、このフィル処理2の始
点は、例えばフィル処理1の始点から最短距離にある被
写体領域以外の領域の点とする。また、この時点で被写
体領域内部の別領域はフィル処理が成されていない。そ
して、前記したフィル処理2によってフィル処理を行っ
た領域以外の領域のフィル処理を行う(フィル処理3と
する)。このフィル処理3において、この被写体領域内
部の別領域を含む全領域のフィル処理を行うことで被写
体領域を特定する。よって前記したフィル処理1〜フィ
ル処理3を行うことで、被写体領域内部に前記した別領
域が存在する場合でも、この別領域の影響を吸収した形
で被写体領域を優先したフィル処理を行うことが可能と
なり、上記したフィル処理3と同時に前記したデータ算
出部8によって算出される被写体領域の面積及び重心か
ら前記した被写体の重心の予測点7Eを求めれば、被写
体領域に対するオートズーム制御が行えるので上記した
不具合を改善することができる。
Therefore, when there is an area (another area) having different color information inside the object area, it is necessary to perform the fill processing with priority on the object without being affected by the other area. As this method, the above-described fill processing is performed stepwise as described below. First, after the above-described fill processing is performed on the subject area excluding another area (fill processing 1),
A fill process is performed on the entire area of the screen other than the subject area (fill processing 2). At this time, the start point of the fill process 2 is, for example, a point in an area other than the subject area that is the shortest distance from the start point of the fill process 1. At this point, another area inside the object area has not been filled. Then, a fill process is performed on an area other than the area on which the fill process has been performed by the above-described fill process 2 (referred to as a fill process 3). In the filling process 3, a subject region is specified by performing a filling process on the entire region including another region inside the subject region. Therefore, by performing the above-described fill process 1 to fill process 3, even when the above-described another region exists inside the subject region, it is possible to perform the fill process with priority given to the subject region while absorbing the influence of the another region. If the predicted point 7E of the center of gravity of the subject is obtained from the area and the center of gravity of the subject area calculated by the data calculation unit 8 at the same time as the above-described fill processing 3, the automatic zoom control for the subject area can be performed. Can be improved.

【0037】尚、上記したような段階的なフィル処理に
ついて、例えば、前記フィル処理2によって得られた被
写体領域以外の画面の全領域の面積を求めることで、被
写体領域と被写体領域以外の領域の面積比を算出するこ
とができるので、この面積比を一定に保つように前記制
御信号発生部9が制御信号を前記ズームレンズ駆動制御
部10に供給しても良いことは勿論である。
For the above-described stepwise fill processing, for example, by obtaining the area of the entire area of the screen other than the subject area obtained by the above-described fill processing 2, the subject area and the area other than the subject area are obtained. Since the area ratio can be calculated, the control signal generator 9 may supply a control signal to the zoom lens drive controller 10 so as to keep the area ratio constant.

【0038】尚、上記した被写体領域のフィル処理によ
ると所定のフレーム期間毎にこのフィル処理を行って上
記した重心位置情報を求め、この制御信号発生部9に記
憶することにより、被写体領域の重心位置情報が蓄積さ
れるので、被写体の重心位置を予測することが可能であ
り、また、被写体領域が求まると、その都度被写体領域
の重心位置情報を更新するので予測値を修正することが
できるので、被写体領域の位置を正確に捕えることがで
きる。よって、この被写体領域の重心位置情報を用いる
ことで精度良くオートズーム制御を行うと同時に、例え
ばビデオカメラのパン及び/又はチルトを制御する被写
体の自動追尾が行えることは勿論である。
According to the above-described fill process of the subject area, the fill process is performed every predetermined frame period to obtain the above-described center-of-gravity position information, which is stored in the control signal generating unit 9, thereby obtaining the center of gravity of the subject area. Since the position information is accumulated, it is possible to predict the position of the center of gravity of the subject, and when the subject region is obtained, the predicted value can be corrected because the center of gravity position information of the subject region is updated each time. In addition, the position of the subject area can be accurately captured. Therefore, it is needless to say that the automatic zoom control can be performed with high accuracy by using the center-of-gravity position information of the subject area and, at the same time, the subject that controls the pan and / or tilt of the video camera can be automatically tracked.

【0039】また、1フレーム毎にフィル処理を行うこ
とで、刻々と変化していく被写体の状態に追従して被写
体情報を得ることができる。即ち、被写体領域を特定す
る色情報は前フレーム期間までに得られた被写体の色情
報の平均値を用いるため、被写体の色が次第に変化して
いくような場合、例えば、太陽、電球、蛍光灯等の種々
の光源下において同じ被写体を撮像するときでも被写体
を特定することができるので、精度良くオートズーム制
御を行うと同時に、例えばビデオカメラのパン及び/又
はチルトを制御する被写体の自動追尾が行えることは勿
論である。
Further, by performing the fill process for each frame, the subject information can be obtained by following the state of the subject that changes every moment. That is, since the average value of the color information of the subject obtained up to the previous frame period is used as the color information for specifying the subject area, when the color of the subject changes gradually, for example, the sun, a light bulb, a fluorescent light Since the subject can be specified even when the same subject is imaged under various light sources such as, for example, the automatic zoom control is performed with high accuracy, and at the same time, for example, the automatic tracking of the subject which controls the pan and / or tilt of the video camera can be performed. Of course, you can do it.

【0040】尚、係るオートズーム制御の操作性を向上
させるため、オートフォーカス(自動焦点設定)機構に
よって推定される被写体との距離情報によりオートズー
ムを行う方法があった。即ち、撮像された映像信号から
特定の高域成分を取り出し、その高域成分の振幅が最大
となるように焦点(ピント)調整(いわゆる山登りサー
ボ方式)を行うことで係るビデオカメラから被写体迄の
距離を推定してこのズーム制御を行っていたが、この距
離情報は誤差が大きいため、オートズームを精度良く行
うことが困難であるので、このオートフォーカス機構の
距離情報に比べ、本実施例により移動した被写体の正確
な移動情報として面積情報及び重心位置情報を得ること
が可能となるため、これらの情報をオートフォーカス制
御に用いることによりズームレンズの駆動制御も精度良
く行うことができる。
In order to improve the operability of the automatic zoom control, there has been a method of performing an automatic zoom based on distance information from a subject estimated by an auto focus (automatic focus setting) mechanism. That is, a specific high-frequency component is extracted from a captured video signal, and a focus (focus) adjustment (a so-called hill-climbing servo method) is performed so that the amplitude of the high-frequency component is maximized. This zoom control was performed by estimating the distance. However, since this distance information has a large error, it is difficult to perform auto-zoom with high accuracy. Since it is possible to obtain area information and center-of-gravity position information as accurate movement information of the moved subject, the drive control of the zoom lens can be performed with high accuracy by using such information for the autofocus control.

【0041】尚、本実施例ではビデオカメラのオートズ
ーム制御について説明したが、例えば、前記したCCD
撮像素子を撮像媒体とするスチルカメラ等に本発明の構
成を加えることによってこのスチルカメラ等のオートズ
ーム制御を行えることは勿論である。
In this embodiment, the automatic zoom control of the video camera has been described.
By adding the configuration of the present invention to a still camera or the like using an imaging element as an imaging medium, it is needless to say that the automatic zoom control of the still camera or the like can be performed.

【0042】[0042]

【発明の効果】本発明のビデオカメラは、撮像した被写
体に係る画像を被写体領域とそれ以外の領域とに2値化
する2値化処理手段と、前記被写体領域に係る2値画像
信号をフィル処理するフィル処理手段と、前記フィル処
理手段から出力するフィル処理画像信号における前記被
写体領域の面積情報信号及び重心位置情報信号を夫々算
出するデータ算出手段と、前記面積情報信号及び重心位
置情報信号、前記被写体領域に係る色情報信号を夫々更
新保持すると共に、保持した前記色情報信号及び重心位
置情報信号を前記2値化処理手段及びフィル処理手段に
夫々出力し、初期設定された面積情報信号を基準とし
て、これと更新保持した面積情報信号との差に基づく制
御信号を出力する制御信号発生手段と、前記制御信号に
基づいてズームレンズの倍率を可変制御するズームレン
ズ駆動制御手段とを備えたから、撮像された被写体の色
情報信号に基づいて被写体を特定し、その面積情報信号
を求めることにより、例えば初期設定状態の面積情報信
号の値を基準として、現在この面積情報信号値がどの程
度変化したかによって、被写体及び被写体と略同じ大き
さと略同じ動きを持つ被写体以外のものとの識別が確実
になるため、ズームレンズの駆動制御を精度良く行うこ
とができるので、常時同一の被写体画像を継続して撮影
することができる等の効果がある。
The video camera according to the present invention comprises: a binarization processing means for binarizing an image of a captured subject into a subject region and other regions; and a filter for filtering a binary image signal relating to the subject region. Fill processing means for processing, data calculation means for calculating the area information signal and the center of gravity position information signal of the subject region in the fill processing image signal output from the fill processing means, and the area information signal and the center of gravity position information signal, The color information signal relating to the subject area is updated and held, respectively, and the held color information signal and the center-of-gravity position information signal are output to the binarization processing unit and the fill processing unit, respectively. A control signal generating means for outputting a control signal based on a difference between the control signal and the updated and held area information signal; and a zoom lens based on the control signal. And a zoom lens drive control means for variably controlling the magnification of the object, the object is specified based on the color information signal of the imaged object, and the area information signal is obtained. Based on the value of the area information signal value, the difference between the subject and the subject other than the subject having substantially the same size and substantially the same movement as the subject can be reliably determined. Can be performed with high accuracy, so that the same subject image can be continuously captured at all times.

【0043】また、上記した本発明のビデオカメラによ
り撮像された被写体の色情報信号に基づいて被写体を特
定し、その重心位置情報信号を求めることにより被写体
の動きに迅速かつ確実に追従できるので、例えば、略同
一の輝度情報を有しかつ異なる色彩(例えば元の被写体
画像の色彩は「白」であるが、「白」に近い「クリーム
色」)の他の画像が瞬時に入れ替わった場合でも被写体
の特定の維持が可能となり、動きが激しい中にある被写
体であってもこの被写体画像を常時同一の大きさで継続
して撮影することができる等の効果がある。
Further, since the subject is specified based on the color information signal of the subject picked up by the video camera of the present invention and the center-of-gravity position information signal is obtained, the movement of the subject can be quickly and reliably followed. For example, even when another image having substantially the same luminance information and having a different color (for example, the color of the original subject image is “white” but “cream” close to “white”) is instantaneously replaced. This makes it possible to maintain the subject in a specific manner, so that even if the subject is moving rapidly, the subject image can always be continuously photographed with the same size.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係るビデオカメラの一実施例を説明す
るためのブロック図である。
FIG. 1 is a block diagram illustrating an embodiment of a video camera according to the present invention.

【図2】2値化処理手段の動作を説明するための図であ
る。
FIG. 2 is a diagram for explaining an operation of a binarization processing unit;

【図3】ロジカルフィルタの動作を説明するための図で
ある。
FIG. 3 is a diagram for explaining an operation of a logical filter.

【図4】フィル処理手段の動作を説明するための図であ
る。
FIG. 4 is a diagram for explaining the operation of a fill processing unit.

【図5】フィル処理手段の動作を説明するための図であ
る。
FIG. 5 is a diagram for explaining the operation of a fill processing unit.

【図6】初期設定状態以降のフィル処理手段の動作を説
明するための図である。
FIG. 6 is a diagram for explaining an operation of a fill processing unit after an initial setting state.

【符号の説明】[Explanation of symbols]

5 2値化処理部 5C,6A,7C,7E 被写体領域 6 フィルタ 7 フィル処理部 8 データ算出部 9 制御信号発生部 10 ズームレンズ駆動制御部 12 ズームレンズ A ズームレンズ駆動制御系 Reference Signs List 5 Binarization processing unit 5C, 6A, 7C, 7E Subject area 6 Filter 7 Fill processing unit 8 Data calculation unit 9 Control signal generation unit 10 Zoom lens drive control unit 12 Zoom lens A Zoom lens drive control system

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】撮像した被写体に係る画像を被写体領域と
それ以外の領域とに2値化する2値化処理手段と、 前記被写体領域に係る2値画像信号をフィル処理するフ
ィル処理手段と、 前記フィル処理手段から出力するフィル処理画像信号に
おける前記被写体領域の面積情報信号及び重心位置情報
信号を夫々出力するデータ算出手段と、 前記面積情報信号及び重心位置情報信号、前記被写体領
域に係る色情報信号を夫々更新保持すると共に、保持し
た前記色情報信号及び重心位置情報信号を前記2値化処
理手段及びフィル処理手段に夫々出力し、初期設定され
た面積情報信号を基準として、これと更新保持した面積
情報信号との差に基づく制御信号を出力する制御信号発
生手段と、 前記制御信号に基づいてズームレンズの倍率を可変制御
するズームレンズ駆動制御手段とを備えたことを特徴と
するビデオカメラ。
1. A binarization processing means for binarizing an image of a captured subject into a subject area and other areas, a fill processing means for filling a binary image signal related to the subject area, Data calculating means for outputting an area information signal and a center-of-gravity position information signal of the subject area in the fill-processed image signal output from the fill processing means, respectively; the area information signal, the center-of-gravity position information signal, and color information relating to the subject area The signals are updated and held, respectively, and the held color information signal and center-of-gravity position information signal are output to the binarization processing means and the fill processing means, respectively. Control signal generating means for outputting a control signal based on a difference from the obtained area information signal; and a variable control unit for variably controlling a magnification of the zoom lens based on the control signal. A video camera comprising a camera lens drive control means.
JP5321185A 1993-11-26 1993-11-26 Video camera Expired - Fee Related JP2947037B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5321185A JP2947037B2 (en) 1993-11-26 1993-11-26 Video camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5321185A JP2947037B2 (en) 1993-11-26 1993-11-26 Video camera

Publications (2)

Publication Number Publication Date
JPH07154665A JPH07154665A (en) 1995-06-16
JP2947037B2 true JP2947037B2 (en) 1999-09-13

Family

ID=18129739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5321185A Expired - Fee Related JP2947037B2 (en) 1993-11-26 1993-11-26 Video camera

Country Status (1)

Country Link
JP (1) JP2947037B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1023313A (en) * 1996-07-08 1998-01-23 Hitachi Ltd Image pickup device

Also Published As

Publication number Publication date
JPH07154665A (en) 1995-06-16

Similar Documents

Publication Publication Date Title
US5631697A (en) Video camera capable of automatic target tracking
JP4980982B2 (en) Imaging apparatus, imaging method, focus control method, and program
US5877809A (en) Method of automatic object detection in image
JP5507014B2 (en) Moving object detection apparatus and method
US20040061796A1 (en) Image capturing apparatus
JP5704851B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP4286292B2 (en) Electronic camera
JP4645413B2 (en) Imaging device
JP2000188713A (en) Automatic focus controller and method for determining its focusing
JP4640198B2 (en) Electronic camera, multi-point simultaneous focusing frame display method, and program
JP4092636B2 (en) Auto focus system
JP2006067452A (en) Video recording apparatus, and electronic camera
JP4952574B2 (en) Image composition apparatus and program
JPH06268894A (en) Automatic image pickup device
JP2003241065A (en) Autofocusing system
JP3949000B2 (en) Auto focus camera
JP2947037B2 (en) Video camera
JP3122099B2 (en) Image synthesizing apparatus and image synthesizing method
JP2721459B2 (en) Moving image tracking cursor generation circuit
JP2906959B2 (en) Video camera
JP2004029105A (en) Autofocus device and af evaluated value acquiring method
JP2603212B2 (en) Automatic tracking device in camera
JP2004309653A (en) Imaging unit
JPH09327037A (en) Contour extracting method and method and device for extracting image
JP2021105850A (en) Image processing device and method, and imaging device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080702

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080702

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090702

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090702

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100702

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110702

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120702

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120702

Year of fee payment: 13

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120702

Year of fee payment: 13

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120702

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 14

LAPS Cancellation because of no payment of annual fees