JPH07154666A - Video camera - Google Patents

Video camera

Info

Publication number
JPH07154666A
JPH07154666A JP5321186A JP32118693A JPH07154666A JP H07154666 A JPH07154666 A JP H07154666A JP 5321186 A JP5321186 A JP 5321186A JP 32118693 A JP32118693 A JP 32118693A JP H07154666 A JPH07154666 A JP H07154666A
Authority
JP
Japan
Prior art keywords
subject
signal
area
information
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5321186A
Other languages
Japanese (ja)
Other versions
JP2906959B2 (en
Inventor
Hiroyuki Kitamura
宏行 北村
Hiromi Yoshida
裕美 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP5321186A priority Critical patent/JP2906959B2/en
Publication of JPH07154666A publication Critical patent/JPH07154666A/en
Application granted granted Critical
Publication of JP2906959B2 publication Critical patent/JP2906959B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To attain tracking image pickup for an object by applying rotation control of the video camera in tracking with a motion of the object. CONSTITUTION:The video camera consists of a thresholding means 5 for a video signal of an object as to object areas 5C, 6A, 7C, 7E and other areas, a fill processing means 7 applying fill processing to a binary picture signal relating to the object areas 5C, 6A, 7C, 7E, a data calculation means 8 outputting respectively an area information signal and a gravity center position information signal of the object areas 5C, 6A, 7C, 7E based on an output result of the fill processing means 7, a drive control means 9 outputting a control signal based on the calculation result, and a drive means 10 implementing panning/tilt control so that a picture of the object is always displayed on an image pickup screen based on a control signal.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、被写体の画像を常時撮
像画面上に映すように被写体の動きに合わせてパン・チ
ルト制御を行うカメラ一体型VTR(いわゆるビデオカ
メラ)に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera-integrated VTR (so-called video camera) which performs pan / tilt control according to the movement of a subject so that an image of the subject is always displayed on an image pickup screen.

【0002】[0002]

【従来の技術】図7は従来のビデオカメラのブロック図
である。以下、図面を参照しつつ従来の技術(1),
(2)を説明する。 (1)ビデオカメラで被写体を撮像する場合、例えば、
遊園地のメリーゴーランドに乗った子供を被写体として
追尾撮影するようなビデオカメラが求められていた。こ
のようなビデオカメラとして、出願人は被写体を自動追
尾するためのビデオカメラを先に提案した(特願平4−
103802号)。
2. Description of the Related Art FIG. 7 is a block diagram of a conventional video camera. Hereinafter, with reference to the drawings, the related art (1),
(2) will be described. (1) When a subject is imaged by a video camera, for example,
There was a demand for a video camera that tracks and shoots a child on a carousel in an amusement park. As such a video camera, the applicant first proposed a video camera for automatically tracking an object (Japanese Patent Application No. 4-
103802).

【0003】係るビデオカメラは撮像した被写体映像を
画面上で複数の領域に分割し、特定色信号(被写体を代
表する色情報)がこの分割領域上最も多く含まれる領域
を求め、この領域方向にビデオカメラを回転させること
で被写体を自動追尾するものであった。
Such a video camera divides a captured image of a subject into a plurality of regions on a screen, obtains a region in which a specific color signal (color information representative of the subject) is most included in this divided region, and moves in the direction of this region. The subject was automatically tracked by rotating the video camera.

【0004】即ち、図7に示すように、図示せぬ被写体
の光学像を光電変換するCCD1によって得た線順次映
像信号を信号処理部2に供給し、この信号を周知の変換
手段によって生成した複合映像信号として図示しない記
録系へ供給していた。また、この複合映像信号は信号検
出部12及び色設定部13に夫々供給され、この色設定
部13は図示しない操作部からの指示信号によって前記
した映像信号に係る色信号により特定色信号を記憶し、
この信号検出部12は前記した映像信号に係る色信号
と、前記した色設定部13が記憶した特定色信号とを比
較し、この比較結果を分割・比較部14に供給する。そ
して、この分割・比較部14は前記信号検出部12より
入力された映像信号を画面上で左右領域に分割(分割領
域)し、前記信号検出部12が検出した特定色信号がこ
の分割領域のいずれかに多く含まれているかを比較し、
この比較結果を駆動制御部15に供給する。この駆動制
御部15は入力された比較結果より制御信号を駆動部1
6に供給し、この駆動部16はこの制御信号に基づい
て、前記した特定色信号がより多く含まれる分割領域の
方向にビデオカメラの光学レンズの光軸を向けるように
ビデオカメラが設置された雲台を回転駆動する指示信号
を駆動モータ11に供給するものである。
That is, as shown in FIG. 7, a line-sequential video signal obtained by a CCD 1 for photoelectrically converting an optical image of a subject (not shown) is supplied to a signal processing section 2, and this signal is generated by a known conversion means. It was supplied to a recording system (not shown) as a composite video signal. Further, the composite video signal is supplied to the signal detection unit 12 and the color setting unit 13, respectively, and the color setting unit 13 stores a specific color signal by a color signal related to the video signal according to an instruction signal from an operation unit (not shown). Then
The signal detection unit 12 compares the color signal related to the video signal with the specific color signal stored by the color setting unit 13 and supplies the comparison result to the division / comparison unit 14. Then, the dividing / comparing unit 14 divides the video signal input from the signal detecting unit 12 into left and right regions on the screen (dividing region), and the specific color signal detected by the signal detecting unit 12 is in this divided region. Compare which one contains more,
The comparison result is supplied to the drive control unit 15. The drive control unit 15 outputs a control signal from the input comparison result to the drive unit 1.
Based on this control signal, the driving unit 16 supplies the video camera 6 with the video camera so that the optical axis of the optical lens of the video camera is directed in the direction of the divided area containing more specific color signals. An instruction signal for rotationally driving the platform is supplied to the drive motor 11.

【0005】このビデオカメラでは、例えば、遊園地の
メリーゴーランドに乗った子供を被写体として、この被
写体の持つ特定色信号が前記した分割領域上最も多く含
まれる領域を求め、その領域方向にビデオカメラの光学
レンズの光軸を向けるようにビデオカメラを設置した雲
台を回転させることで、常にこの被写体を撮影するよう
自動追尾を行っていた。 (2)また、被写体の自動追尾を行うものとして以下の
ようなものが提案されていた。即ち、1)移動物体を被
写体として撮像しこれを2値化して得た2値化像が小さ
い場合、これを拡大処理することで背景の変化に対応
し、また被写体画像の輝度ヒストグラムを生成すること
で被写体を背景と区別し、被写体の背景のノイズによる
外乱を防止する移動物体の自動追尾装置(特開平2−1
23877号)、2)被写体の探索範囲内において、こ
の被写体の色濃度レベルから代表色を求め、その代表色
の画素数が最大となる位置を求めてこれを被写体とし、
これを自動追尾する自動追尾装置(特開平4−2829
89号)、3)例えばR;赤、G;緑、B;青いずれか
の色のヘルメットを被った人を被写体に指定しておき、
その色が撮像画面上どの領域に存在するかを判定するこ
とにより、被写体を自動追尾する自動追尾ビデオ撮影装
置(特開平4−354490号)が提案されていた。
In this video camera, for example, a child riding on a merry-go-round in an amusement park is used as a subject, and a region in which the specific color signal of this subject is most included in the above-mentioned divided regions is obtained, and the direction of the video camera By rotating the pan / tilt head with the video camera so that the optical axis of the optical lens is directed, automatic tracking was always performed so that this subject was always photographed. (2) Further, the following has been proposed as a method for automatically tracking a subject. That is, 1) When a binarized image obtained by picking up a moving object as a subject and binarizing the same is small, enlargement processing is performed to cope with a background change, and a luminance histogram of the subject image is generated. By this, the subject is distinguished from the background, and an automatic tracking device for a moving object that prevents disturbance due to noise in the background of the subject (Japanese Patent Laid-Open No. 2-1.
No. 23877), 2) Obtain a representative color from the color density level of the subject within the search range of the subject, find a position where the number of pixels of the representative color is maximum, and set this as the subject.
An automatic tracking device for automatically tracking this (Japanese Patent Laid-Open No. 4-2829).
89), 3) For example, a person wearing a helmet of either R: red, G: green, B: blue is designated as a subject,
There has been proposed an automatic tracking video photographing device (Japanese Patent Laid-Open No. 4-354490) that automatically tracks a subject by determining in which area on the image pickup screen the color exists.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上記し
た従来の技術では、例えばメリーゴーランドに乗った子
供を被写体として追尾撮影を行うとき、被写体の子供と
類似の色の服を着た他の子供が撮像画面内に現れると、
誤ってその子供を追尾撮影してしまう虞れがあった。ま
た、ユーザが被写体を特定するために指定した色(被写
体色情報)であっても、その被写体色情報に類似した色
を持つものが被写体と同一画面上に複数存在すると、被
写体の位置を検出する動作に影響を与え、被写体を特定
することができなくなったり、類似の色を持つ被写体以
外の物体を被写体として特定するという誤動作を行う等
の欠点があった。更に、この物体が被写体と略同じ大き
さで、被写体と重なるような動きをすることによって、
被写体とこの物体の区別が行えず、被写体が追尾されな
い等の欠点があった。更にまた、例えば、被写体として
の子供にR;赤、G;緑、B;青いずれかの色の帽子等
を被らせておくことによりこの帽子の色が撮像画面上ど
の領域に存在するかを判定し、予め被写体以外の物体の
色と明確に区別される被写体の色が指定する必要があり
煩わしいという欠点があった。
However, in the above-described conventional technique, for example, when a child riding on a merry-go-round is used as a subject for tracking shooting, another child wearing clothes of a color similar to the subject's child takes an image. When it appears on the screen,
There was a risk that the child would be tracked and photographed by mistake. Further, even if a color (subject color information) specified by the user to identify the subject is present on the same screen as the subject, a position of the subject is detected if a plurality of colors have similar colors to the subject color information. However, there are drawbacks such as being unable to identify the subject, and performing an erroneous operation of identifying an object other than the subject having a similar color as the subject. Furthermore, this object is approximately the same size as the subject and moves so as to overlap the subject,
There is a defect that the object and this object cannot be distinguished and the object is not tracked. Furthermore, for example, in which area on the image pickup screen the color of the hat is present by covering the child as a subject with a hat of R; red, G; green, B; blue, etc. However, there is a drawback that it is troublesome because it is necessary to specify in advance the color of the subject clearly distinguished from the color of the object other than the subject.

【0007】[0007]

【課題を解決するための手段】本発明は上記課題を解決
するため、以下の構成を提供するものである。
In order to solve the above problems, the present invention provides the following configurations.

【0008】被写体を撮像した映像信号を被写体領域と
それ以外の領域とに2値化する2値化処理手段と、前記
被写体領域に係る2値画像信号をフィル処理するフィル
処理手段と、前記フィル処理手段から出力するフィル処
理画像信号における前記被写体領域の面積情報信号及び
重心位置情報信号を夫々出力するデータ算出手段と、前
記面積情報信号及び重心位置情報信号、前記被写体領域
に係る色情報信号を夫々更新保持すると共に、保持した
前記色情報信号及び重心位置情報信号を前記2値化処理
手段及びフィル処理手段に夫々出力し、初期設定された
重心位置情報信号を基準として、これと更新保持した重
心位置情報信号との差に基づく制御信号を出力する駆動
制御手段と、前記制御信号に基づいて前記被写体の画像
を常時撮像画面上に映すようにパンチルト制御を行う駆
動手段とを有することを特徴とするビデオカメラ。
Binarization processing means for binarizing a video signal of a subject into a subject area and an area other than the subject area, a fill processing means for performing a fill process on a binary image signal relating to the subject area, and the fill Data calculation means for respectively outputting the area information signal and the barycentric position information signal of the subject area in the fill processed image signal output from the processing means, the area information signal and the barycentric position information signal, and the color information signal relating to the subject area. The color information signal and the center-of-gravity position information signal that are held are output to the binarization processing unit and the fill processing unit, respectively, and are updated and held based on the initially-set center-of-gravity position information signal. A drive control unit that outputs a control signal based on a difference from the center-of-gravity position information signal, and an image of the subject is constantly captured on the screen based on the control signal. Video camera and having a driving means for performing pan and tilt control so reflect.

【0009】[0009]

【実施例】図1は本発明に係るビデオカメラの一実施例
を説明するためのブロック図、図2は2値化処理手段の
動作を説明するための図、図3はロジカルフィルタの動
作を説明するための図、図4及び図5はフィル処理手段
の動作を夫々説明するための図、図6は初期設定状態以
降のフィル処理手段の動作を説明するための図である。
以下、図面を参照しつつ本発明に係るビデオカメラの一
実施例を説明する。さて、本発明なるビデオカメラの映
像信号処理系は、図1に示すように、CCD1、信号処
理部2、A/D変換部3、前処理部4、2値化処理部
5、ロジカルフィルタ6、フィル処理部7、データ算出
部8、駆動制御部9、駆動部10、駆動モータ11、映
像信号記録系(図示せず)から構成される。ここでは詳
述しないが、この映像信号処理系に並列して音声信号処
理系があることは言うまでもない。
1 is a block diagram for explaining an embodiment of a video camera according to the present invention, FIG. 2 is a diagram for explaining the operation of a binarization processing means, and FIG. 3 is an operation for a logical filter. FIGS. 4 and 5 are views for explaining the operation of the fill processing means, respectively, and FIG. 6 is a view for explaining the operation of the fill processing means after the initial setting state.
An embodiment of a video camera according to the present invention will be described below with reference to the drawings. As shown in FIG. 1, the video signal processing system of the video camera according to the present invention includes a CCD 1, a signal processing unit 2, an A / D conversion unit 3, a preprocessing unit 4, a binarization processing unit 5, and a logical filter 6. , A fill processing unit 7, a data calculation unit 8, a drive control unit 9, a drive unit 10, a drive motor 11, and a video signal recording system (not shown). Although not described in detail here, it goes without saying that there is an audio signal processing system in parallel with this video signal processing system.

【0010】前記した駆動モータ11はビデオカメラが
設置された図示せぬ雲台を上下左右方向に回転駆動する
動力を伝えるもので、この回転駆動によってこの雲台に
設置されたビデオカメラに構成される図示せぬ光学系
(フォーカスレンズ、ズームレンズ等)に入射する光軸
の向きを上下左右に可変(いわゆるパンチルト)制御
し、被写体の存在する方向にこの光学系の入射光軸を合
わせるものである。
The drive motor 11 transmits the power for driving the pan / tilt head (not shown) on which the video camera is installed to rotate in the up / down / left / right directions. By this rotary drive, the video camera installed on the pan / head is constructed. The direction of the optical axis that is incident on an optical system (focus lens, zoom lens, etc.) not shown in the figure is controlled to be vertically and horizontally (so-called pan-tilt) control, and the incident optical axis of this optical system is adjusted to the direction in which the subject is present. is there.

【0011】前記したCCD1は、この光学系を介して
入光した光学像を光電変換して得た線順次映像信号を次
段の信号処理部2に出力する。
The CCD 1 outputs a line-sequential video signal obtained by photoelectrically converting the optical image incident through the optical system to the signal processing unit 2 in the next stage.

【0012】前記した信号処理部2は、このCCD1か
ら出力された線順次映像信号に所定の信号処理を施して
得た複合映像信号を次段のA/D変換部3及び周知のV
TRの記録系と略同一の映像信号記録系に夫々出力す
る。
The signal processing unit 2 described above processes the line-sequential video signal output from the CCD 1 by subjecting the composite video signal to predetermined processing, and the A / D conversion unit 3 at the next stage and a well-known V signal.
The signals are output to video signal recording systems that are substantially the same as the TR recording system.

【0013】前記したA/D変換部3は、この信号処理
部2から出力されたアナログ複合映像信号をA/D変換
して得たデジタル複合映像信号(以下デジタル映像信号
と記す)を次段の前処理部4に出力する。
The A / D converter 3 described above outputs a digital composite video signal (hereinafter referred to as a digital video signal) obtained by A / D converting the analog composite video signal output from the signal processor 2. Output to the pre-processing unit 4.

【0014】前記した前処理部4は、このA/D変換部
3から出力されたデジタル映像信号に後述する2値化画
像処理をするため、前処理を施したデジタル映像信号を
次段の2値化処理部5に出力する。即ち、この前処理部
4は、ローパスフィルタ及びサブサンプリング回路(い
ずれも図示せず)を有しており、このローパスフィルタ
によって前記A/D変換部3から出力されたデジタル映
像信号の不要な高域成分を除去し、このサブサンプリン
グ回路で前段のローパスフィルタから出力されたデジタ
ル映像信号を所定の情報量に圧縮するという前処理を行
う。
The above-mentioned pre-processing unit 4 performs the binarized image processing to be described later on the digital video signal output from the A / D conversion unit 3. It outputs to the digitization processing unit 5. That is, the pre-processing unit 4 has a low-pass filter and a sub-sampling circuit (neither of which is shown), and an unnecessary high level of the digital video signal output from the A / D conversion unit 3 is generated by the low-pass filter. Pre-processing of removing the band component and compressing the digital video signal output from the low-pass filter in the preceding stage into a predetermined amount of information in this sub-sampling circuit is performed.

【0015】前記した2値化処理部5は、被写体とすべ
き画像領域(以下被写体領域と記す。ここで被写体領域
とは撮像すべきもの全体を指すものではなく、後述する
ユーザが指定した点にある領域を便宜上被写体そのもの
として認識するものである。例えば、赤いシャツを着て
ジーパンを穿いている人を被写体とする場合、ユーザが
赤いシャツの領域を指定するとこの赤いシャツに対応し
た2値化信号の画像領域を被写体領域とする。図2に図
示の領域5C)内におけるユーザが指定した点(画素。
同図中の点5A)を構成する色情報(色相、彩度、明度
の各情報等から構成される色に関する情報)に基づい
て、前記した前処理部4から出力されたデジタル映像信
号をこの色情報を含む画像領域とこの色情報を含まない
画像領域とに2分割(2値化)処理して得た2値化信号
を次段のロジカルフィルタ6に出力する。
The binarization processing unit 5 described above is an image region to be a subject (hereinafter referred to as a subject region. Here, the subject region does not refer to an entire subject to be imaged, but to a point specified by a user to be described later. For example, a region is recognized as a subject itself for convenience.For example, when the subject is a person wearing a red shirt and wearing jeans, when the user specifies the region of the red shirt, binarization corresponding to this red shirt is performed. The image region of the signal is the subject region, and the point (pixel) designated by the user in the region 5C shown in FIG.
The digital video signal output from the above-mentioned preprocessing unit 4 is converted into the digital image signal based on the color information (color information including hue, saturation, lightness, etc.) constituting point 5A in FIG. The binarized signal obtained by dividing the image area including the color information and the image area not including the color information into two (binarization) is output to the logical filter 6 in the next stage.

【0016】前記したロジカルフィルタ6は、前記の2
値化処理部5から出力された2値化信号における被写体
領域5Cの近傍に存在する多数の小領域(図2中の孤立
点、細線等の多数の領域5E)を除去し、被写体領域5
Cを整形(フィルタ処理)する画像処理を行って、被写
体領域5Cを含む指定の色情報を有する画像領域(被写
体候補領域)を明確化するフィルタ処理を行う(図2に
図示の画像をフィルタ処理することにより図3に図示の
2つの領域6Aを得る)。こうしてこのフィルタ処理が
施された整形2値化信号を次段のフィル処理部7に供給
する。
The logical filter 6 described above is equivalent to the above-mentioned 2
A large number of small regions (a large number of regions 5E such as isolated points and thin lines in FIG. 2) existing in the vicinity of the subject region 5C in the binarized signal output from the binarization processing unit 5 are removed, and the subject region 5 is removed.
Image processing for shaping (filtering) C is performed, and filter processing for clarifying an image area (subject candidate area) having specified color information including the subject area 5C is performed (filtering the image illustrated in FIG. 2). To obtain the two regions 6A shown in FIG. 3). In this way, the shaped binarized signal subjected to this filter processing is supplied to the fill processing unit 7 in the next stage.

【0017】前記したフィル処理部7は、上記したロジ
カルフィルタ6から出力された整形2値化信号における
被写体領域5Cに相当する領域(図3中、左側の領域6
A)の全体を、先にユーザが指定した色情報を用いて塗
りつぶす画像処理(以下フィル処理と記す)を行った結
果、指定の色情報でフィル処理された領域7D(図5に
図示)を含む2値化信号を次段のデータ算出部8に供給
する。
The above-mentioned fill processing section 7 has an area corresponding to the object area 5C in the shaped binarized signal outputted from the above-mentioned logical filter 6 (area 6 on the left side in FIG. 3).
As a result of performing image processing (hereinafter referred to as fill processing) for filling the whole of A) using the color information specified by the user, the area 7D (illustrated in FIG. 5) that has been subjected to the fill processing with the specified color information is performed. The binarized signal including the data is supplied to the data calculation unit 8 in the next stage.

【0018】前記したデータ算出部8は、このフィル処
理部7から出力された2値化信号におけるフィル処理さ
れた領域7Cについて、その領域7C内における前記し
た色情報を有する部分領域の総画素数を積算(カウン
ト)することにより面積情報を求めると共に、この領域
7C全体を包含する座標(X,Y)を仮想的に設定して
前記した画素数が夫々最大となるX値,Y値を夫々求
め、これを前記した総画素数の重心(即ち、面積情報の
重心)とする重心情報を求め、そして、これにより得た
面積情報に関する面積情報信号、重心情報に関する重心
位置情報信号、色情報に関する色情報信号を次段の駆動
制御部9に夫々供給する。後述する「初期設定状態」時
に、前記した駆動制御部9に供給される重心位置情報信
号の値は基準値としてメモリされ、この初期設定時以
後、1フレーム期間毎に順次供給される重心位置情報信
号の値はこの基準値と比較されて得られた差分値に応じ
た信号を雲台の回転駆動を制御する制御信号として次段
の駆動部10に供給する。この結果、この差分値がゼロ
になるとこの制御信号は出力されない。また、後述する
「撮影状態(初期設定時以後)」、1フレーム期間毎に
順次供給される重心位置情報信号及び色情報信号は夫々
メモリ(更新保持)される。そして直前の1フレーム期
間(前フレーム画面)の重心位置情報信号及び色情報信
号を前記したフィル処理部7及び2値化処理部5に夫々
順次供給する。この結果、フィル処理部7及び2値化処
理部5は、前フレーム画面における重心位置情報信号及
び色情報信号と現在の1フレーム期間(現フレーム画
面)の重心位置情報信号及び色情報信号とを比較し、そ
の比較結果が前フレーム画面のものと相関を持つ範囲内
であれば、現フレーム画面は前フレーム画面と略同一の
画面と判断して被写体画像を認識し続ける。
The above-mentioned data calculating section 8 calculates the total number of pixels of the partial area having the above-mentioned color information within the area 7C for the area 7C which has been subjected to the fill processing in the binarized signal output from the fill processing section 7. Area information is obtained by integrating (counting) the coordinates, and the coordinates (X, Y) including the entire area 7C are virtually set, and the X value and the Y value at which the above-described number of pixels becomes maximum are respectively calculated. Then, the center of gravity information is obtained, which is the center of gravity of the total number of pixels (that is, the center of gravity of the area information), and the obtained area information signal regarding the area information, the center of gravity position information signal regarding the center of gravity information, and the color information are obtained. The color information signal is supplied to the drive control unit 9 in the next stage. The value of the center-of-gravity position information signal supplied to the drive control unit 9 in the "initial setting state" described later is stored as a reference value, and the center-of-gravity position information sequentially supplied for each frame period after the initial setting. As the signal value, a signal corresponding to the difference value obtained by comparing with the reference value is supplied to the drive unit 10 of the next stage as a control signal for controlling the rotary drive of the platform. As a result, when this difference value becomes zero, this control signal is not output. In addition, a “gravity state (after initial setting)”, which will be described later, and a barycentric position information signal and a color information signal that are sequentially supplied for each frame period are stored (updated) in memory. Then, the center-of-gravity position information signal and the color information signal of the immediately preceding one frame period (previous frame screen) are sequentially supplied to the fill processing unit 7 and the binarization processing unit 5, respectively. As a result, the fill processing unit 7 and the binarization processing unit 5 output the barycentric position information signal and the color information signal in the previous frame screen and the barycentric position information signal and the color information signal in the current one frame period (current frame screen). If the comparison result is within a range having a correlation with that of the previous frame screen, the current frame screen is determined to be substantially the same as the previous frame screen, and the subject image is continuously recognized.

【0019】前記した駆動部10は、前記した駆動制御
部9から出力された制御信号に基づいて指示信号を駆動
モータ11に供給し、この駆動モータ11はこの指示信
号に基づいた回転角度、回転数を得るように回転する。
これにより、ビデオカメラが設置された雲台に前記した
制御信号に基づいた動力を伝達することができるので、
これに応じた雲台の回転運動が可能となる。即ち、この
雲台に設置されたビデオカメラのパンチルトを行うこと
が可能となる。
The drive unit 10 supplies an instruction signal to the drive motor 11 based on the control signal output from the drive control unit 9, and the drive motor 11 rotates at the rotation angle and the rotation based on the instruction signal. Rotate to get the number.
As a result, the power based on the control signal can be transmitted to the platform with the video camera installed.
It is possible to rotate the platform in accordance with this. That is, it becomes possible to pan and tilt the video camera installed on this platform.

【0020】さて、ここで上記した構成を有するビデオ
カメラの動作について、被写体画像が撮影された位置を
先ず初期設定する「初期設定状態」、次に、被写体画像
が動いて、この画像の映る位置が初期設定した被写体画
像の位置と比較して移動したときこの画像の移動に伴っ
て被写体を常に撮影するように追尾撮影(自動追尾制
御)を行う「撮影状態」の動作を以下に詳しく述べる。
Now, regarding the operation of the video camera having the above-mentioned configuration, the "initial setting state" in which the position where the subject image is photographed is initially initialized, and then the subject image moves and the position where this image appears The operation in the "imaging state" in which the tracking imaging (automatic tracking control) is performed so that the object is always imaged as the image moves when compared with the position of the initially set object image will be described in detail below.

【0021】1.「初期設定状態」この初期設定状態に
おいては、撮像画面上略中央に撮影した被写体画像の色
情報に基づきこの被写体画像を被写体領域とそれ以外の
領域とに識別し、被写体領域の面積情報と重心位置情報
とを算出して各初期値を夫々設定すると共に、この色情
報を保持する。
1. [Initial setting state] In this initial setting state, the subject image is distinguished into the subject region and the other regions based on the color information of the subject image photographed in the approximate center of the imaging screen, and the area information and the center of gravity of the subject region are displayed. The position information is calculated and each initial value is set, and the color information is held.

【0022】先ず、被写体を図示しないビューファイン
ダ等によりモニタ画面上中央に設定撮影し、あるいはモ
ニタ画面上でカーソル等の使用により被写体画像を指定
する。このとき、ここでは詳述しない周知の自動焦点設
定(いわゆるオートフォーカス)機構によって被写体の
焦点設定が完了していることを前提として行われるもの
であり、本発明に係るビデオカメラはこのオートフォー
カスを行う構成を持つことは勿論である。また、ここで
は詳述しない周知のズーム制御(いわゆるズームレンズ
のズーム位置(焦点倍率)を設定する)機構によって被
写体を所望の大きさで撮影するズーム制御が完了してい
ることを前提として行われるものである。また説明の都
合上、本発明に係るビデオカメラが常にモニタ画面上に
被写体を認識できる大きさで捕らえていることを前提と
して、行われるものとする。
First, the subject is set and photographed in the center on the monitor screen by a viewfinder (not shown) or the subject image is designated by using a cursor or the like on the monitor screen. At this time, it is performed on the premise that the focus setting of the subject is completed by a well-known auto focus setting (so-called auto focus) mechanism not described in detail here, and the video camera according to the present invention performs the auto focus. It goes without saying that it has a configuration for performing. Further, it is performed on the premise that the well-known zoom control (which sets the zoom position (focal magnification) of the zoom lens) mechanism, which is not described in detail here, completes the zoom control for photographing the subject in a desired size. It is a thing. Further, for convenience of description, it is assumed that the video camera according to the present invention always captures an object on the monitor screen in a size that can be recognized.

【0023】さて、この初期設定状態において、下記の
手順(1)〜(3)に従って映像信号の処理を行う。即
ち、 (1)色情報の抽出及び色情報に基づく2値化 (2)2値化情報の整形 (3)被写体情報の収集 (1)色情報の抽出及び色情報に基づく2値化 前記した前処理部4から出力されたデジタル映像信号は
前記した2値化処理部5に供給され、そのデジタル映像
信号に基づく画像領域内において前記したようにユーザ
が指定した点の色情報の抽出が行われる。この色情報と
はデジタル映像信号に含まれる色信号の位相(色相)、
色信号の振幅(彩度)、輝度信号の振幅(明度)の各情
報等に関するデータを集合化したものであり、後述する
2値化及びフィル処理を行うために必要なデータであ
る。
Now, in this initial setting state, the video signal is processed according to the following procedures (1) to (3). That is, (1) extraction of color information and binarization based on color information (2) shaping of binarized information (3) collection of subject information (1) extraction of color information and binarization based on color information The digital video signal output from the pre-processing unit 4 is supplied to the binarization processing unit 5 and the color information of the point designated by the user is extracted in the image area based on the digital video signal. Be seen. This color information is the phase (hue) of the color signal included in the digital video signal,
This is a collection of data relating to each information of the amplitude (saturation) of the color signal, the amplitude (brightness) of the luminance signal, and the like, and is data necessary for performing binarization and fill processing described later.

【0024】そして、色情報の抽出が為されると、その
色情報に基づいて前記したデジタル映像信号に基づく全
ての画像領域を上記した色情報が存在する領域とそれ以
外の色情報を持つ領域とに2分割(2値化)する。即
ち、図2に示すように、ユーザが指定した被写体の存在
する領域5B内の任意の1点5A(あるいは複数の点)
を指定し、その点において検出される色(色相、彩度、
明度等)を被写体の色情報とする。そしてこの色情報を
持つ領域5Cとそれ以外の色情報を持つ領域5Dとにす
べての画像領域を2分割した2値化信号(例えば、被写
体として特定する領域5Cを“1”とし、それ以外の領
域5Dを“0”とする)を得る。この2値化を行なった
後、この色情報は後述する「撮影状態」において、被写
体を識別するための情報として用いられる。
When the color information is extracted, all the image areas based on the digital video signal based on the color information are extracted, and the area where the color information is present and the area where the other color information is present. And is divided into two (binarization). That is, as shown in FIG. 2, any one point 5A (or a plurality of points) in the area 5B where the subject designated by the user exists.
Is specified and the color detected at that point (hue, saturation,
(Brightness etc.) is used as the color information of the subject. Then, a binarized signal obtained by dividing all image areas into an area 5C having the color information and an area 5D having the other color information (for example, the area 5C specified as a subject is set to "1", and The area 5D is set to "0"). After this binarization, this color information is used as information for identifying the subject in the “imaging state” described later.

【0025】尚、上記したのはカーソル等の使用により
ユーザが被写体画像を特定しているが、これに限らず、
例えば、上記した領域5Bの対角線が交わる点を色情報
を抽出する点としてこの点にある画像を被写体画像とし
て自動設定されるように行っても良い。 (2)2値化情報の整形 上記した2値化信号の画像は、図2に示すように、領域
5Cの近傍では信号ノイズ等に起因する複数の孤立点、
細線等の多数の領域5Eが生じている。この領域5Eは
後述するフィル処理、データ処理において煩雑な信号処
理をしなければならないため、この領域5Eを除去し、
領域5Cを整形(フィルタ処理)する必要があり、この
整形をロジカルフィルタ6にて行う。このロジカルフィ
ルタ6によって前記した“1”の領域を探索し、検出さ
れた“1”の孤立点のみを除去する。孤立点は“1”の
領域の周囲の領域が全て“0”の領域であることから検
出される。また、細線は“1”の領域の周囲(上下左
右)の領域の内1方向が“1”の領域に繋がっているの
で、この繋がっている“1”の領域が連続して検出され
る方向に探索を行い、検出された“1”の領域を順次除
去して“1”の細線の除去を行う。こうして、図3に示
すように、前記したロジカルフィルタ6は被写体の色情
報を持つ領域5Cの近傍に存在する多数の小領域を除去
し、比較的大きな“1”の領域を整形することにより、
同図中に示す大小の被写体候補領域6Aを有する整形2
値化信号を出力する。このとき得られた複数の被写体候
補領域6Aは被写体の色情報(“1”の情報)を持つ大
きな領域である。このためここで得られた複数の被写体
候補領域6Aの内、前述したように、カーソル等の使用
によりユーザが指定した領域5B内に存在する被写体領
域5Cに対応する領域を特定するためにこの整形2値化
信号をフィル処理部7に供給し、先にユーザが指定した
領域5B内の任意の1点5Aの色情報に基づいて後述す
るフィル処理を行う。 (3)被写体情報の収集 ここでは前記したロジカルフィルタ部6から供給された
整形2値化信号に基づいて上記した複数の被写体候補領
域6Aから被写体領域5Cに対応する領域を特定するた
め先にユーザが指定した領域5C内の任意の1点5Aの
色情報によってこの被写体領域5Cに相当する被写体候
補領域6Aのみにフィル処理を行い、こうしてフィル処
理部7から出力された2値化信号はデータ算出部8によ
ってこの被写体領域5Cに相当するフィル処理された被
写体候補領域の面積情報及び重心位置情報を夫々算出す
る。この後、この領域の色情報及び重心位置情報を被写
体情報として駆動制御部9に供給することにより、後述
する「撮影状態」における前記した被写体の自動追尾制
御を行うことが可能となる。
Although the user specifies the subject image by using the cursor or the like, the invention is not limited to this.
For example, the point where the diagonal lines of the area 5B described above intersect may be set as a point for extracting color information, and the image at this point may be automatically set as a subject image. (2) Shaping of Binarized Information As shown in FIG. 2, the image of the binarized signal has a plurality of isolated points caused by signal noise or the like in the vicinity of the region 5C.
A large number of areas 5E such as thin lines are generated. Since this area 5E must be subjected to complicated signal processing in later-described fill processing and data processing, this area 5E is removed,
The area 5C needs to be shaped (filtered), and this shaping is performed by the logical filter 6. The logical filter 6 searches the above-mentioned "1" area, and removes only the detected "1" isolated points. The isolated point is detected because the area around the "1" area is all "0" areas. In addition, since the thin line is connected to the area of "1" in one direction in the area around the area of "1" (upper, lower, left, and right), the direction in which the connected area of "1" is continuously detected. Then, the detected "1" area is sequentially removed to remove the thin line "1". Thus, as shown in FIG. 3, the logical filter 6 removes a large number of small areas existing in the vicinity of the area 5C having the color information of the subject, and shapes a relatively large area of "1",
Shaping 2 having large and small subject candidate regions 6A shown in FIG.
Output a digitized signal. The plurality of subject candidate regions 6A obtained at this time are large regions having subject color information (information of "1"). Therefore, as described above, this shaping is performed to identify the area corresponding to the object area 5C existing in the area 5B designated by the user by using the cursor or the like among the plurality of object candidate areas 6A obtained here. The binarized signal is supplied to the fill processing unit 7, and the fill processing described below is performed based on the color information of any one point 5A in the area 5B previously designated by the user. (3) Collection of subject information Here, in order to identify a region corresponding to the subject region 5C from the plurality of subject candidate regions 6A described above, based on the shaped binarized signal supplied from the logical filter unit 6, the user first The fill processing is performed only on the subject candidate area 6A corresponding to the subject area 5C according to the color information of any one point 5A within the designated area 5C, and the binarized signal output from the fill processing unit 7 in this way is data calculated. The area information and the center-of-gravity position information of the subject candidate area, which has been subjected to the fill processing and corresponds to the subject area 5C, are calculated by the unit 8. After that, by supplying the color information and the center-of-gravity position information of this area to the drive control unit 9 as the subject information, it is possible to perform the above-described automatic tracking control of the subject in the “imaging state” described later.

【0026】さて、前記したフィル処理部7の動作を図
4及び図5を用いて詳細に説明する。ここでフィル処理
とは、図4に示す2つの被写体候補領域6Aの内、被写
体候補領域5Cに相当する領域(図4中、左側の領域6
A)の後述する始点7Aが含まれる全ての領域を上記し
た色情報だけの集合領域に置き換えるという処理である
(言うまでもないが、この領域内には上記した色情報と
は異なった色情報が多数存在している)。この始点7A
は領域6Aのいずれの場所にあっても良く、先にユーザ
が指定した領域5B内の任意の1点(あるいは複数の
点)5Aであっても良い。
Now, the operation of the fill processing section 7 will be described in detail with reference to FIGS. 4 and 5. Here, the filling process means an area corresponding to the object candidate area 5C (a left area 6 in FIG. 4) of the two object candidate areas 6A shown in FIG.
This is a process of replacing all the areas including the starting point 7A described later in A) with the above-mentioned aggregate area containing only the color information (not to mention, there are many color information different from the above-mentioned color information in this area). Existing). This starting point 7A
May be located anywhere in the area 6A, or may be any one point (or a plurality of points) 5A in the area 5B previously designated by the user.

【0027】即ち、先ずこの始点(画素)7Aから左方
向に領域6Aの左境界線までフィル処理を行い、次に右
方向に領域6Aの右境界線までフィル処理を行う。次に
このフィル処理が行われた列の上下の画素列を左右の境
界線までフィル処理を順次行い、このように順次領域6
A内のすべての画素を走査したときこのフィル処理を終
了する。こうして図5に示すようにフィル処理が行われ
た領域、即ち、被写体領域7Cを得る。
That is, first, the fill processing is performed from the starting point (pixel) 7A to the left to the left boundary of the area 6A, and then to the right to the right boundary of the area 6A. Next, the filling process is sequentially performed on the pixel rows above and below the column on which the filling process has been performed up to the left and right boundary lines.
When all the pixels in A have been scanned, this filling process ends. In this way, as shown in FIG. 5, an area for which the fill processing has been performed, that is, a subject area 7C is obtained.

【0028】前記したフィル処理部7においてフィル処
理が行われた2値化信号は前記したデータ算出部8に供
給され、ここで前記した被写体領域7Cのフィル処理を
行った全画素数を積算(カウント)することにより被写
体領域7Cの面積情報が求まる。また、この被写体領域
7C全体を包含する画像領域における座標(X,Y)を
仮想的に設定して前記した画素数が最大となるX値,Y
値を夫々求めることにより被写体領域7Cの重心7Dに
おける座標の値が重心位置情報として得られる。こうし
て求められた面積情報及び重心位置情報は夫々面積情報
信号及び重心位置情報信号として駆動制御部9に供給さ
れる。そして、この重心位置情報信号はこの駆動制御部
9において被写体領域7Cの初期重心位置情報(基準重
心位置情報)信号として以下「撮影状態」に得られる被
写体情報の重心位置情報信号と逐次比較するために記憶
される。また、この重心位置情報信号は後述する「撮影
状態」時、真の被写体領域のみにフィル処理を施すため
の始点を予測するためのデータとして保持される。
The binarized signal that has been subjected to the fill processing in the above-mentioned fill processing section 7 is supplied to the above-mentioned data calculation section 8 where the total number of pixels subjected to the fill processing in the above-mentioned subject area 7C is integrated ( By performing the counting, the area information of the subject area 7C can be obtained. Further, the coordinates (X, Y) in the image area including the entire subject area 7C are virtually set, and the above-mentioned X value and Y at which the number of pixels becomes maximum.
By obtaining the respective values, the coordinate values at the center of gravity 7D of the subject area 7C can be obtained as the center of gravity position information. The area information and the barycentric position information thus obtained are supplied to the drive control unit 9 as an area information signal and a barycentric position information signal, respectively. The center-of-gravity position information signal is sequentially compared with the center-of-gravity position information signal of the subject information obtained in the “imaging state” below as the initial center-of-gravity position information (reference center-of-gravity position information) signal of the subject area 7C in the drive control unit 9. Memorized in. Further, the center-of-gravity position information signal is held as data for predicting the starting point for performing the fill process only on the true subject area in the “imaging state” described later.

【0029】2.「撮影状態」さて、「初期設定状態」
において初期設定を行った後、通常のビデオカメラの撮
影状態となる状態を「撮影状態」という。このときビデ
オカメラの行う動作について説明する。「撮影状態」で
は撮像される映像は刻々と変化しているので、先の「初
期設定状態」において設定した被写体情報を基準として
この被写体の色と動きの変化に対応して、常に被写体を
撮影するように追尾撮影を行う。ここでは被写体の映像
信号について前記した「初期設定状態」時の前記した
(1)〜(3)までの手順に沿った信号処理を行った
後、更に後述する(4)被写体情報の再設定、(5)追
尾制御の各手順が1フレーム毎に順次繰り返し行われ
る。 (4)被写体情報の再設定 この「撮影状態」において、被写体の色や形状が刻々と
変化するとその被写体領域の色情報、面積情報、重心位
置情報(これら3つの情報を以下被写体情報という)も
変化する。このため、この被写体情報の内、色情報及び
重心位置情報を順次求め、現在の1フレーム期間(現フ
レーム画面)の色情報及び重心位置情報と直前の1フレ
ーム期間(前フレーム画面)の色情報及び重心位置情報
とを比較し、この比較結果が前フレーム画面のものと相
関を持つ範囲内であれば、現フレーム画面は前フレーム
画面と略同一であると判断し、被写体画像を認識し続け
ると共に、現フレーム画面の被写体情報を最新の被写体
情報として再設定する。この「撮影状態」に撮像された
映像信号は、前述した「(1)色情報の設定及び色情報
に基づく2値化」と同様な処理が行われた後、後述する
被写体領域7E(図6に図示)が決定される(図6は、
便宜上「初期設定状態」における被写体領域7Cと、
「撮影状態」おける被写体領域7Eとを同一モニタ画面
上に表示している状態を示している)。このとき前記し
た駆動制御部9に記憶保持していた色情報(「初期設定
状態」も含む前フレーム画面の色情報)に基づいてこの
色情報と相関を持つ範囲として最も近い色相、彩度、明
度から構成される色情報(現フレーム画面の色情報)を
持つ領域を決定する。そして、このとき決定された領域
が得られた2値化信号は前記したロジカルフィルタ6に
供給され、前記した「(2)2値化情報の整形」と同様
な処理が行われることによって孤立点及び細線がフィル
タ処理された後、前記したフィル処理部7に供給され、
前記した「(3)被写体情報の収集」と同様な処理が行
われる。
2. "Shooting state" Now, "Initial setting state"
The state in which the normal video camera is in the shooting state after the initial setting is performed is referred to as “shooting state”. The operation performed by the video camera at this time will be described. In the "shooting state", the imaged image changes every moment, so the subject information set in the previous "initial setting state" is used as a reference, and the subject is constantly photographed in response to changes in the color and movement of this subject. Follow the shooting as you do. Here, after performing the signal processing on the video signal of the subject according to the above-described procedures (1) to (3) in the “initial setting state”, (4) resetting of subject information, which will be described later, (5) Each procedure of tracking control is sequentially repeated for each frame. (4) Resetting of subject information In this "shooting state", if the subject's color or shape changes momentarily, the color information, area information, and barycentric position information of the subject area (these three pieces of information will be referred to as subject information below) Change. Therefore, the color information and the barycentric position information are sequentially obtained from the subject information, and the color information and the barycentric position information of the current one frame period (current frame screen) and the color information of the immediately preceding one frame period (previous frame screen) are acquired. And the center-of-gravity position information are compared, and if this comparison result is within a range having a correlation with that of the previous frame screen, it is determined that the current frame screen is substantially the same as the previous frame screen, and recognition of the subject image is continued. At the same time, the subject information of the current frame screen is reset as the latest subject information. The video signal picked up in the “shooting state” is subjected to the same processing as “(1) Color information setting and binarization based on color information” described above, and then a subject area 7E (FIG. 6) described later. Shown in FIG.
For convenience, the subject area 7C in the “initial setting state”,
The subject area 7E in the "imaging state" is displayed on the same monitor screen). At this time, based on the color information stored and held in the drive control unit 9 (color information of the previous frame screen including the “initial setting state”), the hue and saturation closest to the range having a correlation with this color information, An area having color information composed of lightness (color information of the current frame screen) is determined. Then, the binarized signal in which the area determined at this time is obtained is supplied to the above-described logical filter 6 and the same processing as the above-mentioned “(2) Shaping of binarized information” is performed to thereby create an isolated point. And the thin lines are filtered and then supplied to the above-described fill processing unit 7,
The same processing as the above-mentioned “(3) Collecting subject information” is performed.

【0030】さて、被写体情報の再設定のときのフィル
処理部7の動作を図6を用いて説明する。同図において
前記した2値化処理部5及びロジカルフィルタ6を介し
て被写体領域7Eが得られており、この被写体領域7E
のフィル処理を行う場合、フィル処理の始点を設定する
ためにこの被写体領域7Eの重心を予測する(予測点7
F)。この予測点7Fは、1フレーム毎に求められる被
写体領域7Eの重心位置情報を順次蓄積していくことに
より、この重心位置情報の軌跡7H(一点鎖線)を満足
あるいは近似する関数により求められる。そして、この
予測点7Fを始点として上記したフィル処理を行う。ま
た、このとき得られた被写体領域7Eからこの被写体領
域7Eの持つ色情報(予測点7Fを構成する色相、色
彩、明度から構成される色情報)が求められるので先の
色情報(前フレーム画面の色情報)をこの被写体領域7
Eの色情報(現フレーム画面の色情報)に更新し、前記
したデータ算出部8を介して今後変化する被写体領域7
Eの動きを予測するために前記した駆動制御部9に現フ
レーム画面の色情報を記憶保持する。
The operation of the fill processing section 7 when the subject information is reset will be described with reference to FIG. A subject area 7E is obtained through the binarization processing unit 5 and the logical filter 6 described above in the figure, and the subject area 7E is obtained.
In the case of performing the filling process of, the center of gravity of the subject area 7E is predicted in order to set the starting point of the filling process (prediction point 7).
F). The predicted point 7F is obtained by a function that satisfies or approximates the locus 7H (dashed line) of the center of gravity position information by sequentially accumulating the center of gravity position information of the subject area 7E obtained for each frame. Then, the filling process described above is performed with the predicted point 7F as a starting point. In addition, since the color information (color information including the hue, the hue, and the brightness forming the prediction point 7F) of the subject area 7E is obtained from the subject area 7E obtained at this time, the previous color information (the previous frame screen Color information of this subject area 7
The subject area 7 that is updated to the color information of E (color information of the current frame screen) and changes in the future via the data calculation unit 8 described above.
In order to predict the movement of E, the drive control unit 9 stores and holds the color information of the current frame screen.

【0031】また、前記した予測点7Fに被写体候補領
域が存在しないとき(例えば被写体の動きが激しかった
り、大きい場合等)、初期設定状態で求められた重心7
Dの座標データから一番近い被写体領域7E内の点の座
標データを求め(重心7Dから最短距離にある被写体領
域7E内の点)、その点7Gを始点として上記したフィ
ル処理を行ってもよい。更に、上記したフィル処理を行
う始点を予測点7Fより求める方法に対し、「初期設定
状態」における被写体領域7Cの重心7Dが現在の被写
体領域7Eに含まれるとき、例えば「初期設定状態」に
おける被写体領域7Cの重心7Dが被写体領域7Eに含
まれるとき等、被写体の動きがほとんど変わらない場
合、この重心7Dをフィル処理の始点としてもよい。
Further, when there is no subject candidate area at the above-mentioned predicted point 7F (for example, when the subject moves rapidly or is large), the center of gravity 7 determined in the initial setting state is set.
It is also possible to obtain coordinate data of a point in the closest subject area 7E from the coordinate data of D (a point in the subject area 7E located at the shortest distance from the center of gravity 7D), and perform the above-described filling process starting from the point 7G. . Further, when the center of gravity 7D of the subject area 7C in the "initial setting state" is included in the current subject area 7E, for example, the subject in the "initial setting state" is compared with the method of obtaining the starting point for performing the filling process from the prediction point 7F. When the movement of the subject hardly changes, such as when the center of gravity 7D of the region 7C is included in the subject region 7E, the center of gravity 7D may be the starting point of the fill process.

【0032】こうして得られた予測点(始点)7Fある
いは点7Gにより被写体領域7Eのフィル処理を行い、
同様にして前記データ算出部8によって面積情報及び重
心位置情報が求まるので、これら情報を色情報と共に最
新の被写体情報として更新するため、この面積情報信号
及び重心位置情報信号を前記駆動制御部9に夫々供給す
る。そして前記した駆動制御部9に記憶されている前フ
レーム画面の被写体情報をこの被写体情報に置き換え
る。この駆動制御部9において、「初期設定状態」にお
ける被写体領域7Cの重心位置情報信号の値(基準重心
位置情報信号の値、基準値とする)に対するこの被写体
領域7Eの重心位置情報信号の値(現在重心位置の値)
との差分値を求める。この差分値により現在重心位置の
値の変化値を求め、例えば、この現在重心位置のX座標
の値が減少した場合、被写体が「初期設定状態」にあっ
た位置から撮像画面上左方向に移動し、この現在重心位
置のX座標の値が増加した場合、被写体が「初期設定状
態」にあった位置から撮像画面上右方向に移動したと判
断し、また、この現在重心位置のY座標の値が減少した
場合、被写体が「初期設定状態」にあった位置から撮像
画面上下方向に移動し、この現在重心位置のY座標の値
が増加した場合、被写体が「初期設定状態」にあった位
置から撮像画面上上方向に移動したと判断する。そし
て、これらの重心位置のX,Y座標の夫々の値の変化に
対応した変化値を算出する。 (5)追尾制御 こうして算出された前記重心位置情報信号の値の変化値
から前記した現在重心位置の値が基準値からどれだけ変
化したかが求まるので、この変化値に対応したビデオカ
メラの入射光軸の上下左右方向の移動量が求まり、これ
に基づく制御信号を駆動部10に供給する。この駆動部
10は前記した制御信号に基づいた回転角度、回転数で
前記した雲台を回転駆動する指示信号を駆動モータ11
に供給する。この駆動モータ11はこの指示信号により
前記した雲台の回転駆動を行う。即ち、この回転駆動運
動に伴ってこの雲台に設置されたビデオカメラのパンチ
ルトを行う。例えば、現フレーム画面の被写体の位置が
前フレーム画面の被写体の位置より左側に移動したとき
雲台の回転軸を中心として左方向にビデオカメラの入射
光軸を向けるようにビデオカメラを回転させる。こうし
て、被写体の動く方向に合わせてビデオカメラの入射光
軸を向けさせ、常に被写体を撮影する。
The subject region 7E is filled with the thus obtained prediction point (start point) 7F or point 7G,
Similarly, since the area information and the center-of-gravity position information are obtained by the data calculator 8, the area information signal and the center-of-gravity position information signal are sent to the drive controller 9 in order to update these information together with the color information as the latest object information. Supply each. Then, the subject information of the previous frame screen stored in the drive control unit 9 is replaced with this subject information. In the drive control unit 9, the value of the center-of-gravity position information signal of the subject area 7E relative to the value of the center-of-gravity position information signal of the subject area 7C in the "initial setting state" (the value of the reference center-of-gravity position information signal, which is the reference value) ( Current barycentric position value)
Find the difference value between and. A change value of the current center-of-gravity position is obtained from this difference value. For example, when the X-coordinate value of the current center-of-gravity position decreases, the subject moves from the position in the “initial setting state” to the left on the imaging screen. If the X-coordinate value of the current center-of-gravity position increases, it is determined that the subject has moved from the position in the “initial setting state” to the right on the imaging screen, and the Y-coordinate of the current center-of-gravity position If the value decreases, the subject moves vertically from the position in the “initial setting state”, and if the Y coordinate value of the current center of gravity increases, the subject is in the “initial setting state”. It is determined that the position has moved upward from the position on the imaging screen. Then, a change value corresponding to a change in each value of the X and Y coordinates of these barycentric positions is calculated. (5) Tracking control From the change value of the value of the center-of-gravity position information signal calculated in this way, it is possible to find how much the value of the current center-of-gravity position has changed from the reference value. Therefore, the incidence of the video camera corresponding to this change value can be obtained. The amount of movement of the optical axis in the vertical and horizontal directions is obtained, and a control signal based on this is supplied to the drive unit 10. The drive unit 10 outputs an instruction signal for rotationally driving the platform with the rotation angle and the rotation speed based on the control signal.
Supply to. The drive motor 11 drives the pan head to rotate in response to the instruction signal. That is, the pan / tilt of the video camera installed on the platform is performed along with the rotational driving motion. For example, when the position of the subject on the current frame screen moves to the left of the position of the subject on the previous frame screen, the video camera is rotated so that the incident optical axis of the video camera is directed leftward about the rotation axis of the platform. In this way, the incident optical axis of the video camera is directed according to the moving direction of the subject, and the subject is always photographed.

【0033】さて、上記したフィル処理において、前フ
レーム画面と相関を持たない画像が現フレーム画面で得
られたとき(例えば、前フレーム画面まで青い服を着た
人が被写体として認識されていたが、この被写体が現フ
レーム画面において急に赤い人形を抱えてたとき等)、
被写体の色情報と被写体内部の別の物体の色情報が異な
るため、上記した2値化処理によって得られる被写体領
域内部に穴に相当する領域が生じてしまい、被写体が変
化しなくとも、人形の形が変わったり、人形を移動する
ことによってフィル処理によって得られたこの穴の領域
が変化するので、算出される重心位置が変化する。この
ため、重心位置の予測が誤ったり、重心位置の変化を誤
って検出してしまうので追尾撮影の誤作動を起こす虞れ
がある。但し、前記した別領域は被写体領域の内部に発
生するものとする。
Now, in the above-described fill processing, when an image having no correlation with the previous frame screen is obtained on the current frame screen (for example, a person in blue clothes was recognized as the subject up to the previous frame screen. , When this subject suddenly holds a red doll on the current frame screen, etc.),
Since the color information of the subject and the color information of another object inside the subject are different, a region corresponding to a hole is generated inside the subject region obtained by the above-described binarization processing, and even if the subject does not change, Since the area of this hole obtained by the filling process changes when the shape changes or the doll moves, the calculated center of gravity position changes. Therefore, the position of the center of gravity is erroneously predicted, or a change in the position of the center of gravity is erroneously detected, which may cause a malfunction in tracking shooting. However, it is assumed that the different area described above occurs inside the subject area.

【0034】そこで、被写体領域内部に別の色情報を持
つ領域(別領域)が存在する場合、この別領域に影響さ
れないで被写体を優先したフィル処理を行う必要があ
る。この方法として次に述べるように段階的に上記した
フィル処理を行う。先ず、別領域を除く被写体領域に上
記したフィル処理を行った(フィル処理1とする)後、
被写体領域以外の画面の全領域のフィル処理を行う(フ
ィル処理2とする)。このとき、このフィル処理2の始
点は、例えばフィル処理1の始点から最短距離にある被
写体領域以外の領域の点とする。また、この時点で被写
体領域内部の別領域はフィル処理が成されていない。そ
して、前記したフィル処理2によってフィル処理を行っ
た領域以外の領域のフィル処理を行う(フィル処理3と
する)。このフィル処理3において、この被写体領域内
部の別領域を含む全領域のフィル処理を行うことで被写
体領域を特定する。よって前記したフィル処理1〜フィ
ル処理3を行うことで、被写体領域内部に前記した別領
域が存在する場合でも、この別領域の影響を吸収した形
で被写体領域を優先したフィル処理を行うことが可能と
なり、上記したフィル処理3と同時に前記したデータ算
出部8によって算出される被写体領域の面積及び重心か
ら前記した被写体の重心の予測点7Eを求めれば、被写
体領域に対する重心位置が求まるので上記した不具合を
改善することができる。
Therefore, when there is a region (different region) having different color information inside the subject region, it is necessary to perform the fill process with priority given to the subject without being affected by the different region. As this method, the above-described filling process is performed stepwise as described below. First, after performing the above-described fill processing on the subject area excluding another area (referred to as fill processing 1),
Fill processing is performed on all areas of the screen other than the subject area (referred to as fill processing 2). At this time, the starting point of the fill processing 2 is, for example, a point in an area other than the subject area located at the shortest distance from the starting point of the fill processing 1. Further, at this point, the filling process is not performed on another region inside the subject region. Then, the area other than the area subjected to the filling processing by the above-described filling processing 2 is subjected to the filling processing (hereinafter referred to as filling processing 3). In this fill process 3, the subject region is specified by performing a fill process on the entire region including another region inside the subject region. Therefore, by performing the above-described fill processing 1 to fill processing 3, even when the above-described another area exists inside the subject area, the fill processing that prioritizes the subject area can be performed while absorbing the influence of the other area. If the predicted point 7E of the center of gravity of the subject is calculated from the area and the center of gravity of the subject region calculated by the data calculation unit 8 at the same time as the fill process 3 described above, the position of the center of gravity with respect to the subject region is obtained. The defect can be improved.

【0035】尚、上記した被写体領域のフィル処理によ
ると所定のフレーム期間毎にこのフィル処理を行って上
記した重心位置情報を求め、この駆動制御部9に記憶す
ることにより、被写体領域の重心位置情報が蓄積される
ので、被写体の重心位置を予測することが可能であり、
また、被写体領域が求まると、その都度被写体領域の重
心位置情報を更新するので予測値を修正することができ
るため、被写体領域の位置を正確に捕えることができ
る。よって、この重心位置が前フレーム画面の値と比べ
て現フレーム画面でどれだけ変化したかという変化量に
応じて被写体の追尾撮影を行っていたが、例えば、「初
期設定状態」において被写体の重心位置を撮像画面上中
央に設定することで、この被写体の重心位置が常にこの
撮像画面上中央に位置するよう被写体の追尾撮影を行っ
ても良いことは勿論である。
According to the filling processing of the subject area described above, the filling processing is performed every predetermined frame period to obtain the above-mentioned center-of-gravity position information, and the information is stored in the drive control unit 9, so that the center-of-gravity position of the subject area is stored. Since information is stored, it is possible to predict the position of the center of gravity of the subject,
Further, when the subject area is obtained, the center-of-gravity position information of the subject area is updated each time, so that the predicted value can be corrected, so that the position of the subject area can be accurately captured. Therefore, the subject was tracked and photographed according to the amount of change in the current frame screen compared to the value of the previous frame screen, but for example, in the "initial setting state" By setting the position at the center of the image capturing screen, it is of course possible to perform the tracking shooting of the subject such that the center of gravity of the subject is always located at the center of the image capturing screen.

【0036】尚、上記した被写体領域のフィル処理によ
ると所定のフレーム期間毎にこのフィル処理を行って上
記した重心位置情報と共に、この被写体の面積情報を得
ることができるので、例えば、この被写体の面積情報が
一定となるように光学系のズームレンズの制御を行うこ
とで被写体の大きさを略一定に保って被写体の撮影を行
うことが可能なことは勿論である。
According to the filling processing of the subject area described above, the filling processing can be performed every predetermined frame period to obtain the area information of the subject together with the center of gravity position information described above. By controlling the zoom lens of the optical system so that the area information becomes constant, it is of course possible to photograph the object while keeping the size of the object substantially constant.

【0037】また、1フレーム毎にフィル処理を行うこ
とで、刻々と変化していく被写体の状態に追従して被写
体情報を得ることができる。即ち、被写体領域を特定す
る色情報は前フレーム期間までに得られた被写体の色情
報の平均値を用いるため、被写体の色が次第に変化して
いくような場合、例えば、太陽、電球、蛍光灯等の種々
の光源下において同じ被写体を撮像するときでも被写体
を特定することができるので、精度良く被写体の追尾撮
影を行うと同時に、例えば、この被写体の面積情報が一
定となるように光学系のズームレンズの制御を行うこと
で被写体の大きさを略一定に保って被写体の撮影を行っ
ても良いことは勿論である。
By performing the fill process for each frame, the subject information can be obtained by following the ever-changing state of the subject. That is, since the average value of the color information of the subject obtained up to the previous frame period is used as the color information for specifying the subject area, when the color of the subject changes gradually, for example, the sun, a light bulb, a fluorescent lamp. Since the subject can be specified even when the same subject is imaged under various light sources such as, for example, the subject can be accurately tracked and photographed, and at the same time, for example, the area information of the subject can be fixed so that the area information of the subject becomes constant. It goes without saying that the size of the subject may be kept substantially constant and the subject may be photographed by controlling the zoom lens.

【0038】尚、本実施例では初期設定状態において被
写体の基準重心位置情報信号を設定して、現在の被写体
の重心位置情報信号との比較によって被写体の動きの変
化を捕らえ、その変化に応じてビデオカメラのパンチル
ト制御を行っていたが、この被写体の動きの変化を現フ
レーム画面における被写体の重心位置情報信号と前フレ
ーム画面における被写体の重心位置情報信号とを逐次比
較することで上記したパンチルト制御を行っても良いこ
とは勿論である。
In this embodiment, the reference center-of-gravity position information signal of the subject is set in the initial setting state, the change of the subject's movement is captured by comparison with the current center-of-gravity position information signal of the subject, and the change in the subject's motion is detected according to the change. Although the pan / tilt control of the video camera was performed, the pan / tilt control is performed by sequentially comparing the change in the movement of the subject with the gravity center position information signal of the subject on the current frame screen and the gravity center position information signal of the subject on the previous frame screen. Needless to say,

【0039】尚、本実施例ではビデオカメラのオートズ
ーム制御について説明したが、例えば、前記したCCD
撮像素子を撮像媒体とするスチルカメラ等に本発明の構
成を加えることによってこのスチルカメラ等の自動追尾
制御を行えることは勿論である。
Although the auto-zoom control of the video camera has been described in this embodiment, for example, the above-mentioned CCD
It goes without saying that automatic tracking control of the still camera or the like can be performed by adding the configuration of the present invention to the still camera or the like using the image pickup device as an image pickup medium.

【0040】[0040]

【発明の効果】本発明のビデオカメラは、上述したよう
に、被写体を撮像した映像信号を被写体領域とそれ以外
の領域とに2値化する2値化処理手段と、前記被写体領
域に係る2値画像信号をフィル処理するフィル処理手段
と、前記フィル処理手段から出力するフィル処理画像信
号における前記被写体領域の面積情報信号及び重心位置
情報信号を夫々出力するデータ算出手段と、前記面積情
報信号及び前記重心位置情報信号、前記被写体領域に係
る色情報信号を夫々更新保持すると共に、保持した前記
色情報信号及び前記重心位置情報信号を前記2値化処理
手段及びフィル処理手段に夫々出力し、初期設定された
重心位置情報信号を基準として、これと更新保持した重
心位置情報信号との差に基づく制御信号を出力する駆動
制御手段と、前記制御信号に基づいて前記被写体の画像
を常時撮像画面上に映すようにパンチルト制御を行う駆
動手段とを有するよう構成したことから、撮像された被
写体の色情報信号に基づいて被写体を特定し、その重心
位置情報信号を求めることにより、例えば、初期設定状
態の重心位置情報信号の値を基準として、現在この重心
位置情報信号がどの程度変化したかによって、被写体及
び被写体と略同じ大きさと略同じ動きを持つ被写体以外
のものとでも識別することが確実となるため、例えば被
写体の子供と類似の色の服を着た子供とが同一の撮像画
面内にあっても、前記した色情報から被写体を特定でき
るのでこの被写体と被写体以外の子供とを区別すること
が可能となり、精度良く被写体の自動追尾を行うことが
できるという効果がある。
As described above, the video camera of the present invention binarizes a video signal obtained by capturing an image of a subject into a subject region and a region other than that, and a binarization unit for the subject region. Fill processing means for filling the value image signal, data calculation means for respectively outputting the area information signal and the center of gravity position information signal of the subject region in the fill processed image signal output from the fill processing means, the area information signal, The center-of-gravity position information signal and the color information signal related to the subject area are updated and held, and the held color information signal and center-of-gravity position information signal are output to the binarization processing unit and the fill processing unit, respectively. Drive control means for outputting a control signal based on a difference between the set center-of-gravity position information signal and the updated center-of-gravity position information signal; Since it has a driving means for performing pan-tilt control so that the image of the subject is always displayed on the image pickup screen based on the control signal, the subject is specified based on the color information signal of the imaged subject, and By obtaining the center-of-gravity position information signal, for example, based on the value of the center-of-gravity position information signal in the initial setting state, depending on how much the center-of-gravity position information signal has changed at present, the object and the motion of about the same size and about the same as the object Therefore, even if the child of the subject and the child dressed in a similar color are in the same imaging screen, the subject can be identified from the above color information. Since the object can be identified, it is possible to distinguish the subject from a child other than the subject, and there is an effect that the subject can be automatically tracked with high accuracy.

【0041】更に、被写体と略同じ大きさと色の物体
で、被写体と重なるような動きをする場合でも、前記し
た被写体の重心位置情報を求めることによって、被写体
を特定することが可能となり、精度良く被写体の自動追
尾を行うことができるという効果がある。
Further, even when an object having the same size and color as the object is moved so as to overlap with the object, the object can be specified with high accuracy by obtaining the position information of the center of gravity of the object. There is an effect that the subject can be automatically tracked.

【0042】更にまた、例えば被写体としての子供に
R;赤、G;緑、B;青いずれかの色の帽子等を被らせ
ておくことによりこの帽子の色が撮像画面上どの領域に
存在するかを判定し、予め被写体以外の物体の色と明確
に区別される被写体の色が指定する必要がないため前述
した欠点を解消することができるという効果がある。
Furthermore, for example, by covering a child as a subject with a hat of R; red, G; green, B; blue, etc., the color of this hat is present in any area on the image pickup screen. It is not necessary to specify the color of an object that is clearly distinguished from the color of an object other than the object in advance, and therefore the above-described drawbacks can be eliminated.

【0043】また、被写体領域を特定する色情報は前撮
像画面までに得られた色情報の平均値を用いるため、被
写体の色が次第に変化していくような場合、例えば、被
写体が日向から日陰に入ったり出たりしても被写体を特
定することができるので、精度良く被写体の自動追尾が
行えるという効果がある。
Further, since the average value of the color information obtained up to the previous image pickup screen is used as the color information for specifying the subject area, when the color of the subject changes gradually, for example, the subject changes from the shade to the shade. Since the subject can be specified even when entering or exiting, there is an effect that the subject can be automatically tracked with high accuracy.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係るビデオカメラの一実施例を説明す
るためのブロック図である。
FIG. 1 is a block diagram for explaining an embodiment of a video camera according to the present invention.

【図2】2値化処理手段の動作を説明するための図であ
る。
FIG. 2 is a diagram for explaining the operation of a binarization processing unit.

【図3】ロジカルフィルタの動作を説明するための図で
ある。
FIG. 3 is a diagram for explaining the operation of the logical filter.

【図4】フィル処理手段の動作を説明するための図であ
る。
FIG. 4 is a diagram for explaining the operation of the fill processing means.

【図5】フィル処理手段の動作を説明するための図であ
る。
FIG. 5 is a diagram for explaining the operation of the fill processing means.

【図6】初期状態以降、現在のフィル処理手段の動作を
説明するための図である。
FIG. 6 is a diagram for explaining the current operation of the fill processing means after the initial state.

【図7】従来のビデオカメラを説明するためのブロック
図である。
FIG. 7 is a block diagram for explaining a conventional video camera.

【符号の説明】[Explanation of symbols]

5 2値化処理手段 5C,6A,7C,7E 被写体領域 6 フィルタ 7 フィル処理手段 8 データ算出手段 9 駆動制御手段 10 駆動手段 5 Binarization processing means 5C, 6A, 7C, 7E Subject area 6 Filter 7 Fill processing means 8 Data calculation means 9 Drive control means 10 Drive means

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】被写体を撮像した映像信号を被写体領域と
それ以外の領域とに2値化する2値化処理手段と、 前記被写体領域に係る2値画像信号をフィル処理するフ
ィル処理手段と、 前記フィル処理手段から出力するフィル処理画像信号に
おける前記被写体領域の面積情報信号及び重心位置情報
信号を夫々出力するデータ算出手段と、 前記面積情報信号及び重心位置情報信号、前記被写体領
域に係る色情報信号を夫々更新保持すると共に、保持し
た前記色情報信号及び重心位置情報信号を前記2値化処
理手段及びフィル処理手段に夫々出力し、初期設定され
た重心位置情報信号を基準として、これと更新保持した
重心位置情報信号との差に基づく制御信号を出力する駆
動制御手段と、 前記制御信号に基づいて前記被写体の画像を常時撮像画
面上に映すようにパンチルト制御を行う駆動手段とを有
することを特徴とするビデオカメラ。
1. A binarization processing unit for binarizing a video signal of a subject into a subject region and a region other than the subject region, and a fill processing unit for performing a fill process on a binary image signal relating to the subject region. Data calculation means for respectively outputting an area information signal and a barycentric position information signal of the subject area in a fill processed image signal outputted from the fill processing means, the area information signal and the barycentric position information signal, and color information related to the subject area The signals are updated and held respectively, and the held color information signal and barycentric position information signal are output to the binarization processing means and the fill processing means, respectively, and the barycentric position information signal initialized is used as a reference and updated. A drive control unit that outputs a control signal based on a difference from the held center-of-gravity position information signal, and an image capturing screen that constantly captures the image of the subject based on the control signal A video camera, comprising: a drive unit that performs pan-tilt control as shown above.
JP5321186A 1993-11-26 1993-11-26 Video camera Expired - Lifetime JP2906959B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5321186A JP2906959B2 (en) 1993-11-26 1993-11-26 Video camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5321186A JP2906959B2 (en) 1993-11-26 1993-11-26 Video camera

Publications (2)

Publication Number Publication Date
JPH07154666A true JPH07154666A (en) 1995-06-16
JP2906959B2 JP2906959B2 (en) 1999-06-21

Family

ID=18129751

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5321186A Expired - Lifetime JP2906959B2 (en) 1993-11-26 1993-11-26 Video camera

Country Status (1)

Country Link
JP (1) JP2906959B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008042808A (en) * 2006-08-10 2008-02-21 Toshiba Corp Target detecting and tracking apparatus
WO2010110215A1 (en) 2009-03-25 2010-09-30 日本ビクター株式会社 Image display device, image capture device, image display system, image display method, and image combining device
WO2011141990A1 (en) * 2010-05-10 2011-11-17 富士通株式会社 Image processing device and image processing program
JP2012186743A (en) * 2011-03-08 2012-09-27 Canon Inc Photographing device with tracking function, and photographing method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008042808A (en) * 2006-08-10 2008-02-21 Toshiba Corp Target detecting and tracking apparatus
WO2010110215A1 (en) 2009-03-25 2010-09-30 日本ビクター株式会社 Image display device, image capture device, image display system, image display method, and image combining device
CN102362496A (en) * 2009-03-25 2012-02-22 日本胜利株式会社 Image display device, image capture device, image display system, image display method, and image combining device
WO2011141990A1 (en) * 2010-05-10 2011-11-17 富士通株式会社 Image processing device and image processing program
JP5338978B2 (en) * 2010-05-10 2013-11-13 富士通株式会社 Image processing apparatus and image processing program
US9709874B2 (en) 2010-05-10 2017-07-18 Fujitsu Limited Device and method for image processing used for tracking pursued subject
JP2012186743A (en) * 2011-03-08 2012-09-27 Canon Inc Photographing device with tracking function, and photographing method

Also Published As

Publication number Publication date
JP2906959B2 (en) 1999-06-21

Similar Documents

Publication Publication Date Title
JP3298072B2 (en) Video camera system
JP4568009B2 (en) Monitoring device with camera cooperation
CN107079087A (en) Camera device and object recognition methods
CN108603997A (en) control device, control method and control program
JP4866557B2 (en) Video signal processing apparatus, imaging apparatus equipped with the video signal processing apparatus, video signal processing method, and video signal processing program
JP4403483B2 (en) Automatic tracking device
JP2001268425A (en) Automatic tracking device
JP2906959B2 (en) Video camera
JPH0723322A (en) Moving image recording medium, still image extracting device, moving image recorder, and automatic extracting method for still image
JPH06268894A (en) Automatic image pickup device
JP3615867B2 (en) Automatic camera system
JP2001169169A (en) Automatic tracking device
JP4725693B2 (en) Automatic tracking device
JP3196842B2 (en) Image processing method and imaging device
JPH09327037A (en) Contour extracting method and method and device for extracting image
JP3705591B2 (en) Method and apparatus for detecting reference position of annular image by omnidirectional imaging
JP2947037B2 (en) Video camera
JPH089314A (en) Animation image recording medium, still image extracting device, animation image recorder and still image automatic extracting method
JP3704201B2 (en) Automatic photographing camera system and object recognition method in the system
JP3393969B2 (en) Method and apparatus for recognizing subject in automatic camera system
JP2003069884A (en) Automatic subject following device for photographing camera
JP2004117195A (en) Digital camera with speed measuring function
JP3960758B2 (en) Monitoring device
JP4212391B2 (en) Video camera
CN111698427B (en) Image processing method and device and electronic equipment

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090402

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090402

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100402

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110402

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120402

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120402

Year of fee payment: 13

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120402

Year of fee payment: 13

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120402

Year of fee payment: 13

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120402

Year of fee payment: 13

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120402

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140402

Year of fee payment: 15

EXPY Cancellation because of completion of term