JPH01184483A - Automatic tracking device for moving body - Google Patents

Automatic tracking device for moving body

Info

Publication number
JPH01184483A
JPH01184483A JP63008973A JP897388A JPH01184483A JP H01184483 A JPH01184483 A JP H01184483A JP 63008973 A JP63008973 A JP 63008973A JP 897388 A JP897388 A JP 897388A JP H01184483 A JPH01184483 A JP H01184483A
Authority
JP
Japan
Prior art keywords
moving object
tracking
image
size
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63008973A
Other languages
Japanese (ja)
Inventor
Shigenori Tagami
田上 重徳
Kazuo Kodaira
小平 一穂
Hirosumi Suzuki
鈴木 弘純
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Priority to JP63008973A priority Critical patent/JPH01184483A/en
Publication of JPH01184483A publication Critical patent/JPH01184483A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To improve tracking performance by detecting a state wherein automatic tracking is disabled and carrying on the automatic tracking again when it is enabled. CONSTITUTION:An azimuth arithmetic unit calculates the variation rate of the size of a moving and the shift quantity of the position on a screen from size and geometric gravity center data on the moving body which is inputted from an image processor 3 at each sampling time in parallel to normal tracking and then judges that the tracking is impossible when the variation rate and shift quantity exceed specific tracking range set values, thereby outputting an predicted value of a target azimuth based on a target azimuth and angular speed data which are one sampling time before to a driving table controller 7. At this same time, the size and position of the moving body are compared with the specific recovery range set values each time the sampling time is elapsed from said point and the normal moving body tracking is performed when said values enters the set recovery ranges.

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は移動物体を追尾する自動追尾装置に関するも
のである。
DETAILED DESCRIPTION OF THE INVENTION [Industrial Field of Application] The present invention relates to an automatic tracking device for tracking a moving object.

[従来技術1 従来から、航空機等の高速で移aする移動物体を自動釣
に追尾して、方位角や移動角速麿を検出して、各種機器
のill m用情報として利用することが行なわれてい
る。
[Prior Art 1] Conventionally, it has been practiced to automatically track a moving object such as an aircraft that moves at high speed, detect the azimuth angle and the moving angle speed, and use the information as illumination information for various devices. It is.

[この発明が解決すべき問題点] こうした中で、撮像装置で得られた対象物を含む映像信
号から対衆物である移動物体にl1l−Jるデータを生
成し、自動追尾を行なうものも用いられている。
[Problems to be Solved by the Invention] Under these circumstances, there is also a system that automatically tracks a moving object, which is a public object, by generating data from a video signal including the object obtained by an imaging device. It is used.

しかしながら、従来型の装置では1フレーム毎に処理を
行なうが、画像処理方式として固定2値化を用いて背景
と移動物体を分離する為、環境条件が変化した場合に適
応的に対応していくことが難しく、屋外等で使用出来な
かった。
However, conventional equipment processes each frame, but uses fixed binarization as an image processing method to separate the background and moving objects, so it can adapt to changes in environmental conditions. It was difficult to do so, and it could not be used outdoors.

また、環境条件等の変化にも適応的に対応して背景と移
動物体の分離を行なうアルゴリズムを備えたものも提供
されてはいるが、画面を構成する各々の情f41(例え
ば250x250画素の場合、約6万個のデータ)をソ
フトウェアで処理するため1画面あたり数秒から数十秒
の処理時間がかかり移動物体の計測用には不向きであっ
た。
In addition, although there are models equipped with algorithms that adaptively respond to changes in environmental conditions and separate the background and moving objects, there are , about 60,000 pieces of data) is processed by software, which takes several seconds to several tens of seconds per screen, making it unsuitable for measuring moving objects.

さらに、従来型の装置では撮像装置が固定型である為、
移動物体が撮像装置の画角から外れた場合には計測出来
ず、高速で移動する移動物体を追尾す′ることは不可能
であった。
Furthermore, since the imaging device in conventional devices is fixed,
If the moving object is out of the field of view of the imaging device, it cannot be measured, and it has been impossible to track the moving object that is moving at high speed.

また従来型の処理装置では、移動物体が煙突等の障害物
の陰を通過した場合等には、その前後で移動物体が識別
不能となり追尾機能が停止したり誤動作する場合があり
、その部位オペレータが装置の調整や再始動をする必要
があった。
In addition, with conventional processing equipment, if a moving object passes behind an obstacle such as a chimney, it may become impossible to identify the moving object in front or behind it, and the tracking function may stop or malfunction. equipment had to be adjusted and restarted.

そこで、この発明は、環境変化に適応し、かつ、処理の
1部をハードウェア化することによりソフトウェアで処
理するデータ数を1画面当り数百側に減することのでき
るアルゴリズムを用いることで前記の様な従来型装置の
不都合な点を改善し、広範囲な領域を高速で移動する移
動物体のみを画像の他の背景部分から的確に抽出して追
lとし、移動物体の方位データを生成することを目的と
する。
Therefore, the present invention uses an algorithm that can adapt to environmental changes and reduce the number of data processed by software to several hundred per screen by converting a part of the processing into hardware. By improving the disadvantages of conventional devices such as The purpose is to

また、本発明は障害物により撮像装置から移動物体まで
の視界が遮られて追尾不能となった場合でも、その時点
の前後の状況を判断して、追尾復旧可能となるまで、該
時点より1フレーム前の目標方位及び角速度データに基
づく予測方位へ撮像装置をt+IJIIlシ、オペレー
タの再起動介入操作なしに連続して追尾動作することの
できる移動物体の自助追尾¥Affを提供することを目
的とする。
Furthermore, even if the visibility from the imaging device to the moving object is obstructed by an obstacle and tracking becomes impossible, the present invention determines the situation before and after that point, and then waits for 1 hour from that point until tracking can be restored. The purpose of the present invention is to provide a self-help tracking system for a moving object that can move an imaging device to a predicted orientation based on the target orientation and angular velocity data before the frame and perform continuous tracking operation without restart intervention by an operator. do.

[問題を解決する為の手段] この発明による移動物体の自動追尾装置は、移動物体を
撮像するm像装置と、この撮像装置を撮像方向自在に支
承する駆動台と、前記m像装置からの現フレームの映像
信号を入力して1フレーム前の背閲のみのモデル画像と
比較して、その輝度差から移動物体のみを抽出して移1
FII 1体の幾何学重心方向とtea画面方向との角
度差を示す幾何学重心データと移動物体の両面内におけ
る大きさを粋出し、さらに現フレームでの背景のみの画
像を次のフレームでのモデル画像として格納する画像−
処理装置と、この画像処理装置から出力される幾何学重
心データ及び別途入力される撮像方向を示す方位角デー
タとを入力して移動物体の目標方位演篩値を出力する方
位演算装置と、この目tfAh位演算値を人力して前記
移動物体が前記撮像装置の画面中央に位置するよう撮像
方向をtIllIIlする制御信号を前記駆動台に出力
すると共に撮像装置の方位角データを前記位置演p装置
に出力する駆動台制御装置とを備えた追尾装置において
、さらに前記方位演算装置は上記通常の追尾と並行して
前記画像処理装置からサンプリングタイム毎に入力され
る移動物体大きさと幾何学重心データから移動物体の画
面内での大きさの変化率と位置の変化量を算出して該変
化率及び変化量が所定の追尾範囲設定値を超えるときに
追尾不能と判断して、前記駆動台制御装置に1サンプリ
ングタイム前の目標方位及び角速度データに基づく目標
方位の予測値を出力し、かつ該時点から各サンプリング
タイム杆過毎に移動物体の大きさと位置とを所定の復旧
範囲設定値と比較して、この復旧範囲設定値内に入った
ときのみ復旧可能と判断して通常の移動物体追尾を行な
う機能を有するものである。
[Means for Solving the Problem] An automatic tracking device for a moving object according to the present invention includes an m-image device that images a moving object, a drive stand that supports the image-capturing device freely in the imaging direction, and Input the video signal of the current frame, compare it with the model image of the previous frame, and extract only the moving object from the brightness difference.
FII The geometric center of gravity data indicating the angular difference between the direction of the geometric center of gravity of one object and the direction of the tea screen and the size of the moving object on both sides are extracted, and the image of only the background in the current frame is calculated in the next frame. Image stored as a model image −
a processing device; an azimuth calculation device that inputs geometric center of gravity data output from the image processing device and azimuth data indicating an imaging direction input separately and outputs a target azimuth calculation value of a moving object; A control signal for changing the imaging direction so that the moving object is located at the center of the screen of the imaging device is outputted to the driving stage by manually calculating the position calculation value, and the azimuth data of the imaging device is transmitted to the position calculation device. In the tracking device equipped with a drive platform control device that outputs data to Calculates the rate of change in size and amount of change in position of the moving object within the screen, and determines that tracking is impossible when the rate of change and amount of change exceed a predetermined tracking range setting value, and the drive platform control device outputs a predicted value of the target orientation based on the target orientation and angular velocity data one sampling time before, and compares the size and position of the moving object with a predetermined recovery range setting value every sampling time from that point onwards. It has a function of determining that recovery is possible only when the recovery range is within the set value, and performing normal tracking of the moving object.

[実施例] 以下、図示するこの発明の実施例により説明する。第1
図に、この発明による移動物体の自動追尾装置実施例の
装置構成ブロック図を示した。
[Example] Hereinafter, the present invention will be explained using the illustrated example. 1st
The figure shows a block diagram of an apparatus configuration of an embodiment of an automatic tracking device for a moving object according to the present invention.

この実施例では、撮像装置としてTVカメラ1が用いら
れており、カメラ駆動台9に支承されて搬像方向調整自
在となっている。
In this embodiment, a TV camera 1 is used as an imaging device, and is supported by a camera drive stand 9 so that the image carrying direction can be adjusted.

TVカメラ1から得られる映像信号2は次段に設けられ
た画像処理装置3に入力されて、TV映像内における移
動物体の幾何学重心データ9が算出される。
A video signal 2 obtained from the TV camera 1 is input to an image processing device 3 provided at the next stage, and geometric center of gravity data 9 of a moving object in the TV video is calculated.

さらにTVカメラ1はズーム機構を内蔵しており、画像
処理装置3内でのディジタル画像処理に必要な程度まで
に移動物体像を自動的にズーミングし、各サンプリング
タイム毎にその画角信号θを出力する。画像処11!装
置3ではこの画角信号θを用いることにより、画素数で
示される移動物体の幾何学重心位置を角度に換算して幾
何学重心データ4を算出することができる。
Furthermore, the TV camera 1 has a built-in zoom mechanism that automatically zooms the moving object image to the extent necessary for digital image processing within the image processing device 3, and outputs the angle of view signal θ at each sampling time. Output. Image processing 11! By using this view angle signal θ, the device 3 can calculate the geometric center of gravity data 4 by converting the geometric center of gravity position of the moving object indicated by the number of pixels into an angle.

通常のTV画像信号(R8170規格)においては2:
1インタレ一ス方式を採用している為、1/30秒で1
画面分のデータが得られるが、垂直方向の分解能を25
0画素以下とするならば1/60秒でデータが得られる
こととなる。
For normal TV image signals (R8170 standard): 2:
Since it uses the 1-interlace method, 1 in 1/30 seconds
Data for a screen can be obtained, but the vertical resolution is 25
If the number of pixels is 0 or less, data can be obtained in 1/60 second.

ここで、画像処理装置3を第2図に示した詳細な構°成
ブロック図に基づいて説明する。まず、丁■カメラ1に
より撮像された映像信号2は現フレーム(nフレーム)
の入力画像データ21として入力画像記憶装置11に記
憶される。またモデル画像記憶装置17には予め1フレ
ーム前(n−1フレーム)の移動物体を除いた背景のみ
のモデル画像18が格納されている。
Here, the image processing device 3 will be explained based on the detailed configuration block diagram shown in FIG. First, the video signal 2 captured by the camera 1 is the current frame (n frame).
is stored in the input image storage device 11 as input image data 21. Further, the model image storage device 17 stores in advance a model image 18 of only the background excluding the moving object one frame before (n-1 frame).

このモデル画像18を構成するモデル画像データ2oと
入力画像データ21は画像構成器13に入力され、後に
詳述するカメラ架台制御装置からのカメラ架台位置信号
10に基づいて第3図に示した様に画lI重壱を行う。
The model image data 2o and input image data 21 constituting this model image 18 are input to the image constructor 13, and are as shown in FIG. Perform the picture lI heavy Ichi.

ここで、画像構成器13は、第3図のモデル画像18と
入力画像データ21の処理において、重なっている部分
においてはモデル画像データ20を採用し、また重なり
合わない部分(TVカメラ1の1フレ一ム間での搬像方
向の変移量を示す)では入力画像データ2・1を採用し
て、現フレーム(nフレーム)での構成画像19を生成
して出力する。この構成画像19は、後に作用の項で詳
述するがフレーム間(1/30sec )での移動物体
の大きさの変化率にはIQ、98≦に≦1.02J 、
また位置の変移量ΔXは「ΔX≦0.1画素」で規定さ
れるため初期設定で移動物体を画像中央に設定すれば1
フレームの時開経過で画像の中央部分からはづれること
はなく、従って最初に格納されるモデル画像18が背景
のみで構成されていれば、画&構成器13内で1フレー
ム経過毎に撮像方向に合わせた入力画像データ21の背
景部分のみが少しづつ(第3図は21の部分を強調しで
ある)増加する構成画l119が得られる。
Here, in processing the model image 18 and input image data 21 shown in FIG. Input image data 2.1 (indicating the amount of displacement in the image transport direction between frames) is used to generate and output a constituent image 19 in the current frame (n frame). This constituent image 19 will be described in detail later in the section on effects, but the rate of change in the size of the moving object between frames (1/30 sec) is IQ, 98≦≦1.02J,
In addition, the amount of displacement ΔX in position is defined as "ΔX≦0.1 pixel", so if you set the moving object to the center of the image in the initial settings, it will be 1 pixel.
It does not deviate from the center of the image as the frame progresses over time. Therefore, if the initially stored model image 18 consists only of the background, images are captured in the image & composition unit 13 every frame. A constituent image 1119 is obtained in which only the background portion of the input image data 21 adjusted to the direction increases little by little (the portion 21 is emphasized in FIG. 3).

この構成画@19の生成を行うのに際して、初期動作又
はモデル画像の格納されていない領域で追尾動作を開始
する場合には、その時点での背景の明るさに概略相当す
る所定範囲の輝度画素をモデル画像データのダミーデー
タとしてモデル画像記憶装置17に手動入力することが
できる。
When generating this constituent image @19, if the initial motion or the tracking motion is started in an area where no model image is stored, the brightness pixels in a predetermined range roughly corresponding to the brightness of the background at that time. can be manually input into the model image storage device 17 as dummy data of the model image data.

画像比較器12は、前述した構成画像19と入力画像記
憶装置11からの入力画像データ21とを入力して、こ
れら2つの信号の輝度を各画素毎に比較した輝度差信号
19′を生成する。この輝度差信号19′は移動物体を
含む入力画像データ21と同じ搬像範囲での背景のみの
構成画像との間の画素毎の輝度差で構成されるので、背
景の部分同士はほぼ輝度差が無いのに対して、移動物体
の存在する個所では輝度差が大きな値となっている。
The image comparator 12 inputs the aforementioned constituent image 19 and the input image data 21 from the input image storage device 11, and generates a brightness difference signal 19' by comparing the brightness of these two signals for each pixel. . This brightness difference signal 19' is composed of the brightness difference for each pixel between the input image data 21 including the moving object and the constituent image of only the background in the same carrying range, so there is almost a difference in brightness between the background parts. In contrast, the brightness difference is large in areas where there is a moving object.

この輝度差信号19′はモデル画像構成器14と2値画
像構成器15とに出力される。この内、2値画像構成器
15では入力した輝It差信号19′より、その輝度差
の絶対値があるスレッショールド値以上である画素は移
動物体とし、それ以下のものは背景として2値化し重心
演算器16に2値化されたデータを出力する。ここで、
重心演尊器16は2値化画像に基づいて移動物体の幾何
学重心4を出力する。
This luminance difference signal 19' is output to the model image constructor 14 and the binary image constructor 15. Among these, in the binary image constructor 15, based on the input luminance It difference signal 19', pixels whose absolute value of the luminance difference is greater than or equal to a certain threshold value are treated as moving objects, and those less than that are treated as a binary background. The binarized data is output to the centroid calculator 16. here,
The center of gravity calculator 16 outputs the geometric center of gravity 4 of the moving object based on the binarized image.

一方、モデル画像構成器14においては、2値化信号1
9′とともに前記モデル画像データ20と入力画像デー
タ21も合わせて入力され、以下の式に基づいて次のフ
レーム(n+1フレーム)でのモデル画像を生成する。
On the other hand, in the model image constructor 14, the binary signal 1
9', the model image data 20 and input image data 21 are also input, and a model image for the next frame (n+1 frame) is generated based on the following equation.

・・・・・・・・・・・・・・・・二・・・・・・・(
1まただし、Pmod(x、y、n)  :フレームn
でのモデル画像データ20の (X、V)の位置における 輝度 Pin(x、V、n) :フレームnでの入力画像デー
タ21の(X、l/) の位置における譚痘。
················two·······(
1, but Pmod (x, y, n): frame n
Luminance Pin (x, V, n) at the position (X, V) of the model image data 20 at frame n: Luminance at the position (X, l/) of the input image data 21 at frame n.

また関数「は例えば以下のようなおもみづけ関数を用い
る。
Also, the function ``uses, for example, the following impersonation function.

−(1−j)X1+X2 r(xl、x2)−□・・・・・・・・・・・・・・・
・・・(りここで用いているスレッショールドレベル、
および整数mは実験的に決定される。
-(1-j)X1+X2 r(xl, x2)-□・・・・・・・・・・・・・・・
...(Threshold level used here,
and the integer m are determined experimentally.

すなわち、このモデル画am成器14においては、■の
条件で示した輝度差の絶対値〉スレッショ−ルドレベル
となる移動物体の画素に該当する部分ではこの移動物体
をキャンセルするた゛めにモデル画像モデル20の該当
する画素Pled(x、 y、 n)を採用する。
That is, in this model image generator 14, the model image model 20 is used to cancel the moving object in the portion corresponding to the pixel of the moving object where the absolute value of the brightness difference shown in the condition (2) is the threshold level. The corresponding pixel Pled(x, y, n) is adopted.

また、■に示した輝匪差の絶対値くスレッショールドレ
ベルの条件のもとでは、判別の精度を高めるために該当
画素毎にモデル画一データPlOd(x、y、n)と入
力画像データPin(X、v、n)の双方から重みづけ
処理を行って背景の画素となるデータを作成する。こう
して、移動物体の無い背景だけのデータを作成し、次の
フレーム(n+1フレーム)での処理のモデル画像デー
タ18として出力し、モデル画像記憶装!!17内に格
納する。
In addition, under the condition of absolute value of brightness difference and threshold level shown in Weighting processing is performed on both data Pin (X, v, n) to create data that will become background pixels. In this way, data of only the background without moving objects is created, outputted as model image data 18 for processing in the next frame (n+1 frame), and stored in the model image storage device! ! 17.

すなわち、以上説明した画像事理装置3においては、1
フレーム前の背景のみのモデル画像データを内蔵して、
それに塁づく輝度差比較と、モデル画像をフレーム毎に
!新していくことで、画面の状況変化(明るさの変化等
)に適応的に対応して移動物体画素の抽出を的確に行う
ことができる。
That is, in the image processing device 3 described above, 1
Built-in model image data of only the background in front of the frame,
Compare the brightness differences based on that and model images for each frame! By updating, moving object pixels can be accurately extracted in response to changes in screen conditions (changes in brightness, etc.).

こうして、画像処理装置3で算出された幾何学重心デー
タ4は次段に設けられた方位演算装N5に出力される。
In this way, the geometric center of gravity data 4 calculated by the image processing device 3 is output to the azimuth calculation device N5 provided at the next stage.

この方位演算装置5は幾何学重心データ4とTVカメラ
のam方位を示す方位角データを含む駆動台位置信号1
0から対象物体の方位である目標方位演q値を算出して
、駆動台制御装置7に出力する。駆動台&lJ til
l装置27はTVカメラ1を支承するカメラ駆動台9を
コントロールするものであり、前記方位演算装置からの
入力信号ケら幾何学重心4が画面の中央に位置するよう
カメラ駆動台9に対して駆動台1111111信号8を
出力する。これにより、T Vカメラ1は移動物体の画
像を画面の中央でとらえるよう方位角がII 御される
This azimuth calculation device 5 generates a driving platform position signal 1 containing geometric center of gravity data 4 and azimuth data indicating the AM azimuth of the TV camera.
A target azimuth calculated q value, which is the azimuth of the target object, is calculated from 0 and output to the drive platform control device 7. Drive stand & lJ til
The l device 27 controls the camera drive stand 9 that supports the TV camera 1, and uses input signals from the azimuth calculation device to control the camera drive stand 9 so that the geometric center of gravity 4 is located at the center of the screen. Drive stand 1111111 outputs signal 8. As a result, the azimuth angle of the TV camera 1 is controlled so that the image of the moving object is captured at the center of the screen.

また、駆動台&制御装置7からは方位演算装置5に対し
てTVカメラ1の現在のIi画像位を示す方位角データ
が出力される。そこで、方位演算装置5はTVカメラ1
の方位角データ及び映像画面中の幾何学重心データ4か
ら移動物体の目標方位、演篩値等の計測データ6を出力
する。
Further, the driving platform and control device 7 outputs azimuth data indicating the current Ii image position of the TV camera 1 to the azimuth calculation device 5. Therefore, the direction calculation device 5 is connected to the TV camera 1.
Measurement data 6 such as the target azimuth of the moving object and the calculated sieve value are output from the azimuth data and the geometric center of gravity data 4 on the video screen.

ここで、移動物体が煙突等の陰に入る等した場合に追尾
不能又は誤動作するのを防止する為に、方位演算装置5
内に自動追尾不能を検出して装置の誤動作を防止する機
能と、自動追尾復旧の可能性を判定して通常の追尾に復
旧させるI!lI@とが備えられている。
Here, in order to prevent the moving object from being unable to be tracked or malfunctioning if it enters behind a chimney or the like, the direction calculation device 5
I! has a function that detects when automatic tracking is not possible during the test to prevent malfunction of the device, and a function that determines the possibility of automatic tracking recovery and restores normal tracking. lI@ is provided.

この内、自動追尾が出来なくなったことの検出は、方位
2iI算装置5内に予め設定される移動物体の画面内に
おける許容大きさ変化率にと許容位計変化鏝ΔXを実i
ll値と比較することで行なわれる。
Among these, detecting that automatic tracking is no longer possible is done by applying the permissible position meter change ΔX to the permissible size change rate in the screen of the moving object preset in the azimuth 2iI calculating device 5.
This is done by comparing with the ll value.

すなわち、移動物体を正常に自動追尾している場合には
、撮像画面内における移動物体の大きさ及び位置の変化
はその移動速度と最大運動加速度及び撮像装置1の機械
的なズーミング速度により計算される値でその上1i!
ffiが&11限されるので、その上限値を予め許容値
として設定しておき、実測値が許容値を越える場合は自
助追尾不能と判断する。
That is, when a moving object is automatically tracked normally, changes in the size and position of the moving object within the imaging screen are calculated based on its moving speed, maximum motion acceleration, and mechanical zooming speed of the imaging device 1. 1i above that value!
Since ffi is limited to &11, the upper limit value is set in advance as an allowable value, and if the actual value exceeds the allowable value, it is determined that self-help tracking is impossible.

例えば、距離11における物体の画面内の太きさWl 
、距離12における物体の画面内の太きざWi 、物体
の前記2点間の平均移動速度■、踊像両面のサンプリン
グ時間をt8とすると連続する2画面間(1サンプリン
グタイム間)の物体の大きさの変化率に1は となる。
For example, the thickness Wl of an object in the screen at a distance of 11
, the width of the object in the screen at a distance of 12 Wi, the average moving speed of the object between the two points ■, the sampling time of both sides of the dancing image as t8, the size of the object between two consecutive screens (one sampling time) 1 is the rate of change of .

ms装置の画角θ1から62に達するまでに機構上必要
な最少ズーミング時間をt7とすると連続する2−面間
におけるズーミングの影響による物体の大きさの変化率
に2は、 となる。
If the minimum zooming time mechanically required to reach the field angle θ1 to 62 of the ms device is t7, then the rate of change in the size of the object due to the influence of zooming between two consecutive planes is 2.

これより、撮像画面内の1サンプリング時間内の物体の
大きざの変化率には、 K−K  −に2 となる。
From this, the rate of change in the size of the object within one sampling time within the image capture screen is KK-2.

物体の移動速度■1、最大加速度α。、Xとすると1像
画面内での1サンプリング時間における位置の変化端Δ
Xは Δx−vt  +1/2α  t2 S            IaX    Sとなる。
The moving speed of the object ■1, the maximum acceleration α. , X, the position change end Δ in one sampling time within one image screen is
X becomes Δx−vt + 1/2α t2 S IaX S.

以下、変化率に−K  −に2及び変化量ΔXに関して
数値例を挙げて説明する。
Hereinafter, numerical examples will be given for the change rate -K -2 and the change amount ΔX.

(1)  距tltlの変化による2画面間での目標物
体の大きさの変化率に1 20m5panの目標物体が2000mから20onL
までに5.3sec(:mach1 )で接近し、これ
により目標物体の画角が0.573°から5.72°に
変化したとする。
(1) The rate of change in the size of the target object between two screens due to the change in distance tltl is 1. A target object of 20m5pan is 20onL from 2000m.
Assume that the object approaches the target object in 5.3 seconds (mach1), and as a result, the angle of view of the target object changes from 0.573° to 5.72°.

5.3sec間に1フレームは5.3/1/30個、1
フレーム門での画角の変化4!(倍数)をに1とすると
、 +21  ズーミングによる2画面間での目標物体の大
きさの変化率に2 最少焦点距離15g+、画角32.7°がら最大焦点距
1!t180#I、画角2.8゛までの最大11.5倍
になるまでの最少ズーミング時間を8secとすると、 1.02倍 これに対して移動物体が遠ざかる場合には、大きさの変
化率はKの逆数1/に=0.98で表わされる。
1 frame in 5.3 seconds is 5.3/1/30 pieces, 1
Change in angle of view at frame gate 4! If (multiple) is set to 1, +21 The rate of change in the size of the target object between two screens due to zooming is 2.The minimum focal length is 15g+, the angle of view is 32.7°, and the maximum focal length is 1! t180#I, the minimum zooming time to reach a maximum of 11.5 times up to an angle of view of 2.8 degrees is 8 seconds, then 1.02 times. On the other hand, when the moving object moves away, the rate of change in size is is expressed as the reciprocal of K, 1/=0.98.

こうして1フレ一ム間、1/3030(:毎の目標物体
の大きさの変化率には 0.98≦に≦1.02 で規定される。
In this way, the rate of change in the size of the target object per frame is defined as 0.98≦ and ≦1.02.

(4)画面内での移動物体の位置の変化量ΔX位置の変
化量ΔXを画面中心からの目標物体の幾何学重心のずれ
聞と規定し、これを運動ベクトルとほぼ等しいものとし
て取り扱う。移動物体の最大運動加速度を6gとすると
1/30secにおける速度変化は 、6X9.8m/S2x 1/3G−1,96m/52
0m5panの移動物体を画面中の30画素程度でとら
えたとす委と、1/3O3eC毎のずれは1.96m/
sx 1/30sec x30画索7?0rrt=0.
1画素 すなわち1フレ一ム間での位置の変位置ΔXは、ΔX≦
0.1画素 で規定される。
(4) Amount of change ΔX in the position of the moving object within the screen Define the amount of change ΔX in the position as the deviation of the geometric center of gravity of the target object from the center of the screen, and treat this as approximately equal to the motion vector. If the maximum motion acceleration of a moving object is 6g, the speed change in 1/30sec is 6X9.8m/S2x 1/3G-1,96m/52
Assuming that a moving object of 0m5pan is captured by about 30 pixels on the screen, the deviation per 1/3O3eC is 1.96m/
sx 1/30sec x30 image search 7?0rrt=0.
The displacement ΔX of the position between one pixel, that is, one frame, is ΔX≦
It is defined as 0.1 pixel.

以上の様に追尾対象の移動物体の最大予測特性と装置の
基本性能とにより規定される大きさの変化率K、位置の
変化率ΔXの上限値に画像処理系のノイズ等による18
11誤差の上限値を加えて得られる許容範囲が方位演算
装置5に予め設定される。
As mentioned above, the upper limit of the size change rate K and the position change rate ΔX, which are defined by the maximum predicted characteristics of the moving object to be tracked and the basic performance of the device, is 18% due to noise in the image processing system, etc.
The tolerance range obtained by adding the upper limit value of 11 errors is set in advance in the azimuth calculation device 5.

この方位PIJ算装計装置、画像処理装置3から入力さ
れる移動物体の大きさ、幾何学重心データの実測値から
K、ΔXを算出する。
K and ΔX are calculated from the actual measured values of the size of the moving object and the geometric center of gravity data inputted from the azimuth PIJ calculation device and the image processing device 3.

このようにしてディジタル画像処理の手法で実際に計測
された物体の大きさの変化率Kが前述の許容範囲外であ
る場合、あるいは実際に計測された位置の変化量ΔXが
許容範囲外である場合、自動追尾ができなくなったと判
定する。
In this way, if the rate of change K in the size of the object actually measured using the digital image processing method is outside the above-mentioned tolerance range, or if the amount of change ΔX in the actually measured position is outside the tolerance range. If so, it is determined that automatic tracking is no longer possible.

自動追尾ができなくなった状態で、方位演算装置5は、
1スキヤン前の目標方位演算値及び孟の時間変化率で求
められる角速度を用いて、角速度が持続されるものとし
て駆動台制御装置7に目標方位演算値を出力し、カメラ
駆動台9をvIIIlシ、この開は計測データ6の外部
への出力は行なわない。
In a state where automatic tracking is no longer possible, the direction calculation device 5
Using the target azimuth calculation value one scan ago and the angular velocity determined by Meng's time rate of change, the target azimuth calculation value is output to the drive platform control device 7 assuming that the angular velocity is sustained, and the camera drive platform 9 is controlled by the vIII system. , this opening does not output the measurement data 6 to the outside.

また、方位演算装置5は自動追尾が出来なくなった段階
から、映画信号2のスキャン・タイム毎に自動追尾復旧
可能の判定を行なう。この判定には、自動追尾ができな
くなる1サンプリングタイム前の移動物体の大きさ、位
置から時間経過で規定される物体の大きさ17位置の許
容範囲を経過サンプ°リングタイム毎に設定し、撮像画
面内でのディジタル画像処理による実測値がその範囲内
に入ったら自動追尾の復旧と判定する。
Further, the azimuth calculation device 5 determines whether automatic tracking is possible to recover at every scan time of the movie signal 2 from the stage when automatic tracking is no longer possible. For this determination, a permissible range of the size and position of the object defined by the elapsed time from the size and position of the moving object one sampling time before automatic tracking becomes impossible is set for each elapsed sampling time, and the image is captured. If the actual value measured by digital image processing within the screen falls within this range, it is determined that automatic tracking has been restored.

(9移動物体の大きさの変化 追尾異常からの経過時間t1 画像処理系の誤差±ε8、 画像処理i!置3から得られる現在の移動物体大きさl
6、 追尾異常になる直前の移動物体大きさ18、とした場合
に1cが 30t             30t +。
(9 Change in size of moving object Elapsed time t1 from tracking abnormality Error of image processing system ±ε8, Current moving object size obtained from image processing i! position 3
6. If the size of the moving object just before a tracking error occurs is 18, then 1c is 30t 30t +.

1 k   −ε ≦1 ≦’e kL     se
s          s      cの範囲に入っ
た時、移動物体大きさは正常と判断する。
1 k −ε ≦1 ≦'e kL se
When the size of the moving object falls within the range of s s c, the size of the moving object is determined to be normal.

(6)  移動物体の位置の変化 1フレーム毎の画面中心からの幾何学重心のずれ母の変
化量d (d=0.1画素)、画像処理系の誤差±ε。
(6) Change in position of moving object: change amount d (d=0.1 pixel) of the deviation of the geometric center of gravity from the screen center for each frame, error ±ε of the image processing system.

、 追尾異常判断時からの経過時間t1 追・尾異常になる直前の幾何学重心座標×2、y4、画
像処理Vl置から得られる現在の幾何学重心座標Xc 
” c ’ とした場合において lx  −x1+<ci−t+ε。
, Elapsed time t1 from the time of tracking abnormality determination Geometric barycenter coordinates immediately before tracking/tailing abnormality x2, y4, Current geometric barycenter coordinates Xc obtained from image processing Vl position
In the case of ``c'', lx −x1+<ci−t+ε.

ly  −y、l<dφを十εp の条件を満たした時、移動物体の位置の変化を正常と判
断する。
When the conditions of ly −y, l<dφ and 1εp are satisfied, the change in the position of the moving object is determined to be normal.

上記(5)、(6)の条件判断により移動物体の大きさ
、及び位!!!変化が正常の時1、正常追尾へ復帰した
と判断する。
The size and location of the moving object can be determined by determining the conditions in (5) and (6) above! ! ! When the change is normal 1, it is determined that normal tracking has returned.

以上の様に構成される装置の作動に際しては、移動物体
の特性に応じて追尾不能設定値及び復旧設定値を設定し
、さらに映像画面21内に移動物体16の存在すべき領
域(対象領域)と背景を代表する領域(背景領域)を画
像処理装置3内に設定する。次に、モニタ画面を見なが
らカメラ駆動台2を手動操作し、対象領域内に移動物体
16をとらえるように調整する。
When operating the device configured as described above, a tracking failure setting value and a recovery setting value are set according to the characteristics of the moving object, and an area (target area) where the moving object 16 should exist in the video screen 21 is set. An area representing the background (background area) is set in the image processing device 3. Next, while viewing the monitor screen, the camera drive base 2 is manually operated to adjust the moving object 16 to be captured within the target area.

′この段階で装置を動作させると、画像処理装置3で対
象物体の幾何学重心データ4”が求められ、さらに駆動
台制御装置7からはTVカメラ1の現在の方位角データ
が出力される。
'When the apparatus is operated at this stage, the image processing apparatus 3 obtains the geometric center of gravity data 4'' of the target object, and the drive platform control apparatus 7 outputs the current azimuth angle data of the TV camera 1.

方位演算装置5はこれらのデータから通常の追尾動作時
には移動物体の目標方位演算値等の計測データ6を綽出
し、さらに追尾不能及び復帰の判断動作を行なう。この
方位演算装置5は第4図に示したフローヂャートに従っ
て動作する。すなわち、°通常の追尾動作時には幾何学
重心データ、物体の大きさ及び方位角データの読込みを
行ない(Sl)、これより物体の大きさの変化率K、位
置の変化量ΔXを演算する(S2)。ここで、追尾不能
の判断阜準となる設定値0.98≦にS1.02、及び
ΔX≦0.1、画素を読出して、前のステップS2で算
出された実測値が設定値の1 [111内であるか否か
を比較づる(S3)。このステップS3で、実測値が前
記設定値の範囲内であれば正常な追尾範囲として次のス
テップに進み目標方位演算値及び角速度を算出しくS4
)、移動物体の計測データ6を出力すると共に駆動台制
御装rj7には目標方位演算値を出力して(S5)次の
フレームの処理に移る。
From these data, the azimuth calculation device 5 outputs measurement data 6 such as a target azimuth calculation value of a moving object during normal tracking operation, and further performs an operation to determine whether tracking is impossible or whether the object has returned. This azimuth calculating device 5 operates according to the flowchart shown in FIG. That is, during normal tracking operation, geometric center of gravity data, object size and azimuth data are read (Sl), and from this the rate of change K in the object size and the amount of change ΔX in position are calculated (S2). ). Here, if the set value 0.98≦S1.02 and ΔX≦0.1, which are the criteria for determining whether tracking is impossible, the pixels are read out, and the actual value calculated in the previous step S2 is the set value 1 [ A comparison is made to see if it is within 111 (S3). In this step S3, if the actual measurement value is within the range of the set value, it is assumed that the tracking range is normal and the process proceeds to the next step to calculate the target azimuth calculation value and angular velocity.S4
), outputs the measurement data 6 of the moving object, and outputs the calculated target orientation value to the drive platform control device rj7 (S5), and moves on to the processing of the next frame.

また、ステップS3の判別ブロックにおいて前記計測値
K、ΔXが設定値を越えると追尾異常と判断されて、並
列するフローのステップS9にジャンプする。このステ
ップS9では、異常と判別される直前の目標方位演算値
及びその時間変化率で求められる角速度を用いて移動物
体方位の予測値を口出し、この予測値を目標方位演算値
として駆動台v制御装置7に出力する。
Further, in the determination block of step S3, if the measured values K and ΔX exceed the set values, it is determined that there is a tracking abnormality, and the process jumps to step S9 of the parallel flow. In this step S9, a predicted value of the moving object direction is determined using the target azimuth calculation value immediately before it is determined to be abnormal and the angular velocity obtained from its time change rate, and this predicted value is used as the target azimuth calculation value to control the drive platform v. Output to device 7.

このステップS18が終了すると、次のフレームから得
られるデータから左側のループ中のステップS 、S 
と等しい内容の処理であるステップS6、S7に進み、
幾何学重心データ、物体の大きさ、及び方位角データを
読み込んで物体の大ぎさの変化率にと位置の変化はΔX
を演算する。
When this step S18 is completed, from the data obtained from the next frame, steps S and S in the left loop
Proceed to steps S6 and S7, which are processes with the same content as
Load the geometric center of gravity data, object size, and azimuth data and calculate the rate of change in object size and change in position by ΔX
Calculate.

次に、ステップS8において追尾回復の設定値30t 
        30t+ε8、i k  −ε S1
 ≦’e kL es         s      cl xC−x
il <d −t+εp、及びly  −y、l<d−
t+ε、を読出し、前記ステップS 187で算出され
た値と比較づる。このステップS8での比較において、
前記時間を補正をした設定Iffの範囲内に計測値が入
っていれば追尾回復となってステップS4へ戻り、この
設定値の範囲外であれば再びステップS9からのルーテ
ィーンを繰り返す。
Next, in step S8, the tracking recovery setting value is 30t.
30t+ε8, i k −ε S1
≦'e kL es s cl xC-x
il <d −t+εp, and ly −y, l<d−
t+ε is read out and compared with the value calculated in step S187. In this comparison in step S8,
If the measured value is within the range of the time-corrected setting Iff, tracking is recovered and the process returns to step S4, and if it is outside the range of this set value, the routine from step S9 is repeated again.

方位演算装置5からの目標方位演算値は駆動台制御装置
7に出力され、駆動台制御装置7は入力される前記演1
73ffiに基づいて移動物体の幾何学重心が丁Vカメ
ラ1の映像画面の中央に位置するようにカメラ駆動台9
を制御する。これにより、常に移動物体をTVカメラ1
の画角内にとらえながら移動物体の位置を計測すること
ができる。
The target azimuth calculation value from the azimuth calculation device 5 is output to the drive platform control device 7, and the drive platform control device 7 receives the input
73ffi, the camera drive stand 9 is moved so that the geometric center of gravity of the moving object is located at the center of the video screen of the camera 1.
control. As a result, moving objects can always be detected by TV camera 1.
It is possible to measure the position of a moving object while capturing it within the field of view.

こうして、環境条件等が変化する屋外等の躍影条作下で
も、対象物体と青票とを分離し、その幾何学重心を求め
る処理をT V iiM面の1フレーム毎に行ない、ま
た常に対象物体を画面中央に位置するようカメラ駆動台
を制御することで、静止カメラではとらえきれない広範
囲な領域を動く物体の位置計測を可能にしており、追尾
不能となった場合にもその状況を判断して通常の追尾へ
自動復帰する。
In this way, even under dynamic shooting conditions such as outdoors where environmental conditions etc. change, the target object and the blue mark are separated and the process of determining their geometric center of gravity is performed for each frame on the TV iiM surface, and the target object is always By controlling the camera drive base to position the object in the center of the screen, it is possible to measure the position of a moving object over a wide area that cannot be captured by a stationary camera, and even if tracking becomes impossible, the situation can be determined. and automatically return to normal tracking.

また、TVカメラを用いる替りに赤外線撮像装置等を用
いることにより、夜間においても移動物体の位置計測を
行なうことができる。
Furthermore, by using an infrared imaging device or the like instead of using a TV camera, the position of a moving object can be measured even at night.

発明の効果 この発明による移動物体の自動追尾装置実施例は以上の
通りであり、次に述べる効果を挙げることかできる。
Effects of the Invention The embodiment of the automatic tracking device for a moving object according to the present invention is as described above, and can bring about the following effects.

環境条件の変化する広範囲な領域を高速で移動する移動
物体を追尾して位置データを生成可能であり、また移動
物体が煙突等の障害物により自動追尾ができなくなった
場合にはその状況を検出すると共に復旧可能となった場
合には自動追尾を再び継続することで追尾性能を向上さ
せることができ、手動によるリセットの必要もない。
It is possible to generate position data by tracking a moving object that moves at high speed over a wide range of areas with changing environmental conditions, and also detects the situation when automatic tracking of a moving object is no longer possible due to an obstacle such as a chimney. At the same time, when recovery becomes possible, tracking performance can be improved by continuing automatic tracking again, and there is no need for manual reset.

広範囲な領域を高速で移動する移動物体を追尾して位置
データを生成可能な移動物体の自動追尾装置となる。
This is an automatic moving object tracking device that can generate position data by tracking a moving object that moves at high speed over a wide range of areas.

また1フレーム前の背景のみのモデル画像データをもと
に移動物体の検出を行うとともに、このモデル画像デー
タを1フレーム処理毎に更新していくので画面の明るさ
の変化といったような状況の変化にも対応的に適応して
、的確な移動物体の追尾を行うことができる。
In addition, moving objects are detected based on model image data of only the background from one frame before, and this model image data is updated every frame, so changes in the situation such as changes in screen brightness are detected. It is also possible to accurately track moving objects by adapting accordingly.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は実施例装置の構成ブロック図、第2図は第1v
!J中の画像処理装置の詳細なブロック図、第3図は構
成画像の構成例を示した概念図、11i4図は方位演算
装置内の動作を示すフローチャートである。 1・−T Vカメラ、2・・・映像信号、3・・・画像
処理装ff、4・・・幾何学重心、5・・・方位演算v
t置、6・・・計測データ、7・・・駆動台制御装置、
8・・・駆動台動作信号、9・・・カメラJlI!動台
、10・・・駆動台位置信号、11・・・入力画像記憶
装置、12・・・画像比較器、13・・・画像構成器、
14・・・モデル画像構成器、15・・・2値画像生成
器、16・・・重心演篩器、17・・・モデル画像記憶
VtH118・・・モデルtjA像、19・・・構成1
L20−・・モデル画働データ、21・・・入力画像デ
ータ。
Figure 1 is a block diagram of the configuration of the embodiment device, Figure 2 is the 1v
! FIG. 3 is a conceptual diagram showing an example of the configuration of a constituent image, and FIG. 11i4 is a flowchart showing the operation within the azimuth calculation device. 1.-TV camera, 2.. Video signal, 3.. Image processing device ff, 4.. Geometric center of gravity, 5.. Orientation calculation v
t position, 6... Measurement data, 7... Drive platform control device,
8...Drive base operation signal, 9...Camera JlI! Moving base, 10... Drive base position signal, 11... Input image storage device, 12... Image comparator, 13... Image constructor,
14... Model image constructor, 15... Binary image generator, 16... Centroid operator, 17... Model image memory VtH118... Model tjA image, 19... Configuration 1
L20--model drawing data, 21--input image data.

Claims (1)

【特許請求の範囲】 1、移動物体を撮像して映像信号を出力する撮像装置と
、この撮像装置を撮像方向に支承し外部入力される制御
信号に基づいて撮像装置の撮像方向を制御する駆動台と
、前記撮像装置からの撮像信号を処理して駆動台に前記
制御信号を出力して前記移動物体を自動追尾する制御装
置とからなる移動物体の自動追尾装置において、 前記制御装置は予め画像処理で生成された1フレーム前
(n−1)の背景のみのモデル画像と前記撮像装置から
入力された現フレーム(n)の映像信号とから現フレー
ムでの背景のみの構成画像を作成し、さらに現フレーム
の映像信号と前記構成画像との輝度差から移動物体を背
景から分離してこの移動物体の幾何学重心方向と撮像方
向との角度差を示す幾何学重心データと移動物体の画面
内における大きさを算出し、さらに現フレームでの背景
のみの画像を次のフレームでのモデル画像として格納す
る画像処理装置と、 この画像処理装置から出力される幾何学重心データと画
像方向を示す方位角データとを入力し、移動物体の目標
方位演算値を出力する通常の追尾と並行して前記画像処
理装置からサンプリングタイム毎に入力される移動物体
の大きさと幾何学重心データから移動物体の画面内での
大きさの変化率と位置の変化量を算出し、該変化率及び
変化量が所定の追尾範囲設定値を超えるときには追尾不
能と判断して、前記駆動台制御装置に追尾不能となる直
前の目標方位演算値及び角速度を用いて等角速度予測に
基づく目標方位の予測値を出力し、かつ該時点から各サ
ンプリングタイム経過毎に移動物体の大きさと位置とを
所定の復旧範囲設定値と比較して、該復旧範囲設定値内
に入つたときのみ復旧可能と判断して通常の移動物体追
尾を行なう方位演算装置と、 この方位演算装置から移動物体の目標方位演算値を入力
して、移動物体が前記撮像装置の画面中央に位置するよ
う撮像方向を制御する制御信号を前記駆動台に出力する
と共に、撮像装置の方位角データを前記方位演算装置に
出力する駆動台制御装置とを備えた追尾装置、 とから構成されることを特徴とする移動物体の自動追尾
装置。
[Claims] 1. An imaging device that images a moving object and outputs a video signal, and a drive that supports this imaging device in the imaging direction and controls the imaging direction of the imaging device based on a control signal input from the outside. In an automatic tracking device for a moving object, which includes a stand and a control device that automatically tracks the moving object by processing an imaging signal from the imaging device and outputting the control signal to a drive stand, Creating a constituent image of only the background of the current frame from a model image of only the background of one frame before (n-1) generated by processing and a video signal of the current frame (n) input from the imaging device; Furthermore, the moving object is separated from the background based on the luminance difference between the video signal of the current frame and the constituent images, and geometric center of gravity data indicating the angular difference between the geometric center of gravity direction of the moving object and the imaging direction is generated. an image processing device that calculates the size of the background image in the current frame and stores the background-only image in the current frame as a model image in the next frame; and an azimuth that indicates the geometric center of gravity data and image direction output from this image processing device. In parallel with normal tracking that inputs the angle data and outputs the target azimuth calculation value of the moving object, a screen of the moving object is generated from the size and geometric center of gravity data of the moving object that are input at each sampling time from the image processing device. calculates the rate of change in size and the amount of change in position within, and when the rate of change and amount of change exceed a predetermined tracking range setting value, it is determined that tracking is impossible, and the drive platform control device is unable to track it. A predicted value of the target direction based on the constant angular velocity prediction is output using the immediately preceding target direction calculation value and angular velocity, and the size and position of the moving object are adjusted to a predetermined recovery range setting value at each sampling time from that point onwards. An azimuth calculation device that compares and performs normal tracking of the moving object by determining that recovery is possible only when the recovery range setting value is within the set value; a drive stand control device that outputs a control signal to the drive stand to control the imaging direction so that the moving object is located at the center of the screen of the image pickup device, and outputs azimuth data of the image pickup device to the azimuth calculation device. An automatic tracking device for a moving object, characterized in that the tracking device includes:
JP63008973A 1988-01-19 1988-01-19 Automatic tracking device for moving body Pending JPH01184483A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63008973A JPH01184483A (en) 1988-01-19 1988-01-19 Automatic tracking device for moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63008973A JPH01184483A (en) 1988-01-19 1988-01-19 Automatic tracking device for moving body

Publications (1)

Publication Number Publication Date
JPH01184483A true JPH01184483A (en) 1989-07-24

Family

ID=11707629

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63008973A Pending JPH01184483A (en) 1988-01-19 1988-01-19 Automatic tracking device for moving body

Country Status (1)

Country Link
JP (1) JPH01184483A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002112250A (en) * 2000-09-29 2002-04-12 Fuji Photo Optical Co Ltd Automatic tracking device
WO2004070660A1 (en) * 2003-02-06 2004-08-19 Matsushita Electric Industrial Co., Ltd. Automatic tracking device and automatic tracking system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002112250A (en) * 2000-09-29 2002-04-12 Fuji Photo Optical Co Ltd Automatic tracking device
WO2004070660A1 (en) * 2003-02-06 2004-08-19 Matsushita Electric Industrial Co., Ltd. Automatic tracking device and automatic tracking system

Similar Documents

Publication Publication Date Title
US7839431B2 (en) Image processing system and method for improving repeatability
KR101627185B1 (en) Control method of image photographing apparatus
US20190222740A1 (en) Control apparatus, method of controlling image sensing device, and non-transitory computer-readable storage medium that control an image sensing device for tracking and sensing a tracking target
JP6540330B2 (en) Tracking system, tracking method and tracking program
US9091904B2 (en) Camera device with rotary base
US20190132501A1 (en) Imaging device, control method of imaging device, and storage medium
US20100157065A1 (en) Autofocus system
US11310422B2 (en) Imaging apparatus and control method thereof of with determining of driving range in which panning driver or tilting driver rotates imaging unit
JP2941815B2 (en) Imaging device and blur correction device
EP1290639A2 (en) Image foreground/background velocity detector
US20240005517A1 (en) Apparatus and method for monitoring moving target based on complementary gimbal control through displacement partitioning
JP3615868B2 (en) Automatic camera system
JPH01184483A (en) Automatic tracking device for moving body
US20220262014A1 (en) Apparatus for notifying object blur, control method thereof, and storage medium
CN103503435A (en) Image perspective error correcting apparatus and method
US8619119B2 (en) Digital photographing apparatus
JP3549332B2 (en) Automatic shooting camera system
JP2667885B2 (en) Automatic tracking device for moving objects
JP2000175101A (en) Automatic tracking device
JPH07162730A (en) Mobile object image pickup device
JPH0574025B2 (en)
JP2019165501A (en) Tracking system, tracking method and tracking program
US20230129756A1 (en) Information processing apparatus having image range of imaging apparatus changed by controlling at least one of pan, tilt, and zoom, information processing method, and storage medium
JP2011166426A (en) Tracking camera universal head device
KR100278989B1 (en) Closed Circuit Monitoring Apparatus and Method