JPH0574025B2 - - Google Patents

Info

Publication number
JPH0574025B2
JPH0574025B2 JP62169370A JP16937087A JPH0574025B2 JP H0574025 B2 JPH0574025 B2 JP H0574025B2 JP 62169370 A JP62169370 A JP 62169370A JP 16937087 A JP16937087 A JP 16937087A JP H0574025 B2 JPH0574025 B2 JP H0574025B2
Authority
JP
Japan
Prior art keywords
moving object
azimuth
gravity
tracking
geometric center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62169370A
Other languages
Japanese (ja)
Other versions
JPS6413485A (en
Inventor
Shigenori Tagami
Kazuo Kodaira
Hirosumi Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Priority to JP62169370A priority Critical patent/JPS6413485A/en
Publication of JPS6413485A publication Critical patent/JPS6413485A/en
Publication of JPH0574025B2 publication Critical patent/JPH0574025B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は移動物体を追尾する自動追尾装置に
関するものである。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an automatic tracking device for tracking a moving object.

〔従来技術〕[Prior art]

従来から、航空機等の高速で移動する移動物体
を自動的に追尾して、方位角や移動角速度を検出
して、各種機器の制御用情報として利用すること
が行なわれている。
BACKGROUND ART Conventionally, a moving object such as an aircraft that moves at high speed has been automatically tracked and its azimuth angle and movement angular velocity detected and used as information for controlling various devices.

〔この発明が解決すべき問題点〕[Problems to be solved by this invention]

こうした中で、撮像装置で得られた対象物を含
む映像信号から対象物である移動物体に関するデ
ータを生成し、自動追尾を行なうものも用いられ
ている。
Under these circumstances, devices that generate data regarding a moving object as a target object from a video signal including the target object obtained by an imaging device and perform automatic tracking are also used.

しかしながら、従来型の装置では走査線を用い
て画像1枚を作る処理を行う時間すなわち1サン
プリングタイム(例えばNTSCでは1/30秒)毎に
処理を行なうが、画像処理方式として固定2値化
を用いて背景と移動物体を分離する為、環境条件
が変化した場合に適応的に対応していくことが難
しく、屋外等で使用出来なかつた。
However, in conventional devices, processing is performed every sampling time (for example, 1/30 second in NTSC) to create one image using scanning lines, but fixed binarization is used as an image processing method. Because it separates the background and moving objects by using a digital camera, it is difficult to respond adaptively to changing environmental conditions, making it impossible to use it outdoors.

また、環境条件等の変化にも適応的に対応して
背景と移動物体の分離を行なうアルゴリズムを備
えたものも提供されてはいるが、画面を構成する
各々の情報(例えば250×250画素の場合、約6万
個のデータ)をソフトウエアで処理するため1画
面あたり数秒から数十秒の処理時間がかかり移動
物体の計測用には不向きであつた。
In addition, although there are models equipped with algorithms that adaptively respond to changes in environmental conditions and separate the background and moving objects, they do not allow for the separation of each piece of information that makes up the screen (for example, 250 x 250 pixels). In this case, approximately 60,000 pieces of data are processed by software, which takes several seconds to several tens of seconds per screen, making it unsuitable for measuring moving objects.

さらに、従来型の装置では撮像装置が固定型で
ある為、移動物体が撮像装置の画角から外れた場
合には計測出来ず、高速で移動する移動物体を追
尾することは不可能であつた。
Furthermore, because the imaging device in conventional devices is fixed, it is impossible to measure moving objects if they deviate from the angle of view of the imaging device, making it impossible to track moving objects that move at high speed. .

また従来型の処理装置では、移動物体が煙突等
の障害物の陰を通過した場合等には、その前後で
移動物体が識別不能となり追尾機能が停止したり
誤動作する場合があり、その都度オペレータが装
置の調整や再始動をする必要があつた。
In addition, with conventional processing equipment, if a moving object passes behind an obstacle such as a chimney, it may become impossible to identify the moving object in front or behind it, and the tracking function may stop or malfunction. equipment had to be adjusted or restarted.

そこで、この発明は、環境変化に適応し、か
つ、処理の1部をハードウエア化することにより
ソフトウエアで処理するデータ数を1画面当り数
百個に減ずることのできるアルゴリズムを用いる
ことで前記の様な従来型装置の不都合な点を改善
し、広範囲な領域を高速で移動する対象物体を撮
像装置を用いて追尾し、目標方位データを生成す
ると共に障害物により撮像装置から移動物体まで
の視界が遮られて追尾不能となつた場合でも、そ
の時点の前後の状況を判断して、追尾復旧可能と
なるまで、該時点より1サンプリングタイム前の
目標方位及び角速度データに基づく予測方位へ撮
像装置を制御し、オペレータの再起動介入操作な
しに連続して追尾動作することのできる移動物体
の自動追尾装置を提供することを目的とする。
Therefore, the present invention uses an algorithm that can adapt to environmental changes and reduce the number of data processed by software to several hundred pieces per screen by converting part of the processing into hardware. By improving the disadvantages of conventional devices such as Even if tracking becomes impossible due to obstructed visibility, the situation before and after that point is judged, and images are taken in the predicted direction based on the target direction and angular velocity data from one sampling time before the point in time until tracking can be restored. An object of the present invention is to provide an automatic tracking device for a moving object that can control the device and continuously perform tracking operations without restarting or intervening by an operator.

〔問題を解決する為の手段〕[Means to solve the problem]

この発明による移動物体の自動追尾装置は、移
動物体を撮像する撮像装置と、この撮像装置を撮
像方向自在に支承する駆動台と、前記撮像装置か
らの映像信号を入力してその映像信号により作ら
れる1画面毎に移動物体と背景とを分離し、画面
上の幾何学重心の位置及び移動物体の幾何学重心
方向と画面中央方向との角度とを示す幾何学重心
データと移動物体の画面内における大きさを算出
する画像処理装置と、この画像処理装置から出力
される大きさ、幾何学重心データ及び別途入力さ
れる撮像方向を示す方位角データとを入力して移
動物体の目標方位演算値を出力する方位演算装置
と、この目標方位演算値を入力して前記移動物体
が前記撮像装置の画面中央に位置するよう撮像方
向を制御する制御信号を前記駆動台に出力すると
共に撮像装置の方位角データを前記位置演算装置
に出力する駆動台制御装置とを備えた追尾装置に
おいて、さらに前記方位演算装置は上記追尾装置
の動作と並行して前記画像処理装置によりサンプ
リングタイム毎に計算される移動物体の大きさと
幾何学重心の位置から移動物体の画面内での大き
さの変化率と幾何学重心の位置の変化量を算出し
て該変化率及び変化量が所定の追尾範囲設定値を
超えるときに追尾不能と判断して、前記駆動台制
御装置に1サンプリングタイム前の目標方位及び
撮像装置を駆動する駆動台の支承軸の回転角度の
時間微分で得られる角速度データに基づく目標方
位の予測値を出力し、かつ該時点から各サンプリ
ングタイム経過毎に移動物体の大きさと幾何学重
心の位置とを追尾異常となる直前の幾何学重心の
位置、大きさと追尾異常となつてからの経過時間
から計算される復旧範囲とを比較して、この復旧
範囲設定値内に入つたときのみ復旧可能と判断し
て上記追尾装置の動作を行なう機能を有するもの
である。
The automatic tracking device for a moving object according to the present invention includes an imaging device that images a moving object, a drive stand that supports the imaging device freely in the imaging direction, and a video signal inputted from the imaging device and generated by the video signal. The moving object and the background are separated for each screen, and geometric center of gravity data indicating the position of the geometric center of gravity on the screen and the angle between the direction of the geometric center of gravity of the moving object and the center of the screen and the inside of the screen of the moving object are calculated. An image processing device that calculates the size of a moving object is input, and the size, geometric center of gravity data output from this image processing device, and azimuth data indicating the imaging direction that are input separately are input to calculate the target azimuth calculation value of the moving object. an azimuth calculation device that outputs a target azimuth calculation value, and outputs a control signal to the driving base to control the imaging direction so that the moving object is located at the center of the screen of the imaging device by inputting the target azimuth calculation value; In the tracking device, the tracking device includes a drive platform control device that outputs angle data to the position calculation device, and the azimuth calculation device further calculates the movement calculated at each sampling time by the image processing device in parallel with the operation of the tracking device. The rate of change in the size of the moving object within the screen and the amount of change in the position of the geometric center of gravity are calculated from the size of the object and the position of the geometric center of gravity, and the rate of change and amount of change exceed a predetermined tracking range setting value. Sometimes, it is determined that tracking is impossible, and the drive platform control device predicts the target direction based on the target direction one sampling time ago and angular velocity data obtained by time differentiation of the rotation angle of the rotation angle of the support shaft of the drive platform that drives the imaging device. The value is output, and the size of the moving object and the position of the geometric center of gravity are determined at each sampling time from that point onward, and the position and size of the geometric center of gravity immediately before the tracking abnormality occurs, as well as the elapsed time after the tracking abnormality occurs. The tracking device has a function of comparing the recovery range calculated from , and determining that recovery is possible only when the recovery range is within the set value of the recovery range, and operating the tracking device.

〔実施例〕〔Example〕

以下、図示するこの発明の実施例により説明す
る。第1図に、この発明による移動物体の自動追
尾装置実施例の装置構成ブロツク図を示した。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be explained below with reference to illustrated embodiments. FIG. 1 shows a block diagram of an apparatus configuration of an embodiment of an automatic tracking apparatus for a moving object according to the present invention.

この実施例では、撮像装置としてTVカメラ1
が用いられており、カメラ駆動台2の支承軸(図
示せず)に水平方向に回転、及び垂直方向に俯抑
可能に支承されて撮像方向調整自在となつてい
る。
In this embodiment, a TV camera 1 is used as an imaging device.
is supported on a support shaft (not shown) of the camera drive stand 2 so that it can rotate horizontally and tilt down vertically, making it possible to freely adjust the imaging direction.

ここで、TVカメラ1は水平方向の回転が画面
上のX方向、及び俯抑方向が画面上のY方向とな
る様に、カメラ駆動台2に支承されている。
Here, the TV camera 1 is supported by the camera drive base 2 so that horizontal rotation is in the X direction on the screen, and the downward direction is in the Y direction on the screen.

TVカメラ1から得られる映像信号3は次段に
設けられた画像処理装置5に入力されて、TV映
像内における移動物体の幾何学重心データ(画面
中央から幾何学重心までのX,Y方向の角度、及
び画面中央から幾何学重心の位置を示すX,Y方
向の長さを示す画素数)及び大きさ9が算出され
る。
The video signal 3 obtained from the TV camera 1 is input to the image processing device 5 provided at the next stage, and the geometric center of gravity data of the moving object in the TV video (X and Y directions from the center of the screen to the geometric center of gravity) is input to the image processing device 5 provided at the next stage. The angle, the number of pixels indicating the length in the X and Y directions indicating the position of the geometric center of gravity from the center of the screen), and the size 9 are calculated.

さらにTVカメラ1はズーム機構を内蔵してお
り、画像処理装置5内でのデイジタル画像処理に
必要な程度にまで移動物体16像を自動的にズー
ミングし、各サンプリングタイム毎にその画角信
号θを出力する。
Furthermore, the TV camera 1 has a built-in zoom mechanism that automatically zooms the image of the moving object 16 to the degree necessary for digital image processing within the image processing device 5, and outputs the angle of view signal θ at each sampling time. Output.

ここで、画角とは撮像装置で撮像できる視野範
囲を言い、撮像装置で使用されているCCDの大
きさとレンズんの焦点距離から一意的に決定され
る。
Here, the angle of view refers to the field of view that can be captured by an imaging device, and is uniquely determined from the size of the CCD used in the imaging device and the focal length of the lens.

また、この画角は水平及び垂直の双方の角度で
表現されるが、これらの2つの方向の角度は同様
に取り扱われるので、以下の説明では水平方向の
画角についてのみ説明するが、実際の処理上は水
平及び垂直の双方の画角が同時に処理される。
Also, this angle of view is expressed as both horizontal and vertical angles, but since the angles in these two directions are treated in the same way, the following explanation will only explain the angle of view in the horizontal direction, but the actual angle of view is In terms of processing, both horizontal and vertical angles of view are processed simultaneously.

通常、ズームレンズを使用した場合、ズームレ
ンズ上の焦点距離f(mm)はレンズの物理的位置
関係で簡単に計測できる。このf値が決まると画
角は θ=2tan-1d/2f(但しdmmはCCDの水平方向
長さ) で計算できる。この様に、実際にはfを表す信号
が入力されるが、理論的にはこのfから計算され
るθを使用しているので、画角信号θとして以下
の記述をおこなつた。
Normally, when a zoom lens is used, the focal length f (mm) on the zoom lens can be easily measured based on the physical positional relationship of the lens. Once this f value is determined, the angle of view can be calculated as θ=2tan -1 d/2f (where dmm is the horizontal length of the CCD). In this way, a signal representing f is actually input, but theoretically θ calculated from this f is used, so the following description was made as the angle of view signal θ.

画像処理装置5ではこの画角信号θを用いるこ
とにより、移動物体の幾何学重心方向を画面中央
からの角度に換算して算出することができる。
By using this angle-of-view signal θ, the image processing device 5 can calculate the direction of the geometric center of gravity of the moving object by converting it into an angle from the center of the screen.

例えば、画面の横方向画素(X方向)を256画
素として、この画面中央から移動物体の幾何学重
心の位置がX方向に20画素ずれていた場合に、こ
の時の撮像装置の画角を10°とすれば、幾何学重
心データの値は20画素、及び 20(X方向ズレ画素)/256(X方向画面画素)×
10°(画角)=0.78° と表現される。
For example, if the horizontal pixels (X direction) of the screen are 256 pixels, and the position of the geometric center of gravity of a moving object is shifted from the center of the screen by 20 pixels in the X direction, the angle of view of the imaging device at this time is 10 pixels. °, the value of the geometric center of gravity data is 20 pixels, and 20 (X direction deviation pixels) / 256 (X direction screen pixels) ×
It is expressed as 10° (angle of view) = 0.78°.

通常のTV画像信号(RS170規格)においては
2:1インタレース方式を採用している為、1/30
秒で1画面分のデータが得られるが、垂直方向の
分解能を250画素以下とするならば1/60秒でデー
タが得られることとなる。
Normal TV image signals (RS170 standard) use a 2:1 interlace system, so 1/30
Data for one screen can be obtained in seconds, but if the vertical resolution is set to 250 pixels or less, data can be obtained in 1/60 of a second.

ここで、画像処理装置5を第2図に示した詳細
なブロツク図に基づいて説明すると、映像信号3
はルツクアツプテーブル10に入力されて、まず
最初の1/60秒間で移動物体と背景とに2値化し、
XY軸投影演算器11に出力される。XY軸投影
演算器11は2値化された入力データから移動物
体のXY軸投影データを画像演算装置13に出力
する。画像演算装置13は次の1/60秒間でXY軸
投影データの中央値を求め、それを幾何学重心の
位置とし、さらにこの幾何学重心と画面中央との
角度及び幾何学重心の位置から画面中央までの画
素数を幾何学重心データとして出力する。この画
像処理装置5内での幾何学重心データと、大きさ
9の算出は1サンプリングタイムである1/30秒ご
とに行なわれる。
Here, the image processing device 5 will be explained based on the detailed block diagram shown in FIG.
is input into the lookup table 10, and is first binarized into a moving object and a background in the first 1/60 seconds.
It is output to the XY axis projection calculator 11. The XY-axis projection calculator 11 outputs XY-axis projection data of the moving object to the image calculation device 13 from the binarized input data. The image processing unit 13 calculates the median value of the XY axis projection data in the next 1/60 seconds, uses it as the position of the geometric center of gravity, and further calculates the screen from the angle between the geometric center of gravity and the center of the screen and the position of the geometric center of gravity. Outputs the number of pixels to the center as geometric centroid data. Calculation of the geometric center of gravity data and the size 9 within the image processing device 5 is performed every 1/30 seconds, which is one sampling time.

また、画像処理装置5内では映像信号3は前記
幾何学重心データ9の演算と同時に並列して、輝
度ヒストグラム演算器12に入力され、最初の1/
60秒間に輝度ヒストグラム17が算出されて画像
演算装置13に出力される。画像演算装置13は
入力された輝度ヒストグラム17に基づき、次の
1/60秒間にルツクアツプテーブルデータを算出し
てルツクアツプテーブルデータ10内のデータを
アツプデイトする。
Further, in the image processing device 5, the video signal 3 is input to the brightness histogram calculator 12 in parallel with the calculation of the geometric center of gravity data 9, and the first 1/
A brightness histogram 17 is calculated for 60 seconds and output to the image calculation device 13. The image calculation device 13 calculates lookup table data in the next 1/60 second based on the input luminance histogram 17, and updates the data in the lookup table data 10.

ルツクアツプテーブルデータの決定法を詳述す
ると、第3図に示した様に映像画面14内に移動
物体16周辺の背景を代表する背景領域15を設
け第4図aに示した様に背景領域内輝度ヒストグ
ラム17を求める。この演算は前述した輝度ヒス
トグラム演算器12によつて行なう。こうして算
出されたヒストグラムの中で、第4図bに示すよ
うにある閾値19以上の値をもつ輝度については
背景画素を表わす輝度20、閾値以下の値をもつ
輝度については移動物体画素を表わす輝度21が
それぞれ対応するようルツクアツプテーブルデー
タを生成する。
To explain in detail the method for determining lookup table data, a background area 15 representing the background around the moving object 16 is provided in the video screen 14 as shown in FIG. An inner luminance histogram 17 is obtained. This calculation is performed by the brightness histogram calculator 12 described above. In the histogram calculated in this way, as shown in Fig. 4b, for luminance values that are greater than or equal to a certain threshold value 19, the luminance values are 20 representing background pixels, and for luminance values that are less than or equal to the threshold value, the luminance values are representative of moving object pixels. Lookup table data is generated so that 21 correspond to each other.

第2図で示される画像処理装置5ではルツクア
ツプテーブル10、XY軸投影演算器11及び輝
度ヒストグラム演算器12がハードウエアで構成
されているので、XY投影データ及び輝度ヒスト
グラム17は実時間で算出される。したがつて、
ソフトウエアで動作する画像演算装置13で処理
すべきデータ数は、例えば250×250画素で64輝度
段階を持つ画像情報の場合、X軸投影データ、Y
軸投影データ及び輝度ヒストグラム17がそれぞ
れ250個、250個及び64個となり、各々の画素デー
タ(この例では約6万個)をソフトウエアで処理
する従来の方式では不可能であつた高速処理が実
現される。
In the image processing device 5 shown in FIG. 2, the lookup table 10, the XY-axis projection calculator 11, and the brightness histogram calculator 12 are configured by hardware, so the XY projection data and the brightness histogram 17 are calculated in real time. be done. Therefore,
For example, in the case of image information with 250 x 250 pixels and 64 brightness levels, the number of data to be processed by the image processing device 13 operated by software is X-axis projection data, Y-axis projection data,
The number of axial projection data and brightness histogram 17 is 250, 250, and 64, respectively, allowing high-speed processing that was impossible with the conventional method of processing each pixel data (approximately 60,000 pieces in this example) using software. Realized.

こうして、画像処理装置5で算出された幾何学
重心データ(角度、位置)、及び大きさ9は次段
に設けられた方位演算装置6に出力される。この
方位演算装置6は幾何学重心データ9とTVカメ
ラの撮像方位を示す方位角データから対象物体の
方位である目標方位演算値を算出して、駆動台制
御装置7に出力する。駆動台制御装置7はTVカ
メラ1を支承するカメラ駆動台2をコントロール
するものであり、前記方位演算装置6からの目標
方位演算値にTVカメラ1の撮像方向が向くよう
にカメラ駆動台2に対して駆動台制御信号4を出
力する。これにより、TVカメラ1は移動物体の
幾何学重心が画面の中央に位置する様に方位角が
制御される。
In this way, the geometric center of gravity data (angle, position) and size 9 calculated by the image processing device 5 are output to the azimuth calculation device 6 provided at the next stage. The azimuth calculation device 6 calculates a target azimuth calculation value, which is the azimuth of the target object, from the geometric center of gravity data 9 and the azimuth data indicating the imaging azimuth of the TV camera, and outputs it to the drive platform control device 7. The drive stand control device 7 controls the camera drive stand 2 that supports the TV camera 1, and controls the camera drive stand 2 so that the imaging direction of the TV camera 1 faces the target azimuth calculation value from the azimuth calculation device 6. A drive table control signal 4 is output to the drive table control signal 4. Thereby, the azimuth of the TV camera 1 is controlled so that the geometric center of gravity of the moving object is located at the center of the screen.

また、駆動台制御装置7からは方位演算装置6
に対してTVカメラ1の現在の撮像方位を示す方
位角データが出力される。そこで、方位演算装置
6はTVカメラ1の方位角データ及び映像画面中
の幾何学重心データ9から移動物体の目標方位、
演算値等の計測データ8を出力する。
In addition, the direction calculation device 6 is connected to the driving platform control device 7.
Azimuth data indicating the current imaging direction of the TV camera 1 is output. Therefore, the azimuth calculation device 6 calculates the target azimuth of the moving object from the azimuth data of the TV camera 1 and the geometric center of gravity data 9 on the video screen.
Measurement data 8 such as calculated values is output.

ここで、移動物体が煙突等の陰に入る等した場
合に追尾不能又は誤動作するのを防止する為に、
方位演算装置6内に自動追尾不能を検出して装置
の誤動作を防止する機能と、自動追尾復旧の可能
性を判定して通常の追尾に復旧させる機能とが備
えられている。
Here, in order to prevent tracking failure or malfunction when a moving object enters behind a chimney, etc.,
The azimuth calculation device 6 is provided with a function to detect failure of automatic tracking and prevent malfunction of the device, and a function to determine the possibility of automatic tracking recovery and restore normal tracking.

この内、自動追尾が出来なくなつたことの検出
は、方位演算装置6内に予め設定される移動物体
の画面内における許容大きさ変化率の計算値Kp
と許容位置変化量の計算値ΔXpを実測値と比較す
ることで行なわれる。
Among these, the detection that automatic tracking is no longer possible is performed using the calculated value K p of the permissible size change rate within the screen of the moving object, which is preset in the azimuth calculation device 6.
This is done by comparing the calculated value ΔX p of the allowable positional change amount with the actual measured value.

ここに言う移動物体の画面内における大きさと
は、画面内における移動物体のX軸、及びY軸に
投影された長さ(画素数)を言い、以下の説明で
はX軸の投影長さを例にとつて説明する。
The size of the moving object within the screen referred to here refers to the length (number of pixels) of the moving object projected on the X-axis and Y-axis within the screen, and in the following explanation, the projected length of the X-axis is used as an example. I will explain about it.

すなわち、移動物体を正常に自動追尾している
場合には、撮像画面内における移動物体の大きさ
及び位置の変化はその移動速度と最大運動加速度
及び撮像装置1の機械的なズーミング速度により
計算される値でその上限値が制限されるので、そ
の上限値を予め許容値として設定しておき、実測
値が許容値を越える場合は自動追尾不能と判断す
る。
That is, when a moving object is automatically tracked normally, changes in the size and position of the moving object within the imaging screen are calculated based on its moving speed, maximum motion acceleration, and mechanical zooming speed of the imaging device 1. Since the upper limit value is limited by the value, the upper limit value is set in advance as an allowable value, and if the actual measured value exceeds the allowable value, it is determined that automatic tracking is impossible.

例えば、距離l1における物体の画面内の大きさ
Wl1、距離l2における物体の画面内の大きさWl2
物体の前記2点間の平均移動速度v、撮像画面の
サンプリングタイムをtsとすると連続する2画面
間(1サンプリングタイム間)の物体の大きさの
変化率K1は K1=(Wl1/Wl2v
For example, the size of the object in the screen at a distance l 1
Wl 1 , the size of the object in the screen at distance l 2 Wl 2 ,
If the average moving speed of the object between the two points is v, and the sampling time of the imaging screen is t s , the rate of change in the size of the object between two consecutive screens (one sampling time) is K 1 = (Wl 1 /Wl 2 ) v

Claims (1)

【特許請求の範囲】 1 移動物体16を撮像して映像信号3を出力す
る撮像装置1と、 この撮像装置1を撮像方向自在に支承し、外部
入力される制御信号4に基づいて撮像装置1の撮
像方向を制御する駆動台2と、 前記撮像装置1からの映像信号3を入力して当
該映像信号3の1サンプリングタイム毎に移動物
体16と背景15とを分離し、移動物体16の幾
何学重心の位置及び幾何学重心と画面中央方向と
の角度とからなる幾何学重心データと移動物体の
画面内における大きさとを算出する画像処理装置
5と、 上記撮像装置1の撮像方向を示す方位角データ
と、画像処置装置5から出力される幾何学重心デ
ータ及び移動物体の大きさとを入力し、移動物体
の方位を示す目標方位演算値を出力する方位演算
装置6と、 この方位演算装置6からの移動物体の目標方位
演算値を入力して、移動物体が前記撮像装置1の
画面中央に位置するよう撮像方向を制御する制御
信号4を前記駆動台2に出力すると共に、前記撮
像装置1の撮像方向を示す方位角データを前記方
位演算装置6に出力する駆動台制御装置7とを備
えた移動物体の追尾装置において、 前記方位演算装置6は前記画像処理装置5によ
り1サンプリングタイム毎に算出される移動物体
の幾何学重心データ、大きさ、駆動台制御装置7
からの方位角データを入力して移動物体の画面内
での大きさの変化率と幾何学重心の位置の変化量
を算出する変化量算出手段と、 当該変化量算出手段からの大きさの変化率及び
幾何学重心の位置の変化量算出値を入力して、当
該大きさの変化率及び幾何学重心の位置の変化量
が所定の追尾範囲設定値以内であるときは正常追
尾信号を、かつ当該設定値を超えるときには追尾
異常と判断して追尾異常信号をそれぞれ出力する
追尾異常判断手段と、 当該追尾異常判断手段からの追尾異常信号を入
力して、追尾異常となる1サンプリングタイム前
の移動物体の目標方位演算値及び上記方位角デー
タから算出される撮像装置を駆動する駆動台支承
軸の回転角の時間微分で得られる角速度を用いて
等角速度予測に基づく移動物体の目標方位予測値
を算出し、この値を前記目標方位演算値として前
記駆動台制御装置7に出力する予測値出力手段
と、 当該予測値出力手段の動作後、経過サンプリン
グタイム毎に移動物体の幾何学重心データと大き
さを読み込む読込み手段と、 上記追尾異常となる1サンプリングタイム前の
移動物体の幾何学重心の位置と大きさを基に、追
尾異常となつてからの経過サンプリングタイム毎
に上記移動物体の大きさと位置の許容範囲を算出
し、当該許容範囲と上記読込み手段からの移動物
体の大きさと幾何学重心の位置とを比較し、当該
許容範囲に入つたときのみ追尾復旧可能と判断し
て復旧信号を出力する復旧判断手段と、 上記追尾異常判断手段の正常追尾信号出力時お
よび上記復旧判断手段の復旧信号の出力時には、
その時点で入力された上記撮像装置1の撮像方向
を示す方位角データと画像処理装置5から出力さ
れる幾何学重心データとから移動物体の目標方位
を演算し、当該演算された目標方位演算値を駆動
台制御装置に出力する目標方位演算手段と を有することを特徴とする移動物体の自動追尾装
置。
[Scope of Claims] 1. An imaging device 1 that images a moving object 16 and outputs a video signal 3; The imaging device 1 supports the imaging device 1 freely in the imaging direction, and controls the imaging device 1 based on a control signal 4 inputted from the outside. a driving table 2 that controls the imaging direction of the image pickup device 1; and a driving table 2 that inputs the video signal 3 from the imaging device 1, separates the moving object 16 from the background 15 every sampling time of the video signal 3, and determines the geometry of the moving object 16. an image processing device 5 that calculates geometric center of gravity data consisting of the position of the academic center of gravity and the angle between the geometric center of gravity and the direction of the center of the screen and the size of the moving object in the screen; and an azimuth that indicates the imaging direction of the imaging device 1. an azimuth calculation device 6 that inputs the angle data, the geometric center of gravity data output from the image processing device 5, and the size of the moving object, and outputs a target azimuth calculation value indicating the azimuth of the moving object; A control signal 4 for controlling the imaging direction so that the moving object is located at the center of the screen of the imaging device 1 is outputted to the driving base 2 by inputting the target orientation calculation value of the moving object from the imaging device 1. In the tracking device for a moving object, the driving platform control device 7 outputs azimuth data indicating the imaging direction of the azimuth to the azimuth calculation device 6, the azimuth calculation device 6 outputs the azimuth data indicating the imaging direction of the image processing device 5 at every sampling time. Calculated geometric center of gravity data, size, and drive platform control device 7 of the moving object
a change amount calculating means for inputting azimuth data from the moving object to calculate the change rate of the size of the moving object within the screen and the change amount of the position of the geometric center of gravity; Input the calculated value of the change rate and the amount of change in the position of the geometric center of gravity, and if the rate of change in the size and the amount of change in the position of the geometric center of gravity are within the predetermined tracking range setting value, a normal tracking signal is output, and A tracking abnormality determining means that determines a tracking abnormality when the set value is exceeded and outputs a tracking abnormality signal, and a tracking abnormality signal from the tracking abnormality determining means is input to detect the movement one sampling time before the tracking abnormality occurs. Using the target azimuth calculation value of the object and the angular velocity obtained by time differentiation of the rotation angle of the drive platform support shaft that drives the imaging device calculated from the above azimuth data, the predicted target azimuth value of the moving object is calculated based on the constant angular velocity prediction. a predicted value output means for calculating and outputting this value to the drive platform control device 7 as the target azimuth calculation value; and after the operation of the predicted value output means, the geometric center of gravity data of the moving object and the size are Based on the position and size of the geometric center of gravity of the moving object one sampling time before the tracking abnormality, the size and size of the moving object are calculated at each sampling time that has elapsed since the tracking abnormality occurred. Calculate the permissible range of the position, compare the size of the moving object and the position of the geometric center of gravity with the permissible range from the reading means, determine that tracking can be restored only when the permissible range is within the permissible range, and send a recovery signal. a recovery determining means to output, and when the tracking abnormality determining means outputs a normal tracking signal and when the recovery determining means outputs a recovery signal,
The target orientation of the moving object is calculated from the azimuth angle data indicating the imaging direction of the imaging device 1 input at that time and the geometric center of gravity data output from the image processing device 5, and the calculated target orientation calculation value is calculated. 1. An automatic tracking device for a moving object, comprising: a target azimuth calculation means for outputting a target direction to a drive platform control device.
JP62169370A 1987-07-07 1987-07-07 Automatic tracking device for moving body Granted JPS6413485A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62169370A JPS6413485A (en) 1987-07-07 1987-07-07 Automatic tracking device for moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62169370A JPS6413485A (en) 1987-07-07 1987-07-07 Automatic tracking device for moving body

Publications (2)

Publication Number Publication Date
JPS6413485A JPS6413485A (en) 1989-01-18
JPH0574025B2 true JPH0574025B2 (en) 1993-10-15

Family

ID=15885329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62169370A Granted JPS6413485A (en) 1987-07-07 1987-07-07 Automatic tracking device for moving body

Country Status (1)

Country Link
JP (1) JPS6413485A (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4594197B2 (en) * 2005-09-01 2010-12-08 パナソニック株式会社 Automatic tracking device
JP6084810B2 (en) * 2012-10-29 2017-02-22 古野電気株式会社 Tracking processing apparatus and tracking processing method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61189474A (en) * 1985-02-18 1986-08-23 Mitsubishi Electric Corp Tracking device for object

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61189474A (en) * 1985-02-18 1986-08-23 Mitsubishi Electric Corp Tracking device for object

Also Published As

Publication number Publication date
JPS6413485A (en) 1989-01-18

Similar Documents

Publication Publication Date Title
JP6574645B2 (en) Control device for controlling imaging apparatus, control method for imaging apparatus, and program
US9091904B2 (en) Camera device with rotary base
JP2004172878A (en) Image processing system using turnable monitoring camera
US20040179729A1 (en) Measurement system
US20100157065A1 (en) Autofocus system
JPH1169342A (en) Image processing system for tracking intruding object
JP2007089042A (en) Imaging apparatus
JPH0275284A (en) Image pickup device
JP4228391B2 (en) Monitoring system
JP3615867B2 (en) Automatic camera system
JPH0993570A (en) Positioning controller for monitor camera and reader for indicator
JPH0574025B2 (en)
JP2002101408A (en) Supervisory camera system
JP7130041B2 (en) Imaging device
JP4407530B2 (en) Motion detection device
JPH07162730A (en) Mobile object image pickup device
JP2005175852A (en) Photographing apparatus and method of controlling photographing apparatus
JP2002247424A (en) Monitor camera system
KR102598630B1 (en) Object tracking pan-tilt apparatus based on ultra-wide camera and its operation method
US11825230B2 (en) Imaging apparatus and storage medium
JPH01184483A (en) Automatic tracking device for moving body
JPH1066057A (en) Remote supervisory equipment
JPH02151828A (en) All-azimuth observation device
JPH06339066A (en) Pickup image adjusting device
US20240073512A1 (en) Control apparatus, image pickup apparatus, control method, and storage medium

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071015

Year of fee payment: 14