JPS60195682A - Tracking method of moving body - Google Patents

Tracking method of moving body

Info

Publication number
JPS60195682A
JPS60195682A JP59052035A JP5203584A JPS60195682A JP S60195682 A JPS60195682 A JP S60195682A JP 59052035 A JP59052035 A JP 59052035A JP 5203584 A JP5203584 A JP 5203584A JP S60195682 A JPS60195682 A JP S60195682A
Authority
JP
Japan
Prior art keywords
image
moving object
moving
partial
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP59052035A
Other languages
Japanese (ja)
Inventor
Eisaku Yamada
山田 栄作
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Ltd
Original Assignee
Komatsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Ltd filed Critical Komatsu Ltd
Priority to JP59052035A priority Critical patent/JPS60195682A/en
Publication of JPS60195682A publication Critical patent/JPS60195682A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To surely catch the movement of a moving body even at a place where the optical environment is inferior and also to shorten the processing time, by providing plural picture memories, moving position calculating circuit, estimator, correlation operator, etc. CONSTITUTION:A TV camera 1 takes the picture of a moving body and outputs its video signal to an AD converter 2, etc. The data of the converter 2 are outputted to the 1st and 2nd picture memories 5 and 6 through a change-over switch 4 with a time lag. Data of partial picture extracted from the memories 5 and 6 through a moving position calculating circuit 8, estimator 9, etc., are supplied to a correlation operator 10 where the mutual correlation between both picture images is found. As a result, the discrepancy between both the partial pictures, at which the mutual correlation becomes the maximum, is added to an estimated position and the moving position of the moving body is detected. After a prescribed time has passed, the mutual correlation of partial pictures at another estimated position newly estimated from the detected moving position is again found by the operator 10 and another moving position is detected. By repeating these operations, movement of a moving body can be caught surely even at a place where the optical environment is inferior.

Description

【発明の詳細な説明】 本発明は、テレビカメラ等の撮像装置を用いて移動体を
自動的に追跡する移動体の追跡方法に関する。
DETAILED DESCRIPTION OF THE INVENTION The present invention relates to a method for automatically tracking a moving object using an imaging device such as a television camera.

移動体の動きを非接触で捕えるには、主に光を利用した
方法がとられている。位置を計測する方法トしては、I
ジションセンサと称される光センサ等を用いるものがあ
るが、広く利用されているのは、テレビカメラによる方
法である。
The main method used to capture the movement of moving objects without contact is using light. How to measure position, I
Although there is a method that uses an optical sensor called a motion sensor, the method that is widely used is a method that uses a television camera.

従来、テレビカメラを用いて移動体を追跡する方法は、
移動体にLED等の発光体を取シ付け、テレビカメラに
よって撮影された画面中から前記発光体に相当する最も
明るい部分を検出し、この検出を逐次実行することによ
シ移動体の追跡を行なうようにしている。
Conventionally, the method of tracking a moving object using a television camera is
The moving object can be tracked by attaching a light emitting body such as an LED to a moving object, detecting the brightest part corresponding to the light emitting object from the screen shot by a television camera, and sequentially performing this detection. I try to do it.

しかし、かかる方法は、簡単に実現できる利点があるが
、目標(発光体)以外に明るい部分が画面に現われると
、その追跡が不可能となる場合がある。したがって、外
乱の多い屋外等で紘この方法はその実施に問題があった
However, although this method has the advantage of being easy to implement, if a bright part other than the target (light emitter) appears on the screen, it may become impossible to track it. Therefore, Hiroko's method has problems in its implementation outdoors where there are many disturbances.

本発明は上記実情に鑑みてなされたもので、光学的な環
境の悪い場所でも確実に移動体の動きを捕えることがで
き、かつ処理時間の短縮化を図ることができる移動体の
追跡方法を提供することを目的とする。
The present invention has been made in view of the above-mentioned circumstances, and provides a method for tracking a moving object that can reliably capture the movement of a moving object even in a place with a poor optical environment and that can shorten processing time. The purpose is to provide.

この発明によれば、時間的に連続した画像では、コマ間
の相関が高いことを利用し、移動体を撮影した一画面分
の画像から前記移動体の画像の一部である独特なノやタ
ーン画像を含む所定領域の部分画像を取シ出し、所定時
間経過後、前記移動体の移動軌跡に基づいて予測した予
測位置の部分画像をそのときの画面よル取)出し、両部
分画像の相互相関をめ、この相互相関が最大となる両部
分画像のずれ量を前記予測位置に加算して移動体の移動
位置を検出し、この移動位置の部分画像を取り出し、所
定時間経過後、前記検出した移動位置から新たに予測し
た予測位置の部分画像をそのときの画面より取シ出し、
再び両部分画像の相互相関をめ、上記と同様にして移動
体の移動位置を検出し、これを繰シ返し実行することに
より移動体を追跡するようにしている。
According to this invention, by utilizing the fact that in temporally continuous images, there is a high correlation between frames, unique images that are part of the image of the moving object can be extracted from one screen worth of images of the moving object. A partial image of a predetermined area including the turn image is extracted, and after a predetermined time has elapsed, a partial image of the predicted position predicted based on the movement trajectory of the moving body is extracted from the screen at that time), and both partial images are extracted. Based on the cross-correlation, the shift amount of both partial images with the maximum cross-correlation is added to the predicted position to detect the moving position of the moving body, the partial image at this moving position is extracted, and after a predetermined time elapses, the shift amount of both partial images is added to the predicted position. A partial image of the predicted position newly predicted from the detected moving position is extracted from the screen at that time,
The cross-correlation between the two partial images is again determined, and the moving position of the moving object is detected in the same manner as above, and this is repeated to track the moving object.

以下、本発明を添付図面を参照して詳細に説明する。Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

まず、一本発明方法を原理的に説明する。第1図(a)
はTV右カメラよって撮影された画面の一例を示すもの
で、この画面には移動体(ブルドーザ)が映し出されて
いる。この画面よシゾルドーザの画像の一部である独特
なパターン画像を含む画像(部分画像)を抽出する(第
1図(b))。そして、グルドープの移動にともなって
前記ノぐターン画像の追跡を行なう。
First, one method of the present invention will be explained in principle. Figure 1(a)
shows an example of a screen taken by the TV right camera, and a moving object (a bulldozer) is shown on this screen. From this screen, an image (partial image) containing a unique pattern image that is a part of the image of the Schizordozer is extracted (FIG. 1(b)). Then, as the guru dope moves, the nog turn image is tracked.

いま、任意の時刻における第2図の実線で囲んだ部分画
像の中心位置(移動位置)の座標を(xl。
Now, the coordinates of the center position (movement position) of the partial image surrounded by the solid line in FIG. 2 at an arbitrary time are (xl.

yI)とし、所定時間Δを経過後、ブルドーザの移動に
ともなって前記座標が(xt+++ 7t+1)に移動
した場合について説明する。
yI), and after a predetermined time Δ has passed, the coordinates move to (xt+++7t+1) as the bulldozer moves.

まず、グルドープの移動軌跡に基づいて、すなわち現在
の時刻から所定時間(ΔtXn)前までの間にお、ける
n個の移動位置(xl、yl)、(”I−1−3’1−
1)、・・・(X+−n+1 + 3’l−1+1 )
に基づいて所定時間Δを経過後の移動位置を予測する。
First, based on the movement trajectory of Gurudope, that is, n movement positions (xl, yl), ("I-1-3'1-
1),...(X+-n+1 + 3'l-1+1)
The movement position after the predetermined time Δ has elapsed is predicted based on .

この予測位置をに、;)とする。続いて、所定時間経過
後の画面より、前記予測位置(x、y)に関連して部分
画像(1点鎖線で囲んだ画像)を抽出する。
Let this predicted position be ;). Subsequently, a partial image (the image surrounded by a chain line) related to the predicted position (x, y) is extracted from the screen after a predetermined period of time has elapsed.

そして、実線で囲んだ部分画像と1点鎖線で囲んだ部分
画像とのパターン画像のずれをめる。
Then, the deviation of the pattern images between the partial image surrounded by the solid line and the partial image surrounded by the dashed-dotted line is corrected.

このずれ量をめるに際し、両部分画像の相互相関を演算
し、その相関のピーク値が現われる位置からずれ量をめ
る。いま、このずれ量を(ΔX。
When calculating this amount of deviation, the cross-correlation between both partial images is calculated, and the amount of deviation is calculated from the position where the peak value of the correlation appears. Now, this deviation amount is (ΔX.

Δy)とすると、所定時間経過後の実際の移動位置(X
1+1+ 3’++1)は、このずれ量と予測位置とを
加算して、 となる。
Δy), the actual movement position (X
1+1+3'++1) is obtained by adding this amount of deviation and the predicted position.

続いて、この移動位置(Xl+i + )’l+1)を
基準にして破線で囲んだ部分画像と、所定時間経過後の
画面よシ、次に予測した予測位置に関連して抽出した部
分画gI(図示せず〕との相関から上記と同様にして移
動位置をめる。これを繰り返し実行することによシバタ
ーン画像(ブルドーザ1)の追跡を行々うようKしてい
る。
Next, a partial image surrounded by a broken line based on this moving position (Xl+i + )'l+1) and a partial image gI( The moving position is determined in the same manner as above based on the correlation with [not shown]. By repeating this process, the Shibata turn image (bulldozer 1) is tracked.

次K、本発明方法を第3図に示す実施例にしたがって具
体的に説明する◎ 第1図において、テレビカメラ1は移動体の移動領域を
含む所定の視野で移動体を撮影し、そのビデオ信号をφ
変換器2および同期信号発生器3に出力する。同期信号
発生器3は入力するビデオ信号から同期信号を分離し、
A/D変換器2は入力するビデオ信号を同期信号発生器
3からの同期信号に同期して1画素が例えば16階調の
画像データに変換し、これを切換スイッチ4に出力する
Next, the method of the present invention will be explained in detail according to the embodiment shown in FIG. 3. In FIG. φ signal
Output to converter 2 and synchronization signal generator 3. The synchronization signal generator 3 separates the synchronization signal from the input video signal,
The A/D converter 2 converts the input video signal into image data of, for example, 16 gradations per pixel in synchronization with a synchronization signal from the synchronization signal generator 3, and outputs this to the changeover switch 4.

切換スイッチ4は、同期信号発生器3から加えられる1
フレーム終了毎の信号によシその可動接片4mを接点4
bと接点4cとに交互に切シ換え接続し、入力する画像
データを第1画像メモリ5および第2画像メモリ6に出
力する。第1画像メモリ5および第2画像メモリ6はそ
れぞれ一画面分の画像データを記憶するもので、各メモ
リの記憶内容は切換スイッチ4が切シ換えられる毎に交
互に新しい画面の画f#f−夕に更新される。したがっ
て、第1画像メモリ5と第2画像メモリ6との画像デー
タ間には、1フレ一ム時間を1/3o秒とすると、−画
面数)込むための所定時間Δ1(=1730秒)の時間
差が生じる。
The changeover switch 4 has a 1 signal applied from the synchronization signal generator 3.
The movable contact piece 4m is connected to contact 4 for the signal every time the frame ends.
b and contact 4c alternately and output the input image data to the first image memory 5 and the second image memory 6. The first image memory 5 and the second image memory 6 each store image data for one screen, and each time the changeover switch 4 is switched, the stored contents of each memory are alternately changed to a new screen image f#f. -Updated in the evening. Therefore, a predetermined time Δ1 (=1730 seconds) is required to insert the image data between the first image memory 5 and the second image memory 6 (when one frame time is 1/3o seconds) (-number of screens). There will be a time difference.

前記第1画像メモリ5および第2画像メモリ6からそれ
ぞれ抽出される部分画像の位置は、メモリコントローラ
7によって制御される。すなわち、メモリコントローラ
7は、移動位置算出回路8がら・母ターン画像の中心位
置座標(z、y)を示す信号を、該/4′ターン画像の
移動位置を示す信号として入力し、また、予測器9から
は前記移動位置よシ所定時間Δを経過後の・リーン画像
の予測位置(x、y)を示す信号を入力し、これらの位
置信号に基づいて前記位置(+c、y)および(、:;
 、 9 )を中心とする所定画累(NXM)の部分画
像を抽出するための制御信号を第1画1象メモリ5およ
び第2画像メモリ6に出力する。
The positions of the partial images extracted from the first image memory 5 and the second image memory 6 are controlled by a memory controller 7. That is, the memory controller 7 inputs a signal indicating the center position coordinates (z, y) of the main turn image from the movement position calculation circuit 8 as a signal indicating the movement position of the /4' turn image, and A signal indicating the predicted position (x, y) of the lean image after a predetermined time Δ has elapsed from the movement position is inputted from the device 9, and based on these position signals, the position (+c, y) and ( , :;
.

いま、時刻t0の時点で・リーン画像が位置(xo。Now, at time t0, the lean image is at position (xo.

yo)Kあシ、この時点の画面が第1画像メモリ5に記
憶され、所定時間経過後の時刻1.(=1゜+Δt)に
おける画面が第2画像メモリ6に記憶されている場合に
ついて説明する。まず、第1画像メモリ5に記憶されて
いる画ray’−夕からその画面をモニタテレビ(図示
せず)に映し出し、ライトペン等を用いてパターン画像
の位置(Xo + ’16 )を指定する・この位置(
x o + 3’ 6 )を示す信号は、初期値として
移動位置算出回路8に入力され、そのままメモリコント
ローラ7および予測器9に加えられる。予測器9は移動
体の移動軌跡、すなわち所定? 時間毎に加えられる移動位置算出口1fらの移動位置信
号に基づいて次の移動位置を予測し、その予測位置(x
、y)をボす信号を出力するものであるが、初期状態で
は移動軌跡が未定のため、この場合には上記初期位置(
xor yo)と同じ値の信号を出力することになる。
yo) Kashi, the screen at this point is stored in the first image memory 5, and after a predetermined time has elapsed, the screen at time 1. A case where the screen at (=1°+Δt) is stored in the second image memory 6 will be described. First, display the screen from the image ray' stored in the first image memory 5 on a monitor television (not shown), and specify the position of the pattern image (Xo + '16) using a light pen or the like.・This position (
The signal indicating x o + 3' 6 ) is input to the movement position calculation circuit 8 as an initial value, and is applied to the memory controller 7 and predictor 9 as is. The predictor 9 predicts the moving trajectory of the moving object, that is, a predetermined trajectory. The next movement position is predicted based on movement position signals from movement position calculation port 1f etc. added every time, and the predicted position (x
, y), but since the movement trajectory is undetermined in the initial state, in this case, the above initial position (
xor yo).

メモリコントローラ7は、切換スイッチ4の可動接片4
1が接点4cに接続され最新の画面の画像データが第2
画像メモリ6に記憶されている場合には、入力する予測
位置(x、y)を示す信号に基づいて該予測位置を中心
とする部分画像を抽出すべく第2画像メモリ6に制御信
号を出力し、入力する移動位置(x、y)を示す信号に
基づいて該移動位置を中心とする部分画像を抽出すべく
餉1画像メモリ5に制御信号な出力し、また、切換スイ
ッチ4の可動接片4aが接点4bに接続され最新の画面
の画像データが第1画像メモリ5に記憶されている場合
には、前記の場合とは互いに逆の信号に基づいてそれぞ
れ部分画像を抽出する制御信号を出力する。なお、時刻
t1では前者の場合の制御信号が出力され、また位置(
x、y)および(x、y)が同一のため、第1画像メモ
リ5および第2画像メモリ6から抽出される部分画像は
それぞれ画面の同一位置の部分画像である。
The memory controller 7 is connected to the movable contact piece 4 of the changeover switch 4.
1 is connected to contact 4c, and the latest screen image data is connected to the second
If stored in the image memory 6, a control signal is output to the second image memory 6 in order to extract a partial image centered at the predicted position based on the input signal indicating the predicted position (x, y). Based on the input signal indicating the movement position (x, y), a control signal is output to the image memory 5 for extracting a partial image centered at the movement position, and the movable contact of the changeover switch 4 is When the piece 4a is connected to the contact 4b and the latest screen image data is stored in the first image memory 5, control signals for extracting each partial image are generated based on signals opposite to those in the above case. Output. Note that at time t1, the control signal for the former case is output, and the position (
Since x, y) and (x, y) are the same, the partial images extracted from the first image memory 5 and the second image memory 6 are partial images at the same position on the screen, respectively.

第1画像メモリ5および第2画像メモリ6がら抽出され
た部分画像のデータは、それぞれ相関演算器10のFF
T装置11および12に加えられ、ここで2次元フーリ
エ変換され、両画像からの結果が対応する周波数酸1分
ごとに掛算器13で掛算され、この結果がI FFT装
置14で逆フーリエ変換される。
The data of the partial images extracted from the first image memory 5 and the second image memory 6 are sent to the FFs of the correlation calculator 10, respectively.
The images are applied to T units 11 and 12, where they are subjected to a two-dimensional Fourier transform, the results from both images are multiplied by the corresponding frequency signal every minute in a multiplier 13, and this result is inversely Fourier transformed in an I FFT unit 14. Ru.

逆7−リエ変換されたデータは最大値検出器15に加え
られ、ここで両部分画像データの相互相関が最大となる
両部分画像間のずれ量(ΔX、Δy)がめられ、これに
対応する信号が移動位置算出回路に送出される。
The inverse 7-lier transformed data is applied to the maximum value detector 15, which determines the amount of deviation (ΔX, Δy) between the two partial images that maximizes the cross-correlation between the two partial image data, and calculates the amount of deviation (ΔX, Δy) corresponding to this. A signal is sent to a movement position calculation circuit.

移動位置算出回路8は、初期値(xor yo)に前記
ずれ量(ΔX、Δy)を加算し、この加算値を示す信号
を、Δを時間後のノ4ターン画像の位置(x、y)を示
す信号として出力する。
The movement position calculation circuit 8 adds the deviation amount (ΔX, Δy) to the initial value (xor yo), and uses a signal indicating this added value as the position (x, y) of the 4-turn image after a time period of Δ. Output as a signal indicating.

この位置(x、y)を示す信号は、メモリコントローラ
7とともに予測器9に加えられる。予測器9はこの入力
位置および前回の位置(初期値(x o ryo))か
ら次のΔを時間後のノやターン画像の移動位置を予測し
、その予測位置(x、y)を示す信号をメモリコントロ
ーラ7に出力する。
A signal indicating this position (x,y) is applied to a predictor 9 along with a memory controller 7. The predictor 9 predicts the movement position of the next Δ time after the input position and the previous position (initial value (x o ryo)), and outputs a signal indicating the predicted position (x, y). is output to the memory controller 7.

メモリコントローラ7は、前記と同様にして2人力信号
に基づいて第1画像メモリ5および第2画像メモリ6か
らそれぞれ部分画像を抽出すべく制御信号を出力する。
Similarly to the above, the memory controller 7 outputs control signals to extract partial images from the first image memory 5 and the second image memory 6, respectively, based on the two human input signals.

なお、この場合には、切換スイッチ4の可動接片4aは
接点4bK切り換えられており、第1画像メモリ5には
新たな画面の画像データが記憶されている。また、第1
画像メモリ5から位置(x、y)に基づいて読み出され
る部分画像と第2画像メモリ6から位置(x、y)に基
づいて読み出される部分画(2)とは(x−x、y−y
)だけずれた部分画像である。
In this case, the movable contact piece 4a of the changeover switch 4 is switched to the contact point 4bK, and the first image memory 5 stores image data of a new screen. Also, the first
The partial image read out based on the position (x, y) from the image memory 5 and the partial image (2) read out based on the position (x, y) from the second image memory 6 are (x-x, y-y
) is a partial image shifted by an amount.

これらの部分画像から再び両者の相関をとり、相関が最
大となるずれ量(ΔX、Δy)をめ、これを現移動位置
(x、y)に加算して新たな移動位置とする。
The correlation between these partial images is again determined, the amount of deviation (ΔX, Δy) at which the correlation is maximum is determined, and this is added to the current movement position (x, y) to determine the new movement position.

以上の処理を繰シ返し実行することによシ移動体を追跡
することができる。
A moving object can be tracked by repeatedly executing the above process.

なお、予測器9は、現在の時刻tから(ΔtXn )時
間前までの間におけるn個の移動位置データより、次式
、 K基づいて線形予測を行なう。この予測器7の係数Jお
よびblは予め移動体の動きを分析して決定しておく。
Note that the predictor 9 performs linear prediction based on the following equation, K, from n movement position data from the current time t to (ΔtXn) hours ago. The coefficients J and bl of the predictor 7 are determined in advance by analyzing the movement of the moving object.

予測器7によってΔを時間後の位置を予測しない場合に
は、第1画像メモリ5および第2画像メモリ6から抽出
する部分画像は同じ位置となるが、この場合には、部分
画像がMXN画素の大きさをもち、移動体の位置変化が
(N/2 、 N/2 )以内でないと追跡が不可能(
十分な相関が得られない)とすると、移動体のX方向の
速度vx+’/方向の速度t’yは、 に制限される。ただし、Δtは一画面を取シ込む時間で
ある。
If the predictor 7 does not predict the position after Δ, the partial images extracted from the first image memory 5 and the second image memory 6 will be at the same position, but in this case, the partial images will have MXN pixels. , and tracking is impossible unless the position change of the moving object is within (N/2, N/2) (
If sufficient correlation is not obtained), the speed vx+' of the moving body in the X direction/velocity t'y in the direction is limited to the following. However, Δt is the time to capture one screen.

しかしながら、予測器9によってΔを時間後の位置を予
測する場合には、予測位置と実際の移動位置とのずれ量
が(N/2.N/2)以内であればよく、移動体の移動
速度には依存しない。
However, when predicting the position after a time Δ by the predictor 9, it is sufficient that the amount of deviation between the predicted position and the actual movement position is within (N/2.N/2), and the movement of the moving body Does not depend on speed.

なお、抽出した2つの部分画像間の相関演算方期も1フ
レーム毎に限らず、例えば数フレーム毎に行なうように
してもよい。また、本発明による移動体の追跡により、
その移動軌跡、速度、加速度等をめることができる。
Note that the correlation calculation method between the two extracted partial images is not limited to every frame, but may be performed every several frames, for example. Furthermore, by tracking a moving object according to the present invention,
Its movement trajectory, speed, acceleration, etc. can be recorded.

以上説明したように本発明によれば、光学的な環境の悪
い場所でも確実に移動体の動きを捕えることができ、ま
た一画面より抽出した部分画像間の相関演算のため処理
時間の短縮化を図ることができ、さらに移動体の移動位
置を予測して部分画像を抽出するため、移動体の移動速
度の影響の少ない良好な相関を得ることができる。
As explained above, according to the present invention, it is possible to reliably capture the movement of a moving object even in a place with a poor optical environment, and the processing time is shortened due to correlation calculation between partial images extracted from one screen. Furthermore, since the moving position of the moving object is predicted and the partial images are extracted, it is possible to obtain a good correlation that is less affected by the moving speed of the moving object.

【図面の簡単な説明】[Brief explanation of drawings]

第1図(a)はTVカメラによって撮影された画面の一
例を示す図、第1図(b)は第1図(a)から取り出さ
れる部分画像の拡大図、第2図は本発明方法を原理的に
説明するために用いた部分画像を示す図、第3図は本発
明方法の一実施例を示すプロ、り図である。 1・・・TV左カメラ2・・・A/D変換器、3・・・
同期信号発生器、4・・・切換スイッチ、5・・・第1
画像メモリ、6・・・第2画像メモリ、7・・・メモリ
コントローラ、8・・・移動位置算出回路、9・・・予
測器、10・・・相関演算器、15・・・最大値検出器
。 第1図 (G) (b) 第2図
FIG. 1(a) is a diagram showing an example of a screen photographed by a TV camera, FIG. 1(b) is an enlarged view of a partial image extracted from FIG. 1(a), and FIG. 2 is a diagram showing an example of a screen taken by a TV camera. FIG. 3 is a diagram showing a partial image used to explain the principle, and FIG. 3 is a diagram showing an embodiment of the method of the present invention. 1...TV left camera 2...A/D converter, 3...
Synchronous signal generator, 4... changeover switch, 5... first
Image memory, 6... Second image memory, 7... Memory controller, 8... Movement position calculation circuit, 9... Predictor, 10... Correlation calculator, 15... Maximum value detection vessel. Figure 1 (G) (b) Figure 2

Claims (4)

【特許請求の範囲】[Claims] (1)移動体を所定の視野で撮影し、該撮影した一画面
の画像から前記移動体の画像の一部である独特なノ母タ
ーン画瞭を含む所定領域の第1の部分画像の位置を指定
し、該位置指定した時刻t0における前記第1の部分画
像を基準にして該第1の部分画像と、所定時間Δを経過
後の時刻t、(= t0+Jt)に撮影した画面よシ前
記移動体の移動軌跡に基づいて予測した予測位置から取
シ出した第2の部分画像との相互相関をめ、該相互相関
が最大となる前記第1、第2の部分画像間のずれ量を前
記予測位置に加算して基準画像の移動位置を検出し、次
に時刻t1に撮影した画面よシ前記検出した移動位置に
基づいて取シ出した部分画像を基準にして該部分画像と
、時刻t2 (=t、+Δt)に撮影した画面よシ前記
移動体の新たな移動軌跡に基づいて予測した予測位置か
ら取シ出した第3の部分画像との相互相関をめ、同様に
して基準画像の移動位置を検出し、これを繰シ返し実行
することによシ前記移動体を追跡するようにしたことを
特徴とする移動体の追跡方法。
(1) A moving object is photographed in a predetermined field of view, and a position of a first partial image of a predetermined area including a unique main turn clarity that is a part of the image of the moving object is determined from one screen of the photographed image. , and the first partial image at the specified time t0 is used as a reference, and the screen photographed at time t, (= t0+Jt) after a predetermined time Δ has elapsed. Calculate the cross-correlation with the second partial image extracted from the predicted position predicted based on the movement trajectory of the moving object, and calculate the amount of shift between the first and second partial images at which the cross-correlation is maximum. The moving position of the reference image is detected by adding it to the predicted position, and then the partial image is extracted from the screen photographed at time t1 based on the detected moving position, and the partial image and the time are t2 (=t, +Δt) and the third partial image extracted from the predicted position predicted based on the new movement trajectory of the moving object, and similarly, a reference image is obtained. 1. A method for tracking a moving object, characterized in that the moving object is tracked by detecting the moving position of the object and repeatedly performing this process.
(2) 前記第1の部分画像の位置指定は、前記一画面
分の画像をモニタテレビに映し出し、該モニタテレビ画
面上で第1の部分画像の位置をライトペンによって指定
することによシ行なう特許請求の範囲第(1)項記載の
移動体の追跡方法。
(2) The position of the first partial image is specified by displaying the one-screen image on a monitor television and specifying the position of the first partial image on the monitor television screen with a light pen. A method for tracking a moving object according to claim (1).
(3)前記第1の部分画像の位置指定は、前記移動体の
独特なノ9ターン画像を予め記録しておき、とのノリー
ン画像と前記一画面分の画像との相互相関が最大となる
該ツクターン画像の位置によって指定する特許請求の範
囲第(1)項記載の移動体の追跡方法。
(3) The position of the first partial image is determined by recording a unique 9-turn image of the moving object in advance, and maximizing the cross-correlation between the 3-turn image and the 1-screen image. A method for tracking a moving object according to claim (1), wherein the tracking method is specified by the position of the tracking image.
(4)前記移動体の移動軌跡に基づく予測は、現在の時
刻から所定時間(ΔtXn )前までの間におけるn個
の移動位置よシ線形予測方を用いて次の移動位置を予測
する特許請求の範囲第(1)項記載の移動体の追跡方法
(4) A patent claim in which the prediction based on the movement trajectory of the moving body predicts the next movement position using a linear prediction method based on n movement positions between the current time and a predetermined time (ΔtXn) before. A method for tracking a moving object according to scope (1).
JP59052035A 1984-03-16 1984-03-16 Tracking method of moving body Pending JPS60195682A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59052035A JPS60195682A (en) 1984-03-16 1984-03-16 Tracking method of moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59052035A JPS60195682A (en) 1984-03-16 1984-03-16 Tracking method of moving body

Publications (1)

Publication Number Publication Date
JPS60195682A true JPS60195682A (en) 1985-10-04

Family

ID=12903558

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59052035A Pending JPS60195682A (en) 1984-03-16 1984-03-16 Tracking method of moving body

Country Status (1)

Country Link
JP (1) JPS60195682A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6031568A (en) * 1997-09-11 2000-02-29 Fujitsu Limited Moving-target tracking apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6031568A (en) * 1997-09-11 2000-02-29 Fujitsu Limited Moving-target tracking apparatus

Similar Documents

Publication Publication Date Title
KR100377068B1 (en) Method for estimating the location of an image target region from tracked multiple image landmark regions
CN103688292B (en) Image display device and method for displaying image
Shafie et al. Motion detection techniques using optical flow
JP2017028655A (en) Tracking system, tracking method and tracking program
JPS6327981A (en) Signal processor and measuring instrument using time and space differentiating method
CN109040525B (en) Image processing method, image processing device, computer readable medium and electronic equipment
Dardelet et al. An event-by-event feature detection and tracking invariant to motion direction and velocity
JPH09245195A (en) Image processing method and its device
CN110969706A (en) Augmented reality device, image processing method and system thereof, and storage medium
JP2001243478A (en) Target body tracing device
JPH07325924A (en) Compound eye image pickup device
JP6725041B2 (en) Tracking system, tracking method and tracking program
JPS60195682A (en) Tracking method of moving body
JP7418734B2 (en) smoke detection device
JPS60209104A (en) Tracking method of moving body
KR20220115223A (en) Method and apparatus for multi-camera calibration
JP2011205388A (en) Signal processing apparatus and method, and program
JP2580516B2 (en) Real-time three-dimensional motion measuring apparatus and method
JP2011154634A (en) Image processing apparatus, method and program
JP3615970B2 (en) Moving object detection method
Kuronen et al. 3d hand movement measurement framework for studying human-computer interaction
EP3173839A1 (en) Microscope system and control method therefor
JP2003097914A (en) Position detecting system and position detecting program
JPH05108827A (en) Picture correlation arithmetic unit
JPH08237687A (en) Pseudo stereoscopic image display device