JPH0696211A - Object tracking method - Google Patents

Object tracking method

Info

Publication number
JPH0696211A
JPH0696211A JP4243211A JP24321192A JPH0696211A JP H0696211 A JPH0696211 A JP H0696211A JP 4243211 A JP4243211 A JP 4243211A JP 24321192 A JP24321192 A JP 24321192A JP H0696211 A JPH0696211 A JP H0696211A
Authority
JP
Japan
Prior art keywords
image
tracking
moving
time
object position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4243211A
Other languages
Japanese (ja)
Inventor
裕子 ▲高▼橋
Hiroko Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP4243211A priority Critical patent/JPH0696211A/en
Publication of JPH0696211A publication Critical patent/JPH0696211A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To track a target object for a long time with high accuracy even when plural moving objects are present in an image. CONSTITUTION:An image input device 100 continuously inputs moving images. An image 101 is an image '1' at time (t) and an image 102 is an image '2' newly inputted at time t+1 and contains one or more pieces of moving objects. An object position 102 is already fixed while being overlapped on the target object in the image '1'. Moving amount detection processing 110 inputs the images '1', '2' and object position 102, detects the moving amount 111 of the target object from (t) to t+1 and calculates a temporary object position 112 in the image '2'. In tracking energy image generation processing 120, a tracking energy image 121 is generated from the images '1' and '2' and the moving amount 111. In position correction processing 130, the temporary object position 112 is corrected according to the tracking energy image 121, and a new object position 131 is calculated.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像処理分野に係り、特
に連続的に入力される動画像中に存在する移動物体を安
定に追跡する方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to the field of image processing, and more particularly to a method for stably tracking a moving object existing in continuously input moving images.

【0002】[0002]

【従来の技術】動画像中の移動物体を追跡するには、主
として1時点前の画像中の追跡する物体と1時点後の画
像中の同一物体とを対応づけることにより、物体の移動
量を検出する手法がとられる。この際、複数の移動物体
が画像内に含まれる場合には、個々の物体を区別するた
め物体に関する特徴を利用する必要がある。従来、これ
には、物体領域と明るさが最も似た領域を求めて移動量
を検出する方法、物体の特徴点の対応から移動量を検出
する方法、時空間の微分を用いて移動量を検出する方法
などがある(例えば、コンピュータビジョン 谷内田正
彦編 丸善 平成2年3月31日発行)
2. Description of the Related Art In order to track a moving object in a moving image, the moving amount of the object is mainly determined by associating the object to be tracked in the image one time before and the same object in the image one time after. The method of detection is taken. At this time, when a plurality of moving objects are included in the image, it is necessary to use the features relating to the objects to distinguish the individual objects. Conventionally, this includes a method of detecting the amount of movement by obtaining an area that is most similar in brightness to the object area, a method of detecting the amount of movement from the correspondence of the feature points of the object, and the amount of movement using temporal and temporal differentiation. There are detection methods, etc. (for example, Computer Vision, Masahiko Taniuchi, Maruzen, March 31, 1990)

【0003】[0003]

【発明が解決しようとする課題】上記従来技術において
は、追跡する物体が遮蔽された時や物体の方向が変化し
た時には見え方が大きく変化するため、移動量の計算精
度が低下する問題があった。また、物体の運動が回転や
自転を伴う場合には、物体表面の移動量と物体自体の移
動量が異なるため、物体表面の移動のみにしたがって追
跡を行なうと、追跡した部分が見えなくなった時に追跡
に失敗する。さらに、追跡処理の繰り返しにより、デジ
タル誤差が累積されるため、追跡精度が低下するという
問題もあった。
In the above-mentioned prior art, there is a problem in that the calculation accuracy of the movement amount deteriorates because the appearance changes greatly when the object to be tracked is occluded or the direction of the object changes. It was Also, when the motion of an object involves rotation or rotation, the amount of movement of the object surface and the amount of movement of the object itself differ, so if tracking is performed only according to the movement of the object surface, when the tracked part becomes invisible Tracking fails. Further, since the digital error is accumulated by repeating the tracking process, there is a problem that the tracking accuracy is lowered.

【0004】繰り返し処理を行う場合には、過去の移動
量を予測し、物体の見え方が変化する時の精度を補う方
法も提案されているが、デジタル誤差によるエラーの累
積により移動量が除々に変化する場合には、十分な移動
量の予測ができないという問題点があった。
A method of predicting a past movement amount and compensating for the accuracy when the appearance of an object changes when repetitive processing is performed has been proposed, but the movement amount is gradually increased due to the accumulation of errors due to digital errors. However, there is a problem in that it is not possible to predict a sufficient amount of movement when it changes to.

【0005】本発明の目的は、遮蔽や見え方の変化によ
る物体位置推定精度の低下と繰り返し処理による追跡精
度の低下を防ぎ、常に高い精度で長時間の物体追跡を可
能にする方法を提供することにある。
An object of the present invention is to provide a method for preventing the deterioration of the object position estimation accuracy due to the occlusion and the change of the appearance and the tracking accuracy due to the repetitive processing, and enabling the object tracking always with high accuracy for a long time. Especially.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するため
に、本発明の物体追跡方法は、画像が入力されるごと
に、その直前に入力された画像(旧画像)と該新たに入
力された画像(新画像)、及び既に求まってある旧画像
内の追跡する物体上の位置(物体位置)により、追跡物
体の移動量と旧画像内の物体位置に対応する新画像にお
ける物体暫定位置を求める処理と、新旧画像の各点の濃
度値と上記移動量とにより、追跡する物体と同じ移動量
を持つ領域では小さく、異なる移動量を持つ領域では大
きな値を持つ追跡エネルギー画像を生成する処理と、該
追跡エネルギー画像を基準として、より小さな値となる
位置に上記物体暫定位置を移動し、新画像の物体位置と
する処理とを有することを特徴とするものである。
In order to achieve the above object, in the object tracking method of the present invention, every time an image is input, an image immediately before the image (old image) and the newly input image are input. Image (new image) and the position on the object to be tracked (object position) in the old image that has already been obtained, the moving amount of the tracking object and the temporary object position in the new image corresponding to the object position in the old image are determined. A process for obtaining a tracking energy image having a small value in an area having the same amount of movement as the object to be tracked and a large value in an area having a different amount of movement based on the density value of each point of the old and new images and the movement amount And a process of moving the temporary object position to a position having a smaller value with the tracking energy image as a reference and setting the object position of a new image.

【0007】[0007]

【作用】連続する新旧画像を用いて、はじめに、時刻t
における物体位置が1時点後対応する時刻t+1におけ
る物体位置を対応づけ問題により解き、時刻tから時刻
t+1への追跡物体の移動量を計算する。次に、移動す
る物体の追跡には物体位置ができるだけ移動する領域内
に含まれることが有利であることを利用して、求めた移
動量と一致する移動量を示す点では小さな値を示す追跡
エネルギー画像を生成し、物体位置をより小さなエネル
ギーを示す点に移動する。
[Function] First, at the time t using the continuous old and new images.
The object position at time t + 1 corresponding to the object position at 1 is solved by a matching problem, and the movement amount of the tracking object from time t to time t + 1 is calculated. Next, in order to track a moving object, it is advantageous that the position of the object is included in a region where the object moves as much as possible. Generate an energy image and move the object position to a point exhibiting less energy.

【0008】本発明では、追跡時に生じる物体の形状変
化やデジタル誤差の累計による位置ずれを、物体位置を
物体上の適切な位置に移動することにより解決するた
め、繰り返しによる精度の低下を防ぐことができる。
According to the present invention, the positional deviation due to the change in the shape of the object or the accumulated digital error that occurs during tracking is solved by moving the object position to an appropriate position on the object, so that the deterioration of accuracy due to repetition is prevented. You can

【0009】[0009]

【実施例】以下、図面を利用して本発明の一実施例につ
いて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0010】図1は、本発明における物体追跡方法の処
理の枠組みを示したものである。図において、実線は制
御の流れ、破線はデータの流れを示している。
FIG. 1 shows a processing framework of the object tracking method according to the present invention. In the figure, the solid line shows the flow of control and the broken line shows the flow of data.

【0011】画像入力処理100は、画像ファイルなど
から連続的に画像を読み出して入力する。102の画像
2が新たに入力された画像(新画像)であり、101の
画像がその直前に入力された画像(旧画像)である。こ
こで、画像1を時刻tにおける画像、画像2を時刻t+
1における画像とする。即ち、画像1、画像2は僅かな
時間差によって撮影された画像である。該画像中には、
移動する物体が1個または複数存在するとする。物体位
置103は画像1内の追跡する物体上に重なる位置であ
り、画像2が入力された時点ではすでに確定している。
The image input processing 100 continuously reads and inputs images from an image file or the like. The image 2 of 102 is the newly input image (new image), and the image of 101 is the image input immediately before (old image). Here, image 1 is the image at time t, and image 2 is the time t +
The image in 1. That is, the images 1 and 2 are images captured with a slight time difference. In the image,
It is assumed that there is one or more moving objects. The object position 103 is a position on the object to be tracked in the image 1 and has already been determined when the image 2 is input.

【0012】移動量検出処理110は、新たに画像2が
入力されると、画像1、画像2および物体位置103を
用いて、画像1の時刻tから画像2の時刻t+1におけ
る追跡する物体の移動量111を検出すると共に、画像
2における物体暫定位置112を計算する。移動量11
1は、相関法など従来の追跡の手法で得られる。物体暫
定位置112は、移動量111と上記画像1の物体位置
103から計算され、画像2内の追跡する物体上にほぼ
重なる位置となる。
When the image 2 is newly input, the movement amount detecting process 110 uses the images 1, 2 and the object position 103 to move the object to be tracked from the time t of the image 1 to the time t + 1 of the image 2. The amount 111 is detected and the object provisional position 112 in the image 2 is calculated. Movement amount 11
1 is obtained by a conventional tracking method such as a correlation method. The object provisional position 112 is calculated from the movement amount 111 and the object position 103 of the image 1 described above, and is a position that substantially overlaps the tracked object in the image 2.

【0013】追跡エネルギー画像生成処理120では、
上記画像1および画像2の各点の濃度値と上記移動量1
11から、該移動量111と同じ移動量を示す点では小
さな値となり、異なる移動量を示す点では大きな値をと
る追跡エネルギー画像121を生成する。
In the tracking energy image generation process 120,
The density value of each point of the image 1 and the image 2 and the movement amount 1
From 11, a tracking energy image 121 having a small value at a point showing the same movement amount as the moving amount 111 and a large value at a point showing a different moving amount is generated.

【0014】位置補正処理130では、追跡エネルギー
画像121に従って、上記物体暫定位置112の補正を
行ない、新たな物体位置131を計算する。
In the position correction processing 130, the temporary object position 112 is corrected in accordance with the tracking energy image 121, and a new object position 131 is calculated.

【0015】次に、画像2に続く画像が入力されると、
これを画像2とし、これまでの画像2は画像1とする。
そして、位置補処理130で求めた物体位置131を新
たに物体位置103とする。以下、次々と新たに入力さ
れる画像を処理し、追跡を繰り返す。
Next, when an image following image 2 is input,
This is referred to as image 2, and image 2 up to now is referred to as image 1.
Then, the object position 131 obtained by the position complementing process 130 is newly set as the object position 103. Thereafter, newly input images are processed one after another and the tracking is repeated.

【0016】図2は、本発明による処理の具体例を説明
する図である。図において、210は時刻tにおける画
像(画像1)、220は時刻t+1における画像(画像
2)である。211は時刻tにおける画像210内の追
跡する移動物体、212は該物体211以外の移動物
体、213は追跡する物体位置(物体211上に重なる
位置)である。221は時刻t+1における画像220
内の追跡する移動物体、222は該物体221以外の移
動物体、223は時刻tから時刻t+1における追跡す
る物体211、221の移動量、224は時刻t+1に
おける追跡する物体暫定位置、225は時刻t+1にお
ける追跡する物体位置(物体221上に重なる位置)で
ある。
FIG. 2 is a diagram for explaining a concrete example of the processing according to the present invention. In the figure, 210 is an image (image 1) at time t, and 220 is an image (image 2) at time t + 1. Reference numeral 211 is a moving object to be tracked in the image 210 at time t, 212 is a moving object other than the object 211, and 213 is an object position to be tracked (position overlapping the object 211). 221 is the image 220 at time t + 1
Of the moving objects to be tracked, 222 is a moving object other than the object 221, 223 is the amount of movement of the objects 211, 221 to be tracked from time t to time t + 1, 224 is a temporary position of the object to be tracked at time t + 1, and 225 is time t + 1. The position of the object to be tracked at (position overlapping the object 221).

【0017】画像210と画像220は僅かな時間差に
よって得られた画像であり、移動するいくつかの物体部
分(例えば211、212、221,222)等を除き
互いに似た画像である。画像210内の物体211が追
跡する対象物であり、画像220内では、物体221が
これに対応する。
The image 210 and the image 220 are images obtained by a slight time difference, and are images similar to each other except for some moving object parts (eg, 211, 212, 221, 222). An object 211 in the image 210 is an object to be tracked, and an object 221 corresponds to this in the image 220.

【0018】いま、画像210において、物体211上
に重なる物体位置213がx0として与えられるとす
る。この画像210内の物体位置213は、追跡の結
果、画像220内では物体暫定位置(x1)224とし
て計算される。追跡は、例えば画像210内の物体位置
213の近傍に最も近い濃度値を持つ位置を画像220
内で捜すことにより行う。この場合、個々の物体の濃度
情報を用いるため、複数の移動物体があっても対応づけ
が可能である。この追跡の結果、対象物体の移動量22
3が求まり、該移動量223と物体位置(x0)213
によって物体暫定位置(x1)224が求まる。これを
実行するのが図1の移動量検出処理110である。
Now, in the image 210, it is assumed that the object position 213 overlapping the object 211 is given as x 0 . As a result of the tracking, the object position 213 in the image 210 is calculated as the object temporary position (x 1 ) 224 in the image 220. For tracking, for example, the position having the density value closest to the object position 213 in the image 210 is searched for in the image 220.
Do by searching in. In this case, since the density information of each object is used, it is possible to correlate even a plurality of moving objects. As a result of this tracking, the movement amount 22 of the target object
3 is obtained, the moving amount 223 and the object position (x 0 ) 213
The object provisional position (x 1 ) 224 is obtained by. This is executed by the movement amount detection processing 110 of FIG.

【0019】画像220内で、物体暫定位置224は移
動物体221上にあるが、物体の見え方の変化などがお
きる場合、該物体暫定位置224は移動物体221の端
になる場合も考えられる。このままの状態で、時刻t+
1から時刻t+2への次の追跡を行うと、物体暫定位置
の近傍の一部が物体から外れる場合には追跡を失敗する
可能が高い。これは、物体表面の速度と物体の速度が異
なる物体の回転や自転を伴う移動物体で発生しやすい。
そこで、物体暫定位置(x1)224を補正し、安定し
た追跡が得られる物体位置を求める。図2で、225が
新しい物体位置(x1′)である。
In the image 220, the object temporary position 224 is on the moving object 221, but when the appearance of the object changes, the object temporary position 224 may be the end of the moving object 221. In this state, time t +
When the next tracking from 1 to time t + 2 is performed, there is a high possibility that the tracking will fail if a part of the vicinity of the provisional position of the object deviates from the object. This is likely to occur in a moving object in which the speed of the surface of the object and the speed of the object are different and the object rotates or rotates.
Therefore, the provisional object position (x 1 ) 224 is corrected to obtain an object position that enables stable tracking. In FIG. 2, 225 is the new object position (x 1 ′).

【0020】以下、物体暫定位置(x1)224を補正
し、新しい物体位置(x1′)225を求める手法を数
式を用いて説明する。
A method for correcting the provisional object position (x 1 ) 224 and obtaining a new object position (x 1 ′) 225 will be described below using mathematical expressions.

【0021】図2の例で、画像210の濃度値をf
(x,t)とする。但し、x∈2 は2次上の点、t∈R
は時刻である。時刻tにおける追跡する物体位置213
の点をx0、時刻t+1における追跡する物体暫定位置
224の点をx1と表わす。物体位置x0における移動量
223は2×2のマトリックスAと2×1のベクトルV
で1次近似により表現できる。すなわち、x0の近傍の
点xの画像220における物体暫定位置x1は、A(x
−x0)+V+x1で表現される。
In the example of FIG. 2, the density value of the image 210 is f
Let (x, t). However, x ∈ 2 is a point on the quadratic, t ∈ R
Is the time. Object position 213 to be tracked at time t
Is denoted as x 0 , and the point at the object provisional position 224 to be tracked at time t + 1 is denoted as x 1 . The movement amount 223 at the object position x 0 is the 2 × 2 matrix A and the 2 × 1 vector V.
Can be expressed by a linear approximation. That is, the object provisional position x 1 in the image 220 at the point x near x 0 is A (x
It is expressed by −x 0 ) + V + x 1 .

【0022】この時、Vは時刻がtからt+1へ移る時
の点x0における移動ベクトル、Aは物体の見え方の変
化による見かけの回転と膨張縮小を表す。例えば、注目
する物体位置が平行移動する場合、
At this time, V represents the movement vector at the point x 0 when the time shifts from t to t + 1, and A represents the apparent rotation and expansion / contraction due to the change in the appearance of the object. For example, when the object position of interest moves in parallel,

【0023】[0023]

【数1】 [Equation 1]

【0024】であり、Vは物体暫定位置224から物体
位置213を引いた値x1−x0となる。
And V becomes a value x 1 −x 0 obtained by subtracting the object position 213 from the object temporary position 224.

【0025】このように表現した場合、点x0の近傍の
点xでは、f(x,t)はf(Ax−x0)+V+x0
t+1)に近い値となる。言い替えれば、|f(x,
t)−f(A(x−x0)+V+x0,t+1)|はゼロ
に近い値となる。一方、|f(x,t)−f(x,t+
1)|は、移動している物体部分で大きな値をとる。こ
こで、 g1(x)=|f(A(x−x0)+V+x0,t+1)−f(x,t)| ……(式1) g2(x)=|f(x,t+1)−f(x,t)| ……(式2) とする。
When expressed in this way, at a point x near the point x 0 , f (x, t) is f (Ax−x 0 ) + V + x 0 ,
It becomes a value close to t + 1). In other words, | f (x,
t) -f (A (x- x 0) + V + x 0, t + 1) | is a value close to zero. On the other hand, | f (x, t) -f (x, t +
1) | has a large value in a moving object portion. Here, g 1 (x) = | f (A (x−x 0 ) + V + x 0 , t + 1) −f (x, t) | (Equation 1) g 2 (x) = | f (x, t + 1) ) -F (x, t) | ... (Formula 2).

【0026】物体が実際に移動している場合、式1が小
さく式2が大きくなる点xは、移動物体211に重なる
点である確率が高く、これ以外の場合には、他の移動量
を持つ物体や、変化しない背景である確率が高いと言え
る。すなわち、式1、式2共に小さな値をとる点は、一
様な濃度値を持つ点であり、移動を特定できない点、式
1が大きく式2が小さな値をとる点は、動かない背景、
式1、式2共に大きな値をとる点は、移動物体211と
は異なる移動量を持つ移動物体であると考えられる。
When the object is actually moving, the point x at which the expression 1 is small and the expression 2 is large has a high probability of being a point overlapping the moving object 211. In other cases, another moving amount is set. It can be said that there is a high probability that it is an object you have or a background that does not change. That is, the point where both Expression 1 and Expression 2 have a small value is a point having a uniform density value, and the point where movement cannot be specified, and the point where Expression 1 is large and Expression 2 has a small value are backgrounds that do not move.
It is considered that a point having a large value in both Expression 1 and Expression 2 is a moving object having a moving amount different from that of the moving object 211.

【0027】これらを統合すると、ある点が目的とする
移動物体211、221の上の点か否かを数値によって
表すことが可能である。例えば、 G(x)=C1 g1(x)2+C2{1−g2(x)}2 G(x)=C1 g1(x)+C2/{C3+g2(x)} G(x)= g1(x)/{C1+g2(x)} などは、小さな値を持つほど目的とする移動物体21
1、221上の点である確率が高い。ここで、G(x)
を追跡エネルギー画像と呼ぶことにする。このG(x)
を求めるが、図1の追跡エネルギー画像生成処理120
である。
By integrating these, it is possible to represent by a numerical value whether or not a certain point is a point on the target moving object 211, 221. For example, G (x) = C 1 g 1 (x) 2 + C 2 {1-g 2 (x)} 2 G (x) = C 1 g 1 (x) + C 2 / {C 3 + g 2 (x) } G (x) = g 1 (x) / {C 1 + g 2 (x)} and the like have a smaller value, and the target moving object 21
There is a high probability that it is a point above 1, 221. Where G (x)
Will be called a tracking energy image. This G (x)
The tracking energy image generation process 120 of FIG.
Is.

【0028】この追跡エネルギー画像を利用して物体暫
定位置224の点x1を補正し、求まった物体位置22
5の点x1′に移す。これを実行するのが、図1の位置
補正処理130である。例えば、
Using this tracking energy image, the point x 1 of the provisional position 224 of the object is corrected to obtain the object position 22 obtained.
Move to point x 1 ′ of point 5. This is executed by the position correction processing 130 of FIG. For example,

【0029】[0029]

【数2】 [Equation 2]

【0030】を最も小さくするx0の近傍の点x0′を見
つけ、x1′=A(x0′−x0)+V+x0とする。但
し、rは探索の許容範囲を表わす定数である。求まった
物体位置(x0′)225は、次の追跡処理では物体位
置213のように予め与えられた位置として用いられ
る。
[0030] 'finds a, x 1' most point x 0 in the vicinity of small to x 0 the to = A (x 0 '-x 0 ) + V + x 0. However, r is a constant representing the allowable range of the search. The obtained object position (x 0 ′) 225 is used as a predetermined position like the object position 213 in the next tracking process.

【0031】図3に、本発明の物体追跡方法を実現する
ハードウエア構成例の概略ブロック図を示す。画像プロ
セッサ300の制御下で、画像ファイル330から画像
を順次読み出し、端末装置320の表示面に出力する。
この表示面を見て、ユーザは目的の物体を指示する。一
方、画像ファイル330から読み出された画像は画像メ
モリ310にも転送する。画像メモリ310は2面から
なり、連続する2枚の画像を交互に格納する。画像プロ
セッサ300は、画像メモリ310の連続する2枚の画
像情報を取り込み、ユーザが指示した物体位置を初期値
として、移動量検出処理110、追跡エネルギー画像生
成処理120、位置補正処理130を実行し、目的の物
体を追跡する。追跡結果は、端末装置320の表示面に
矢印等で出力する。
FIG. 3 shows a schematic block diagram of a hardware configuration example for realizing the object tracking method of the present invention. Under the control of the image processor 300, the images are sequentially read from the image file 330 and output to the display surface of the terminal device 320.
Looking at this display surface, the user points the target object. On the other hand, the image read from the image file 330 is also transferred to the image memory 310. The image memory 310 has two surfaces and alternately stores two consecutive images. The image processor 300 fetches two consecutive pieces of image information in the image memory 310, and executes the movement amount detection processing 110, the tracking energy image generation processing 120, and the position correction processing 130 with the object position designated by the user as an initial value. , Track the object of interest. The tracking result is output by an arrow or the like on the display surface of the terminal device 320.

【0032】[0032]

【発明の効果】以上のように、本発明では、一旦求めた
移動量により領域を補正するため、複数の移動物体が存
在しても目的の物体のみをきりだすことができ、物体の
形状変化が起きる物体が部分的に遮蔽されるなどしても
目的の物体から追跡する物体位置がはみだすことを阻止
できる。このため、従来の補正のない追跡を繰り返し行
なった場合よりも安定に長時間の追跡を行なうことが可
能になる。
As described above, according to the present invention, since the area is corrected by the movement amount once obtained, only the target object can be cut out even if there are a plurality of moving objects, and the shape of the object changes. It is possible to prevent the position of the object to be tracked from the target object from protruding even if the object causing the noise is partially shielded. For this reason, it is possible to perform stable tracking for a long time as compared with the case where the conventional tracking without correction is repeatedly performed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の物体追跡方法の処理の枠組みを示すフ
ロー図である。
FIG. 1 is a flow diagram showing a framework of processing of an object tracking method of the present invention.

【図2】本発明の処理の具体例を説明する図である。FIG. 2 is a diagram illustrating a specific example of processing of the present invention.

【図3】本発明の物体追跡方法を実現するハードウエア
構成例の概略ブロック図である。
FIG. 3 is a schematic block diagram of a hardware configuration example for realizing the object tracking method of the present invention.

【符号の説明】[Explanation of symbols]

100 画像入力処理 101 画像1 102 画像2 103 物体位置 110 移動量検出処理 111 移動量 112 物体暫定位置 120 追跡エネルギー画像生成処理 121 追跡エネルギー画像 130 位置補正処理 131 新しい物体位置 100 image input processing 101 image 1 102 image 2 103 object position 110 movement amount detection processing 111 movement amount 112 object provisional position 120 tracking energy image generation processing 121 tracking energy image 130 position correction processing 131 new object position

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 連続的に入力される動画像中に存在する
移動物体を逐次追跡する方法において、 新たに入力された画像(以下、新画像と称す)とその直
前に入力された画像(以下、旧画像と称す)、及び該旧
画像中の追跡する物体上の位置(以下、物体位置と称
す)により、追跡する物体の移動量と上記旧画像内の物
体位置に対応する新画像における物体暫定位置を求める
処理と、 上記新旧画像の各点の濃度値と上記移動量とにより、追
跡する物体と同じ移動量を持つ領域では小さく、異なる
移動量を持つ領域では大きな値を持つ追跡エネルギー画
像を生成する処理と、 上記追跡エネルギー画像を基準としてより小さな値とな
る位置に上記物体暫定位置を移動して、新画像の物体位
置とする処理とを有することを特徴とする物体追跡方
法。
1. A method for sequentially tracking a moving object existing in continuously input moving images, comprising a newly input image (hereinafter referred to as a new image) and an image input immediately before (hereinafter referred to as an image). , The old image), and the position on the object to be tracked in the old image (hereinafter referred to as the object position), the amount of movement of the tracked object and the object in the new image corresponding to the object position in the old image. A tracking energy image having a small value in a region having the same movement amount as the tracking object and a large value in a region having a different movement amount by the process of obtaining the provisional position, and the density value of each point of the old and new images and the movement amount. And a process of moving the temporary object position to a position having a smaller value with the tracking energy image as a reference and setting the object position of a new image.
JP4243211A 1992-09-11 1992-09-11 Object tracking method Pending JPH0696211A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4243211A JPH0696211A (en) 1992-09-11 1992-09-11 Object tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4243211A JPH0696211A (en) 1992-09-11 1992-09-11 Object tracking method

Publications (1)

Publication Number Publication Date
JPH0696211A true JPH0696211A (en) 1994-04-08

Family

ID=17100484

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4243211A Pending JPH0696211A (en) 1992-09-11 1992-09-11 Object tracking method

Country Status (1)

Country Link
JP (1) JPH0696211A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334690A (en) * 1994-06-14 1995-12-22 Nec Corp Tracking method for contour of object
CN105872371A (en) * 2016-03-31 2016-08-17 纳恩博(北京)科技有限公司 Information processing method and electronic device
CN106791371A (en) * 2016-11-29 2017-05-31 北京小米移动软件有限公司 A kind of image pickup method and removable filming apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334690A (en) * 1994-06-14 1995-12-22 Nec Corp Tracking method for contour of object
CN105872371A (en) * 2016-03-31 2016-08-17 纳恩博(北京)科技有限公司 Information processing method and electronic device
US10165233B2 (en) 2016-03-31 2018-12-25 Ninebot (Beijing) Tech Co., Ltd. Information processing method, electronic device and computer storage medium
CN105872371B (en) * 2016-03-31 2019-04-02 纳恩博(北京)科技有限公司 A kind of information processing method and electronic equipment
CN106791371A (en) * 2016-11-29 2017-05-31 北京小米移动软件有限公司 A kind of image pickup method and removable filming apparatus

Similar Documents

Publication Publication Date Title
EP0513047B1 (en) Three-frame technique for analyzing two motions in successive image frames dynamically
US6226388B1 (en) Method and apparatus for object tracking for automatic controls in video devices
EP0423984B1 (en) Synergistic tracker
US6628715B1 (en) Method and apparatus for estimating optical flow
US7346109B2 (en) Motion vector computation for video sequences
JP2978406B2 (en) Apparatus and method for generating motion vector field by eliminating local anomalies
US20140056358A1 (en) Temporal Motion Vector Filtering
US20060222238A1 (en) Image processing apparatus and image processing method
US20090135913A1 (en) Vector selection decision for pixel interpolation
US6304603B1 (en) Block matching method using a moving target window
CN110738688A (en) novel infrared ultra-weak moving target detection method
KR100994367B1 (en) Method for tracking a movement of a moving target of image tracking apparatus
CN109978908B (en) Single-target rapid tracking and positioning method suitable for large-scale deformation
JPH0696211A (en) Object tracking method
CN116363565B (en) Target track determining method and device, electronic equipment and storage medium
KR20010057768A (en) Method and device for tracking robust object from video images using template and kalman filter
Parry et al. Tracking targets in FLIR images by region template correlation
JPH04293178A (en) Configuration match system and its method
JPH09119982A (en) Missile guiding system
JPH07334690A (en) Tracking method for contour of object
JP2001285874A (en) Device for searching motion vector, its method and recording medium for recording program
JP2000099744A (en) Method and device for detecting moving vector of image
CN117495900B (en) Multi-target visual tracking method based on camera motion trend estimation
JP3046689B2 (en) Motion vector detection method
CN117670939B (en) Multi-camera multi-target tracking method and device, storage medium and electronic equipment