JPH04192781A - Tracking device - Google Patents

Tracking device

Info

Publication number
JPH04192781A
JPH04192781A JP2320881A JP32088190A JPH04192781A JP H04192781 A JPH04192781 A JP H04192781A JP 2320881 A JP2320881 A JP 2320881A JP 32088190 A JP32088190 A JP 32088190A JP H04192781 A JPH04192781 A JP H04192781A
Authority
JP
Japan
Prior art keywords
tracking
area
change
moving
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2320881A
Other languages
Japanese (ja)
Inventor
Yoshinori Kuno
義徳 久野
Kazuhiro Fukui
和広 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2320881A priority Critical patent/JPH04192781A/en
Priority to US07/799,321 priority patent/US5243418A/en
Publication of JPH04192781A publication Critical patent/JPH04192781A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To surely execute the tracking of a change area by extracting the change area from a picked up image, setting an area including at least a part of the change area as a tracking area, obtaining the moving direction in the tracking area of the part of the change area and moving the tracking area. CONSTITUTION:When a coupling component possessing more than a prescribed area is detected in a labelling circuit 9, a host computer 5 directs in a tracking commanding part 10 that the tracking of the coupling component should be executed in a tracking part 4. A local module 13, which is connected with the computer 5 via a control bus 11, receives the command from the computer 5 via the control bus 11. In a tracking area setting part 14, the tracking area is set centering about a point O established desirably on the coupling component. The tracking is executed by consecutively moving the tracking area by using the moving vector obtained in the tracking area. The tracking area is outputted as a frame, for example, in a graphic display controller 18. The frame and an image inputted from a TV camera 1 are displayed simultaneously. Thus, the change area can be consecutively tracked without fail.

Description

【発明の詳細な説明】 〔発明のに1的〕 (産業−にの利用分野) 本発明は撮像された画像中の変化領域を検出し追跡する
追跡装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [First aspect of the invention] (Industrial field of application) The present invention relates to a tracking device that detects and tracks a changing region in a captured image.

(従来の技術) 近年、i”Vカメラ等を使って監視領域の画像を撮像し
、監視領域への侵入者や侵入物体の検出を自動的に行う
監視システム(追跡装置)が開発されている。このよう
なシステムにおいて侵入物体を検出するために、短い時
間間隔の画像間の差分、あるいは侵入物体等のない背景
画像を現時点の画像との差分を求め、この差分画像から
変化部分を検出する方法が用いられてきた2゜しかし、
単に差分による変化検出だけでは、侵入物体と共に環境
変動によるノイズ成分も検出してしまい、これらの間の
区別をつけることが難しいという問題があった。環境変
動によるノイズ成分とは、例えば、照明変動による明る
さの変化や。
(Prior art) In recent years, surveillance systems (tracking devices) have been developed that use i''V cameras to capture images of surveillance areas and automatically detect intruders and objects entering the surveillance area. In order to detect an intruding object in such a system, the difference between images at short time intervals or the difference between a background image without an intruding object, etc. and the current image is calculated, and the changed part is detected from this difference image. 2゜methods have been used, however,
Simply detecting changes based on differences results in the detection of noise components due to environmental changes as well as intruding objects, and there is a problem in that it is difficult to distinguish between them. Noise components due to environmental changes include, for example, changes in brightness due to lighting changes.

水面等の光の反射や木のそよぎのように一定の場所の範
囲で明るさが変化するものが、侵入物体以外の部分に差
分の大きい部分として現れてしまうことである。従来は
、このようなノイズ成分を除去し、検出すべき侵入物体
を確実に選択的に検出することかできなかった。
Things that change in brightness within a certain area, such as the reflection of light on the water surface or the rustling of trees, appear as large differences in areas other than the invading object. Conventionally, it has not been possible to remove such noise components and reliably selectively detect the intruding object to be detected.

また、単に差分による変化検出だけでは、−っの侵入物
体に対して差分画像中に−・っの変化領域が出るとは限
らないために、変化領域抽出以降の処理(例えば、」二
連したノイズ成分の除去、一つの物体に由来する複数の
変化領域の統合、侵入物体の有無・個数・軌跡等の判定
)が正確に行えないという問題があった。
In addition, simply detecting a change based on difference does not necessarily result in a change area of -. in the difference image for an intruding object of -. There is a problem in that it is not possible to accurately remove noise components, integrate multiple change regions originating from one object, and determine the presence, number, trajectory, etc. of intruding objects.

上記のうち、一つの物体に由来する複数の変化領J或の
統合という問題に関しては、ブロック統合処理方式(特
開平2−5997Ti号公報)なる解決策が提案されて
いる。これは、第9図に示すように、侵入者が差分画像
中で頭・胴・足と複数の変化領域に分断されている場合
に、連続する2時点で抽出された変化領域の間で、面積
・形状等の特徴t18により対応する変化領域を求め、
対応する変化領域間の移動ベクトルを剖算し、類似の移
動ヘクトルを持つ変化領域を同一物体に由来するものと
判断するものである。この方式は、−っの物体が常に同
じ構成要素に分断される場合には有効に機能する。しか
しながら−射的には、差分て抽出される変化領域が物体
のどの部分てあ−るかは一定しないことが多い。この理
由を以下に述へる。まず、照明変動による明るさの変化
の現コし方が、対象物体の名部分によって違うこと。さ
らに、対象物体が3次元限界の物体であって奥行きや凹
凸がある場合、物体の向きによって見え方(面積・形状
等)が変ってくること。また、対象物体が完全な剛体で
ない場合(衣服を着た人など)も、各時点で物体の形が
変ること。背景の−・部と対象物体の一部が同色あるい
は同輝度であるような場合、対象物体が同色あるいは同
輝度の背景の所を通り過ぎている間は同色あるいは同輝
度部分は変化領域として抽出されないというとなどであ
る。以上のように、各時点において必ず対応する変化領
域か検出されるとは言えない状況においては、対応する
変化領域が存在せず移動ヘクトルが求めlうれないため
に、このブロック統合処理方式が良好に動作しないこと
がある。このような誤動作あるいは動作しないようなこ
とがあった場合には監視システ11(追跡装置)として
は極めて問題となる。。
Among the above problems, a solution called a block integration processing method (Japanese Unexamined Patent Publication No. 2-5997Ti) has been proposed regarding the problem of integrating a plurality of change regions J originating from one object. As shown in Fig. 9, when an intruder is divided into multiple changed regions such as the head, torso, and legs in the difference image, between the changed regions extracted at two consecutive points in time, Find the corresponding change area based on the features t18 such as area and shape,
This method calculates the movement vectors between corresponding change areas and determines change areas with similar movement hectares as originating from the same object. This method works effectively if the object is always divided into the same components. However, from a shooting perspective, it is often not fixed in which part of the object the changing region that is differentially extracted is located. The reason for this will be explained below. First, the way brightness changes due to illumination changes differs depending on the part of the target object. Furthermore, if the target object is a three-dimensional object with depth or unevenness, the appearance (area, shape, etc.) changes depending on the orientation of the object. Also, even if the target object is not a completely rigid body (such as a person wearing clothes), the shape of the object changes at each point in time. When a part of the background and a part of the target object have the same color or the same brightness, the same color or the same brightness part will not be extracted as a changing area while the target object passes the background with the same color or the same brightness. And so on. As described above, in situations where it cannot be said that a corresponding change area is always detected at each point in time, this block integration processing method is preferable because there is no corresponding change area and the moving hectare cannot be calculated. It may not work. If such a malfunction or non-operation occurs, it will be extremely problematic for the monitoring system 11 (tracking device). .

(発明か解決しようとする課題) このように従来の追跡装置においては、対象となる侵入
物体以外の明るさの変化を生じさせる現象の影響を除去
することができず、誤検出してしまい、また、−っの物
体が複数の変化領域を牛しる場合に、これを同一物体で
あると判断することが難しいという問題があった。
(Problem to be solved by the invention) As described above, in conventional tracking devices, it is not possible to eliminate the influence of phenomena that cause changes in brightness other than the target intruding object, resulting in erroneous detection. Furthermore, there is a problem in that when an object marks a plurality of changing regions, it is difficult to determine that the objects are the same object.

本発明はこのような事情を考慮してなされたもので、そ
の1]的とするところは、環境変動によるノイズ成分を
除去し、−っの物体に由来する複数の変化領域を統合し
、侵入物体の個数や動きを判定するために、”ljf’
に変化領域の苅)+6がとれるとは限らない状況士ても
、確実に変化領域の追跡を行うことのできる、耐環境性
に優れた追跡装置を提供することにある。
The present invention was made in consideration of these circumstances, and its 1st purpose is to remove noise components caused by environmental changes, integrate multiple change areas originating from objects, and eliminate intrusion. In order to determine the number and movement of objects, "ljf'
To provide a tracking device with excellent environmental resistance, which allows even a situation expert who is not necessarily able to obtain +6 of the change area to reliably track the change area.

〔発明の構成〕[Structure of the invention]

(課題をfM′決するための手段) 本発明に係る追跡装置は、撮像された画像から変化領域
を抽出し、抽出された変化領域の少なくとも一部を含む
領域を追跡用領域として設定し、追跡用領域内の一部分
の追跡用領域内での移動方向を求め、この移動方向を用
いて追跡用領域を移動させることにより、変化領域の追
跡を71うことを特徴とするものである。
(Means for determining the problem fM′) A tracking device according to the present invention extracts a changed region from a captured image, sets a region including at least a part of the extracted changed region as a tracking region, and tracks This method is characterized in that the changing area is tracked 71 by determining the moving direction within the tracking area of a portion of the tracking area and moving the tracking area using this moving direction.

また、撮像された画像を表、Jり手段、力どえl:f 
(7RT等に表示しておき、撮像さ九た画像から変化領
域を抽出し、抽出さ唱、た変化領域の少なくとも一部を
含む追跡用領域を設定し表示β段に表示し、変化領域の
移動に伴い追跡用領域内この表示−I]々J=で移動さ
せることを特徴とするものである。
In addition, the captured image is displayed,
(Display on 7RT, etc., extract the change area from the captured image, set a tracking area that includes at least a part of the extracted change area, display it on the display β stage, This is characterized in that the display within the tracking area is moved at a rate of -I]J= as the tracking area moves.

(作用) 本発明によれば、一つの物体が複数の不特定な部分に会
則した変化領J或として抽出し、しかも各時点毎にその
分離の仕方が異なっていたとしても、継続して変化領域
を追跡することにより、環境変動によるノイス成分は追
跡しても意味のある動きにならないことからノイズ成分
を除去したり、複数の変化領域の追跡経路が類似してい
れば同一物体であると判断したりすることかできる。
(Operation) According to the present invention, even if a single object is extracted as a change region that has a plurality of unspecified parts, and the way of separation is different at each point in time, the change continues. By tracking the area, noise components due to environmental changes can be removed since tracking them does not result in meaningful movement, and if the tracking paths of multiple changing areas are similar, it can be determined that they are the same object. I can make judgments.

(実施例) 以下、図面を参照して本発明の一実施例に係る追跡装置
について説明する。
(Example) Hereinafter, a tracking device according to an example of the present invention will be described with reference to the drawings.

第り図は追跡装置の概略構成図である。この追跡装置f
fは、大きく分けると、画像を撮像するTVカメラ1と
、撮像画像の変化領域を抽出する変化検出部3ン鴫化領
域の追跡命令等を出力するホス1〜コンピユータ5と、
変化領域の追跡を行う追跡らなる。詳しく述べると、’
J’ Vカメラ1から入力された画像は、A/1つ変換
器2によりディジタル化される。変化検出部3ては、−
に述のように撮像された現時点の画像と、参照画像メモ
リ(3に蓄えられた画像との差分を差分回路7て求める
。参照画像メモリ6には対象物体のない時点の背景画像
をTVカメラ1により撮像して蓄えておく。差分結果は
適当なしきい値で2値化回路8により変化部分か否かを
2値化する。これにより参照画像に対して大きく変化し
ている部分か抽出される。ラベリング回路9は、2値化
の結果、差分画像中で変化領域として連結した成分こと
に、異なるラベルを与える。また、各連結成分ごとに面
積・重心位置・外接長方形もラベリング回路9により求
められる。(以降、「直結成分」を「変化領域」と同意
語として使用する。) ホス1〜コンピユータ5はワークステーションやパーソ
ナルコンピュータ、あるいはそのような独立した計算機
の形をとらなくてもマイクロプロセッサにより実現され
る。ホス1−コンピュータ5は装置全体の動作を制御す
る。また、その上のラフ1〜ウエアが追跡結果判定部1
7を構成する3、ホス1〜コンピユータ5はラベリング
回路9で所−7〜 定面積以」二の連結成分が検出された場合、追跡指令部
」0において、その連結成分の追跡を追跡部4において
行うように指令する。本実施例では、追跡部4はマルチ
プロセッサで構成されている。マルチプロセッサの個々
のプロセッサ部分を、ここではローカルモジュール ルモジュールが一つの連結成分の追跡を行う。ローカル
モジュールの数が少ないときなどは、一つのローカルモ
ジュールで複数の連結成分を追跡するようにすることも
できる。
Figure 2 is a schematic configuration diagram of the tracking device. This tracking device f
Broadly speaking, f includes a TV camera 1 that captures an image, a change detection unit 3 that extracts a changed area of the captured image, a host 1 to a computer 5 that outputs a tracking command for a darkened area, etc.
It consists of a tracker that tracks the area of change. To explain in detail,'
The image input from the J'V camera 1 is digitized by the A/1 converter 2. The change detection section 3 is -
The difference between the current image taken as described above and the image stored in the reference image memory (3) is determined by the difference circuit 7.The reference image memory 6 contains the background image at a time when there is no target object. 1 and store it.The difference result is binarized by a binarization circuit 8 using an appropriate threshold value to determine whether or not it is a changed part.This allows extraction of parts that have changed significantly with respect to the reference image. As a result of binarization, the labeling circuit 9 gives different labels to the components connected as change regions in the difference image.The labeling circuit 9 also applies the area, centroid position, and circumscribed rectangle for each connected component. (Hereinafter, ``direct components'' will be used as a synonym for ``variable area.'') The computers 1 to 5 are not in the form of workstations, personal computers, or such independent computers; This is realized by a processor.The host 1-computer 5 controls the operation of the entire device.The rough 1-ware on it also controls the tracking result determination unit 1.
When a connected component with a fixed area of 7 to 7 is detected by the labeling circuit 9, the tracking command unit 0 instructs the tracking unit 4 to trace the connected component. order to do so. In this embodiment, the tracking unit 4 is composed of a multiprocessor. The individual processor parts of the multiprocessor, here local modular modules, keep track of a connected component. When the number of local modules is small, one local module can track multiple connected components.

ローカルモジュール13はホス1へコンピュータ5と制
御バス11で結ばれ、これを通し、ホス1〜コンピユー
タ5からの命令を受ける。また、処理結果をホストコン
ピュータ5に伝える。ローカルモジュール13は画像バ
ス12を通じ、A/D変換器2から動画像の任意の部分
を入力できる。
The local module 13 is connected to the computer 5 to the host 1 by a control bus 11, and receives commands from the computer 5 through the bus 11. Further, the processing results are transmitted to the host computer 5. The local module 13 can input any part of a moving image from the A/D converter 2 through the image bus 12.

第2図は一つのローカルモジュールJ3の構成を示した
ものである。ウィン1−ウロン1−ローラ1.3aのレ
ジスタに画像の取り込みたい部分の位置(アドレス)を
設定すると、画像バス12に流れている画像のその部分
がウィンドウメモリー、3bに入力できる。ローカルプ
ロセッサ+3cはこの入力された画像を処理する。ウィ
ンドウコン1〜ローラー3aのツ レジスタの設定はホストコンピユータフとローカルプロ
セッサー3cの両方からできる。これの切り替えはバス
インタフェース1.3dが行う。ホス1−コンピュータ
汐が設定するときはハスインタフェース13dが制御バ
ス11とローカルバス13eを結ぶ。ローカルプロセッ
サー3cが設定を行うときは、バスインタフェース+3
dは制御バス11とローカルバス13eを切り離す。複
数のローカルモジュール13−■〜Dは独立に、並列動
作をすることかできる。
FIG. 2 shows the configuration of one local module J3. When the position (address) of the part of the image to be captured is set in the registers of the window 1, roller 1, and roller 1.3a, that part of the image flowing on the image bus 12 can be input to the window memory 3b. Local processor +3c processes this input image. Setting of the registers of the window controller 1 to roller 3a can be done from both the host computer and the local processor 3c. This switching is performed by the bus interface 1.3d. When the host 1-computer is set, the host interface 13d connects the control bus 11 and the local bus 13e. When local processor 3c performs settings, bus interface +3
d separates the control bus 11 from the local bus 13e. The plurality of local modules 13-1 to 13-D can operate independently and in parallel.

以下に、ローカルモジュール]3の追跡部4としての動
作を説明する。ここでは、一つのローカルモジュールが
一つの連結成分を追跡する場合を考える。
The operation of the local module] 3 as the tracking unit 4 will be explained below. Here, consider the case where one local module tracks one connected component.

まず、追跡用領域設定部14において、連結成分の外接
長方形を中心にそれを含む適当な大きさの矩形領域を定
め、その位置(アドレス)をウィンドウコン1−ローラ
ー3aのレジスタにセラ1〜する。
First, in the tracking area setting unit 14, a rectangular area of an appropriate size containing the circumscribed rectangle of the connected component is determined, and its position (address) is stored in the register of the window controller 1-roller 3a. .

これはホス1−コンピュータ5で定めて、そこから行っ
ても良いし、ローカルモジュールの方に連結成分に関す
る情報を送って、ローカルモジュールの方で決定してセ
ットしても良い。そして、現時点(時刻1.)の、その
部分の画像をウィンドウメモリー31)に画像バス12
から取り込む。次に、次の時点(時刻1.+Δt)の同
じ部分の画像もウィンドウメモリ]、3bに取り込む。
This may be determined by the host 1-computer 5 and performed from there, or information regarding connected components may be sent to the local module, and the local module may determine and set it. Then, the image of that part at the current time (time 1.) is stored on the image bus 12 (window memory 31).
Import from. Next, the image of the same portion at the next time point (time 1.+Δt) is also taken into the window memory], 3b.

そして、連結成分の」二に適当に定めた点O(例えば重
心)を中心にして、追跡用領域を設定する。
Then, a tracking area is set around a point O (for example, the center of gravity) that is appropriately determined on the second connected component.

次に、移動方向検出用小領域設定部15において、第3
図のように、上で設定した追跡用領域Rの中に小領域(
例えばro−r8)を設定する。これら× の領域の大きさとしては、例えば全画像が512151
2画素の大きさのとき、ux = Wy = 50画素
、5x=sy= 1.x = 1.y = ]−0画素
程度に定める。あるいはこれらの領域の大きさを連結成
分の面積や外接長方形の大きさより適当に可変するよう
にしても良い。また、ここでは3X3=9個の小領域を
設定したが、任意の整数をn、mとしてn X m =
 n m個の小領域を設定しても良い。各小領域r、に
対して、d (1)=Vj、 (t 十Δt;) −v
](t、)を求める。ここで、Vi(t、+△12) 
 は時刻1.+Δtにおける小領域内の画素の濃度の平
均値、Vj(t)は時刻tにおける同種の値である。た
だし、この式で求めた値が所定のしきい値(th)以下
の場合はdl)=Oとする。
Next, in the movement direction detection small area setting section 15, the third
As shown in the figure, a small area (
For example, set ro-r8). For example, the size of these × areas is 512151 for the entire image.
When the size is 2 pixels, ux = Wy = 50 pixels, 5x = sy = 1. x = 1. Set to approximately y = ] - 0 pixels. Alternatively, the sizes of these regions may be appropriately varied based on the area of the connected components or the size of the circumscribed rectangle. Also, here we set 3×3=9 small areas, but if n and m are arbitrary integers, n×m=
You may set n m small areas. For each small region r, d (1)=Vj, (t +Δt;) −v
](t,). Here, Vi(t, +△12)
is time 1. The average value of the density of pixels in the small area at +Δt, Vj(t), is the same value at time t. However, if the value obtained using this formula is less than or equal to a predetermined threshold value (th), then dl)=O.

このd(j)を用い、移動ベタ1−ル旧算部1〔jにお
いて、次式により移動ベクI〜ル(u+v)をti n
:する。
Using this d(j), in the movement vector 1-le calculation unit 1[j, the movement vector I-le (u+v) is calculated by the following formula.
:do.

(但しΣは Σ と一般化できる) i、=oi、=n ここでXi、+ yユは、点○を原点としたときの小領
域jの中心の座標である。また、fは係数で応用例に応
じて適当に定める。fは背景と対象物の明るさの差や物
体の画像上での動きの速さで決まり、応用により0.5
〜2程度に設定する。このように移動バク1〜ルを求め
て、]−フレー11の追跡が完了する。
(However, Σ can be generalized as Σ) i, = oi, = n Here, Xi, + y are the coordinates of the center of the small area j when the point ○ is the origin. Further, f is a coefficient and is appropriately determined depending on the application example. f is determined by the difference in brightness between the background and the object and the speed of movement of the object on the image, and can be set to 0.5 depending on the application.
Set it to about 2. By finding the moving bags 1 to 1 in this way, the tracking of ]-frame 11 is completed.

次のフレー11の追跡は、再び追跡用領域設定部14に
おいて、前フレームの移動バク1〜ルを参照して新たな
画像入力のための矩形領域を定め、ウィンドウメモリ]
、3bにもt+Δ11時点のその部分の画像と1、+2
ΔL時点の同じ部分の画像を取り込むところから始まる
。そして、前フレー11における追跡用領域Rの中心○
を、前フレームで求めた移動ベクトル分動かして、新た
な追跡用領域を設定する。以降は同様にして新たな移動
バク1〜ルを求める。
To track the next frame 11, the tracking area setting unit 14 again refers to the movement backgrounds 1 to 1 of the previous frame to determine a rectangular area for inputting a new image, and then determines the rectangular area for new image input.
, 3b also shows the image of that part at time t+Δ11 and 1, +2
The process begins by capturing an image of the same portion at time ΔL. Then, the center ○ of the tracking area R in the previous frame 11
is moved by the movement vector obtained in the previous frame to set a new tracking area. Thereafter, new moving bags 1 to 1 are obtained in the same manner.

以上のようにして、追跡用領域内で求めた移動ムク1−
ルを用いて、追跡用領域を次々と移動させていくことに
より、追跡が行われる。
As described above, the moving object 1-
Tracking is performed by moving the tracking area one after another using the tool.

以−1−説明した追跡部4の動作を、表示装置J9にお
いて可視化することができる。追跡用領域設定部14に
おいて設定された追跡用領域をグラフィックデイスプレ
ィコン1−ローラ18において例えば枠として出力し、
この追跡用領域を表す枠と゛rV力=12− メラ]から入力された画像とを同時に表示する。
The operation of the tracking unit 4 described below-1 can be visualized on the display device J9. Outputting the tracking area set in the tracking area setting unit 14 as a frame, for example, on the graphic display controller 1-roller 18;
The frame representing this tracking area and the image input from {rV force=12-mera} are displayed at the same time.

このときの表示装置19の画面の様子の一例を示したの
が、第4図である。ただしこの図は、以降の説明に用い
る都合上、異なる2時点の画面を同一画面上に表してい
る。詳述は後段において行う。
FIG. 4 shows an example of the screen of the display device 19 at this time. However, this figure shows screens at two different times on the same screen for convenience in the following explanation. A detailed explanation will be provided later.

以」二説明したように、本実施例に係る追跡装置は、確
実に継続して変化領域を追跡することができる。そして
、以降に説明する追跡結果判定部17は、この追跡結果
から、環境変動によるノイズ成分を対象となる物体と区
別したり、複数の変化領域が同一物体に由来するもので
ある場合そのように判断して動きを追ったりすることが
できる。
As described above, the tracking device according to this embodiment can reliably and continuously track the changing area. Then, from this tracking result, the tracking result determination unit 17, which will be described later, distinguishes noise components due to environmental changes from the target object, or distinguishes noise components caused by environmental changes from the target object, or when multiple change regions originate from the same object. You can judge and track movements.

このとき、変化検出部3と、追跡部4と、追跡結果判定
部17との動作の関係は、使用対象・応用に応じていく
つかの方法を用いることができる。
At this time, several methods can be used to establish the operational relationship between the change detection section 3, the tracking section 4, and the tracking result determination section 17 depending on the intended use and application.

まず、対象となる物体が画面に入ってくるのが1個だけ
の場合、あるいは1つの物体だけを検出すれば良いよう
な場合は、最も筒中4な方法が使える。この場合は変化
検出を行っていて、変化領域が抽出されたら、変化検出
は停tl−させて、追跡処理だけを行う。この場合、物
体が1個でも、それに対する変化領域が複数に勺かれる
ことがある。
First, when only one target object enters the screen, or when only one object needs to be detected, the most common method can be used. In this case, change detection is performed, and when a changed area is extracted, change detection is stopped and only tracking processing is performed. In this case, even if there is only one object, there may be multiple change regions for it.

最も部用には、そのうちの適当な1つ、例えは面積最大
のものだけを追跡する。実施例のようにマルチプロセッ
サシステムを用いる場合には、複数の変化領域を別のロ
ーカルモジュール麻て追跡する。
For most purposes, only a suitable one of them, for example the one with the largest area, is tracked. When a multiprocessor system is used as in the embodiment, multiple change areas are tracked by different local modules.

ローカルモジュールの追跡処理において、移動ベク[・
ルかOの場合は、追跡に失敗したか、対象物が静止した
か、抽出した変化領域が運動物体に由来するものではな
い場合が考えら才しる。こうなったら、追跡処理を停止
して、変化検出を再び開始する。なお、対象の性質によ
り、移動ベクトルがOになっても、ただちに追跡を停止
せず、数時点移動ベクトルがOのとき、追跡を停止する
ようにすることもできる。
In the local module tracking process, the movement vector [・
In the case of 2 or 0, it can be considered that tracking has failed, the object has stopped, or the extracted change region is not derived from a moving object. When this happens, the tracking process is stopped and change detection starts again. Note that depending on the nature of the object, tracking may not be stopped immediately even if the movement vector becomes O, but tracking may be stopped when the movement vector is O at several points in time.

ホス1へコンピュータ5の」二で動く追跡結果別定跡対
象が1つの場合は、追跡が一定時間続けられ− た場合
、それが対象物の動きであると判定する。
When there is only one tracking result-specific path object moving from computer 5 to host 1, if tracking continues for a certain period of time, it is determined that the object is moving.

途中で対象物が止まったりすると、そこで一端、追跡部
4による追跡は停止)ニするが、再び対象物が動きだす
と、そこに変化が生じ、変化検出部3かそれを検知し、
そこに対して追跡がまた始まる。
If the object stops midway, tracking by the tracking unit 4 will temporarily stop. However, when the object starts moving again, a change will occur, and the change detection unit 3 will detect it.
The chase begins again.

従って、追跡が途中で途切れても、途切れた位置の近く
から、しばらくたってまた追跡が始まった場合は、それ
らを一つの動きと考えて、対象物の動きを判定する。
Therefore, even if tracking is interrupted midway, if tracking starts again after a while from near the interrupted position, this is considered as one movement and the movement of the object is determined.

複数の変化領域を追跡する場合も、この場合は一つの物
体を検出するのであるから、途中で移動バク1−ルが検
出できなくなったものは、そこで追跡を停止し、どれか
一つの変化領域が対象物の運動と判定できるほどに連続
して追跡できれば、目的を達成したとする。もし、すべ
ての変化領域の追跡が失敗した場合は、また変化検出を
開始する。
Even when tracking multiple change areas, in this case only one object is detected, so if the moving bag 1 cannot be detected during the process, the tracking is stopped and one of the change areas is detected. If the object can be tracked continuously enough to be determined to be the movement of the object, it is assumed that the objective has been achieved. If tracking of all changed areas fails, change detection is started again.

次に、対象物か1個という限定のない一般的な場合につ
いて説明する。この場合は、変化検出部3を絶えず動か
したり、追跡結果判定部17をより複雑な処理にしたり
することが必要となる。
Next, a general case where the number of objects is not limited to one will be explained. In this case, it is necessary to constantly move the change detection section 3 or perform more complicated processing on the tracking result determination section 17.

まず変化検出部3は絶えず動かしておく。変化領域が抽
出されたら、そこしこローカルモジュール]3を割り当
て、追跡させるのは同様である。ただし、物体か画像中
に入っている場合は、差分結果の中に絶えず変化領域を
生しさせているので、すでに別のローカルモジュールが
追跡している部分を新たトこ追跡しないようにしなけれ
ばならない。
First, the change detection section 3 is kept in constant motion. Once a region of change is extracted, local modules] 3 are assigned here and there to track it. However, if there is an object in the image, there will be a constant change area in the difference result, so you need to make sure that you do not track a new part that is already being tracked by another local module. No.

これは、変化領域が抽出・されたとき、その近くに追跡
の結果が来ていないかを調べれば良い。ホス1〜コンピ
ユータ5は変化検出部3から、変化領域の重心・外接長
方形の位置を受は取ったら、現在追跡処理を実行してい
るローカルモジュールの追跡結果を調べ、変化領域の位
置に近い追跡部分がある場合は、その変化領域に対して
は、追跡処理を起動しないようにする。
This can be done by checking whether there are any tracking results near the changed region when it is extracted/extracted. After receiving the center of gravity and the position of the circumscribed rectangle of the changed area from the change detection unit 3, the computers 1 to 5 check the tracking results of the local module that is currently executing the tracking process, and find the tracking closest to the position of the changed area. If there is a change area, tracking processing is not activated for that changed area.

この部分は、さらに以下のようにして、追跡処理の正し
さを確認するようにしても良い。もし追跡処理が正しけ
れば、移動バク1−ルを求めて追跡した先の位置に、変
化領域が存在しているはずである。従って、追跡中のロ
ーカルモジュールは、移動バク1〜ルを求めたら、ホス
1〜コンピユータ5にその位1N情報を送り、その位置
がある変化領域の外接長方形に入っているか、あるいは
その位置周辺が2値化回路8の結果て変化領域となって
いるか調へてもらう。もし、このような条件が満足され
ていれば、追跡が正しいものとして、追跡処理を続行す
る。もし、そうでなければ、追跡処理が失敗したものと
して、追跡を停止j−する。この場合も、−回の結果で
判定せずに、複数回このような現象が起きたときに、追
跡を停止するようにしても良い。このような処理を入れ
れば、追跡処理が、より確実になる。
In this part, the correctness of the tracking process may be further confirmed as follows. If the tracking process is correct, there should be a changed area at the location where the moving background is tracked. Therefore, when the local module that is tracking calculates the moving bag 1 to 1, it sends 1N information to the host 1 to computer 5, and confirms whether the position is within the circumscribed rectangle of a certain change area or whether the area around the position is Check whether the result of the binarization circuit 8 is a change area. If these conditions are satisfied, it is assumed that the tracking is correct and the tracking process continues. If not, it is assumed that the tracking process has failed and the tracking is stopped. In this case as well, the tracking may be stopped when such a phenomenon occurs a plurality of times, instead of making a determination based on the results of - times. Including such processing will make tracking processing more reliable.

ホストコンピュータ5による追跡結果判定処理は以下の
ように行う。もし対象物体が変化検出部3において確実
に一つの、あるいは複数ではあるが必ず一定の位置関係
にあるような変化領域として抽出されるような場合は、
判定処理は、1個の対象物の場合と同しで良い。これは
対象物と背景のコントラス1〜が高く、対象物が平面的
な剛体のような応用の場合に考えられる。このような場
合は、個々の追跡結果が、ある程度連続してrノ・られ
れば、そこに、そういう運動をする物体かあると判定す
れば良い。複数の変化領域に分かれる場合も、その相互
位置関係は一定だから、個々の追跡結果から、このよう
な関係を維持している部分をまとめて、一つの物体と判
定すれば良い。
The tracking result determination process by the host computer 5 is performed as follows. If the target object is reliably extracted by the change detection unit 3 as one change area or multiple change areas that are always in a constant positional relationship,
The determination process may be the same as in the case of one object. This can be considered in applications where the contrast between the object and the background is high, and the object is a planar rigid body. In such a case, if the individual tracking results are repeated to some extent continuously, it may be determined that there is an object that moves in that way. Even when an object is divided into a plurality of changing regions, their mutual positional relationship remains constant, so it is only necessary to combine the parts that maintain such a relationship based on the individual tracking results and determine them as one object.

以下に、以」二のことが仮定できない一般的な場合の追
跡結果判定処理について説明する。一般的な場合には、
例えば第4図のようなことが起こる。
Below, a description will be given of tracking result determination processing in a general case where the following two conditions cannot be assumed. In the general case,
For example, something like the one shown in Figure 4 occurs.

第4図では、一つの物体に対する変化領域が40゜41
、42と複数に分かれた後、そのうちの一部41゜42
が変化検出されずに追跡が途切れたり、物体の違う部分
(43,44)が変化領域として検出されそれが追跡さ
れたりしている。また、変化領域が一度生したものの追
跡がほとんとできないもの(45)や、他の物体に由来
する追跡結果(46,/17)もある。本実施例に係る
追跡装置がなくてはならないのが、特にこの第4図のよ
うな場合である。
In Figure 4, the change area for one object is 40°41
, 42, some of which are 41°42
Tracking may be interrupted because no change is detected, or different parts (43, 44) of the object may be detected as change areas and tracked. In addition, there are cases in which a changed region has been generated once but can hardly be tracked (45), and tracking results derived from other objects (46, /17). The tracking device according to this embodiment is especially necessary in cases such as the one shown in FIG.

第5図にホス1〜コンピユータ5の追跡結果判定部17
て行われる追跡結果判定処理のフローチャー1〜を示す
。画像中での方向を適当な数に分割(例えば16方向)
して、それぞれの方向の追跡結果を蓄えられるような方
向別チーフルを用意しておく。
FIG. 5 shows the tracking result determination unit 17 of the host 1 to computer 5.
Flowchart 1 of the tracking result determination process to be performed is shown. Divide the directions in the image into an appropriate number (for example, 16 directions)
Then, prepare a direction-specific chiffle that can store the tracking results for each direction.

装置のスタート時点で、このテーブルをリセットしてお
く (ステップ501)。
This table is reset at the start of the device (step 501).

この処理は、絶えず各ローカルモジュール13から追跡
の途中結果(]フレー11ごとに求めた移動バク1〜ル
)を受は取る(ステップ502)。もし、一つのローカ
ルモジュールが所定の長さ追跡を続けていれば、ステッ
プ511に行く (ステップ504’/es)。
This process constantly receives and receives intermediate results of tracking (movement bags 1 to 1 determined for each frame 11) from each local module 13 (step 502). If one local module continues tracking for a predetermined length, the process goes to step 511 (step 504'/es).

そうでなければ(ステップ504No)、所定時間の間
の移動バク1〜ルを計算する(ステップ505)。これ
は、各フレー11で求めた移動ベクl−ルそのままでも
良いが、対象物の画像上での動きが遅い場合等も含め、
一般的には、数フレー11の間の移動ベクトルの和を求
める。あらかじめ定めたフレーム数のベクトルの和を求
めても良いし、移動ベク]〜ルの加算を続け、所定の大
きさを越えた時点でその間の移動を求めても良い。この
処理は、あまり短い移動では、移動バク1〜ルが安定し
ない恐れがあるから、平滑化の意味で行う。このように
して求めた移動ベタ1−ルを、そのベクI〜ルの方向の
方向別テーブルに書き込む(ステップ506)。この際
、ムク1ヘルの位置と大きさの他に、時刻も記録してお
く。このプログラムでは一定時間経過したデータは、方
向別テーブルから消去されるようになっている(ステッ
プ507)。従って、追跡がほとんどできなかった45
のようなものは、所定時間後テーブルから消去され、物
体検出に悪影響を与えない。
If not (No in step 504), the moving bag 1 to 1 during the predetermined time is calculated (step 505). This can be done by using the movement vector obtained in each frame 11 as is, but it can also be used when the movement of the object on the image is slow.
Generally, the sum of movement vectors for several frames 11 is calculated. The sum of the vectors for a predetermined number of frames may be calculated, or the movement vectors may be continuously added, and when a predetermined size is exceeded, the movement between them may be calculated. This process is performed for the purpose of smoothing, since if the movement is too short, the moving background may not be stable. The moving vector I-1 obtained in this way is written into a direction-specific table for the direction of the vector I-1 (step 506). At this time, record the time as well as the position and size of Muku 1 Hell. In this program, data after a certain period of time is deleted from the direction-specific table (step 507). Therefore, it was almost impossible to trace 45
are deleted from the table after a predetermined period of time and do not adversely affect object detection.

なお、追跡がまったくできないものはローカルモジュー
ルの方から追跡失敗とホス1〜コンピユータ5に連絡し
て、この部分の処理には関係しない。
Incidentally, if the tracking cannot be performed at all, the local module informs the host 1 to the computer 5 that the tracking has failed, and is not involved in this part of the processing.

また移動ベクトルを累積する方法を取る場合、所定の大
きさに一定時間の間に到達しないようなものも、方向別
テーブルには書き込まないようにする。
Furthermore, when a method of accumulating movement vectors is adopted, vectors that do not reach a predetermined size within a certain period of time are also not written into the direction-specific table.

次に、今、書き込んだ方向に所定数似−1−のデータが
蓄えられたか調べる(ステップ508)。もし、そうで
なければ、次の時点の追跡情報の受は入れl\戻る(ス
テップ508No)。Yesの場合は、蓄えら=20− れだその方向(場合によっては近隣の方向も調べるよう
にしても良い)の移動バク1〜ルの位置・時刻を調べ、
一つのまとまりを形成している部分を求める(ステップ
509)。もし、まとまりがなければ、追跡情報受入れ
に戻る(ステップ509No)。まとまりか検出された
ら、それで物体が一つ検出されたことになる(ステップ
51(1)。
Next, it is checked whether a predetermined number of data similar to -1- has been stored in the direction in which it was written (step 508). If not, the next point in time tracking information is accepted and the process returns (step 508, No). If Yes, check the position and time of the moving bag 1 to 1 in that direction (in some cases, you may also check neighboring directions),
The parts forming one group are found (step 509). If the information is not organized, the process returns to receiving the tracking information (No in step 509). If a cluster is detected, it means that one object has been detected (step 51(1)).

視野範囲や、所定の追跡の長さや移動ベクトル数から、
これだけで十分な場合も多いが、ここで追跡した長さが
画面の中で相対的に小さいような応用のばあいには、す
でにその物体が検出されている場合もある。従って、す
でに検出された結果の中で、今回の結果と連続するもの
がないか調べ、もしあれば、それと同一物体であると判
定する(ステップ51(1)。
From the field of view, given tracking length, and number of moving vectors,
This is often sufficient, but in applications where the tracked length is relatively small within the screen, the object may have already been detected. Therefore, it is checked whether there is any result that is continuous with the current result among the already detected results, and if there is, it is determined that it is the same object (step 51 (1)).

画面(視野範囲)を横切る対象物を求める場合は、ステ
ップ504とステップ508の判定で、移動ベクトルが
画面周囲に近付いてきた場合に、Yesの方向に進むよ
うにすれば良い。
When finding an object that crosses the screen (field of view), if the movement vector approaches the periphery of the screen in steps 504 and 508, the object should move in the direction of Yes.

ステップ504Yesの場合は、この時点で物体がある
ことは確かなので、方向別テーブルの、その物体の移動
方向と類似方向のデータを調べ、位11q・時刻がまと
まりを形成するものを選び出す(ステップ5]]、)、
、そして、物体検出と判定する(ステップ51(1)。
If Step 504 is Yes, it is certain that there is an object at this point, so check the data for directions similar to the moving direction of the object in the table by direction, and select those whose position 11q and time form a group (Step 5 ]], ),
, and it is determined that an object has been detected (step 51(1)).

物体か検出されたら、それに基づく移動ベタ1〜ルデー
タを方向別テーブルから消去しておく (ステップ51
2)。そして、追跡情報を受は入才しに戻る。
When an object is detected, the moving pattern data based on the detected object is deleted from the direction table (step 51).
2). Then, after receiving the tracking information, the user returns to the destination.

なお、]−述した判定法は、対象物等に制限条件があり
簡単な判定法が使える場合(前述の対象物が1個しかな
い場合や、対象物が必す1つのあるいは複数であっても
必ず−・定の位置関係にある変化領域として抽出される
場合)にも、用いて良いことはもちろんである。
Note that the above-mentioned judgment method can be used in cases where there are limitations on the object, etc. and a simple judgment method can be used (in cases where there is only one object as mentioned above, or where there is only one or multiple objects). Of course, it can also be used in cases where the variable area is always extracted as a change area having a fixed positional relationship.

以上、実施例の一例を示したが、これに種々の変形や追
加ができることを以ドに説明する。
An example of the embodiment has been described above, but various modifications and additions can be made to it will be explained below.

」二記の実施例では、変化検出の部分は専用回路、追跡
の部分はマルチブロセソザシステム、追跡結果判定の部
分はホスト」ンビュータで実現している。これは、高速
処理が可能で、対象物体がvく動く場合にも対応できる
。ただし、応用によっては全部を、あるいは一部は1つ
S P (Djgj、t、al! SjV、nalPr
occssor)や専用回路だが他を、マイクロプロセ
ッサや他のう5イジタルni算機で行うようにしても良
い。
In the second embodiment, the change detection part is implemented by a dedicated circuit, the tracking part by a multiprocessor system, and the tracking result determination part by a host computer. This enables high-speed processing and can handle cases where the target object moves by a large angle. However, depending on the application, all or some of them may be one S P (Djgj, t, al! SjV, nalPr
occssor) and dedicated circuits, but other functions may be performed by a microprocessor or other digital computer.

ます、変化検出部3に関する変形例を挙げる。。First, a modification regarding the change detection section 3 will be described. .

−1〕記の実施例でばあらかしめ作っておいた参照画像
との差分により変化領域を抽出しているが、これは継続
する2ないしそれ以1−の数の画像間の微分(差分)演
算で行っても良い。この場合は環境変動による誤った変
化領域抽出のおそれが小さくなる。ただし、この場合は
、物体の輪郭が検出されるので、まとまった連結成分に
なりにくい。そこで追跡用領域は、適当に抽出された変
化領域を分割して、設定する必要がある。またその追跡
用領域の中心も連結成分の重心ではなく適当に定めたほ
うが良い場合もある。
-1] In the embodiment described above, the changing area is extracted by the difference with the reference image that has been prepared in advance, but this is the differential (difference) between the consecutive 2 or more 1- images. It may also be done by calculation. In this case, the possibility of erroneously extracting a changed area due to environmental changes is reduced. However, in this case, since the outline of the object is detected, it is difficult to form a unified connected component. Therefore, it is necessary to set the tracking area by dividing the appropriately extracted change area. Furthermore, it may be better to appropriately determine the center of the tracking area rather than the center of gravity of the connected components.

参照画像を用いる場合にも、環境変動による変化領域を
誤って検出することを防止するため、参照画像を適当な
時間ごとに作り直すようにしても一23= 良い。
Even when a reference image is used, the reference image may be recreated at appropriate intervals in order to prevent erroneously detecting areas of change due to environmental changes.

1−記の実施例では、差分画像を、固定のしきい値で2
値化して変化領域を抽出している。このしき値を画像各
部の濃度に応じて可変するようにすれは、より確実に変
化が検出できる。
In the embodiment described in 1-1, the difference image is divided into 2 with a fixed threshold value.
The area of change is extracted by converting it into a value. Changes can be detected more reliably by varying this threshold value depending on the density of each part of the image.

また、変化を考える場合、1−記の実施例では画像の明
るさだけを考えているが、色やテクスチャの変化などの
他の変化による検出を、応用によっては単独に用いるよ
うにしても良い。例えば対象物が特定の色をしているこ
とか既知の場合は、色の変化を用いると、確実に変化検
出ができる。あるいは、複数の変化検出を組み合わせて
用いるようにしても良い。この場合、対象によっては、
ある処理でたけ、変化がうまく検出できるような場合も
ある。このような場合は、その結果を追跡処理の方へ伝
えて、追跡処理のほうでも、その情報に一%f fjし
た追跡を行うようにして、処理の確実性を向−1ニさせ
ることもiす能である。
Furthermore, when considering changes, only the brightness of the image is considered in the embodiment described in 1-1, but detection based on other changes such as changes in color or texture may be used independently depending on the application. . For example, if it is known that the object has a specific color, the change in color can be used to reliably detect the change. Alternatively, a combination of multiple change detections may be used. In this case, depending on the target,
There are cases in which changes can be successfully detected with a certain process. In such a case, the results can be communicated to the tracking processing, and the tracking processing can also track the information by 1%fj to improve the reliability of the processing. It is Noh.

」二記の実施例では、変化領域のうちどれを追跡するか
け、領域の面積の大きさたけで判定してぃ一24= る。これを形状の情報も加味して選択するようにすれば
、応用によっては、より確実に対象を選別できる。また
、静止物の輪郭などは、差分て変化部分として出やすい
ので、このような細いエツジを除いたり、あるいはあら
かじめ画像のある位置に出る変化は無視するなどの処理
を加えても良い。
In the second embodiment, which of the changing regions to track is determined based solely on the size of the area of the region. If the shape information is also taken into account when selecting, the target can be selected more reliably depending on the application. Furthermore, since the outline of a stationary object tends to appear as a differentially changed part, it is also possible to add processing such as removing such thin edges or ignoring changes that appear at a certain position in the image.

次に、追跡部4に関する変形例を挙げる。L記の実施例
における追跡方法は、注[1点の周辺の濃度の時間変化
から移動方向2求めるものである。。
Next, a modification regarding the tracking section 4 will be described. The tracking method in the embodiment described in L is to determine the moving direction 2 from the temporal change in concentration around one point. .

これば、処理が高速で、動いているものを追うという点
では確実に動作するという利点を有する。
This has the advantage of high-speed processing and reliable operation in terms of tracking moving objects.

ところが、対象物の性質は見ていないので、対象物の周
辺に他の運動物体か来ると、そちらの)11!動方向を
間違って出力してしまうことかある3、l”、−、、1
’:1.、:の実施例の追跡方法でもこの問題を解決す
ることはてきろ。なぜなら、ガ[1跡粘果判定処理にお
いで、移動ムク1ヘルを1〜数フレー13のA111な
大きさの甲−位で方向別テーブルに−古き込み、そこか
ら−〕の連続的な動きを判定するというツノθ、をとっ
ているために、分割された小さな11すjきと 一連の
大きな動きから総合的に各物体の軌跡を判定することか
できるからである。
However, since we are not looking at the properties of the object, when other moving objects come around the object, their) 11! Sometimes the direction of movement is output incorrectly 3, l”, -, 1
':1. The following tracking method can also solve this problem. This is because the continuous movement of the moth [in the process of determining 1 trace and fruit, moving Muk 1 Hel to the directional table at the A111 size of A111 of 1 to several frames 13 - old, from there -] This is because the trajectory of each object can be comprehensively determined from the 11 divided small steps and a series of large movements.

ここで、対象物の性質を見る別の追跡方法を用いて、」
二連の問題を解決しても良い。例えば、第3図において
、追跡用領域Rの中心となる小領域roの現時点の画像
と、roの回りの一定範囲の全点の次時点の画像との相
関係数を求め、最大の相関を示す方向に追跡を行っても
良い。あるいは、これを高速化のために例えばr1〜r
8の8点について相関を求め、その大きいものの回りに
ついて細かく調べる方法を用いても良い。また、上述の
手法の簡略化法として、小領域r・0と回りの小領域と
の間の類似度を調べるために、相関関係ではなく、対応
する位置の画素の値の差の絶対値を求め、その総和を用
いても良い。あるいは、これの高速演算法である5SD
A (Sequeut、i、al Sjmj、]、ar
jtyDetectjon Allgorjthm)を
用いても良い。5SDAとは、比較対象の小領域を次々
と変えて」―記の差の絶対値の総和の最小の位置を求め
ていく過程で、ある小領域について調べるとき、次々に
各点の差の絶対値を求めて加算していき加算値が今まで
の和の最小値を越えたならば、この小領域についての差
の総和は最小値より大きくなるのだからこれ以」−加算
しても無意味なので、計算を打ち切り次の小領域に進む
方法である。このような場合は、物体の性質を見ている
ことになるので、同一物体を追跡する確率は高い。しか
し、相関の高い位置があまりはっきり求められないこと
も多く、追跡を失敗することも多い。
Now, using another tracking method that looks at the properties of the object,
You can solve two sets of problems. For example, in Fig. 3, the correlation coefficient between the current image of the small area ro, which is the center of the tracking area R, and the next image of all points in a certain range around ro is calculated, and the maximum correlation is calculated. Tracking may be performed in the indicated direction. Or, to speed up this, for example r1 to r
It is also possible to use a method in which correlations are found for the 8 points of 8, and the areas around the larger ones are examined in detail. In addition, as a simplification of the above method, in order to examine the similarity between the small region r・0 and surrounding small regions, instead of the correlation, the absolute value of the difference between the pixel values at the corresponding position It is also possible to calculate the sum and use the sum. Or 5SD, which is a fast calculation method of this
A (Sequut, i, al Sjmj, ], ar
jtyDetectjon Allgorjthm) may be used. 5SDA is a process of finding the minimum position of the sum of the absolute values of the differences between the small areas to be compared one after another. If you find the values and add them, and the added value exceeds the minimum value of the sum so far, the sum of the differences for this small area will be greater than the minimum value, so from now on, it is meaningless to add. Therefore, the method is to abort the calculation and proceed to the next small area. In such a case, the properties of the object are being looked at, so the probability of tracking the same object is high. However, highly correlated positions are often not clearly determined, and tracking often fails.

相関を他には、エツジやコーナーなどの特徴点を求め、
その位置を求め続けることにより追跡を行う方法も用い
ることができる。この方法は、それらの特徴点がはっき
り求められる場合には、確実性が高い。しかし、これら
の特徴点が得にくい対象物にはうまく働かない。
In addition to correlation, find feature points such as edges and corners,
A method of tracking by continuously determining the position can also be used. This method is highly reliable if those feature points are clearly determined. However, this method does not work well for objects for which it is difficult to obtain these feature points.

以」−のような、追跡方法を応用対象に最も適したもの
を選んで用いるようにしても良い。あるい申 は、すへてを働かせて、うまく追跡のできるのを結果と
して採用するようにしても良い。あるいは。
The tracking method most suitable for the application may be selected and used, such as the following. Alternatively, you can use all your skills and eventually adopt the ones that can track them well. or.

すべての追跡結果を追跡結果判定処理に送り、そちらの
方に意味のある運動の検出を任せても良い。
All tracking results may be sent to a tracking result determination process and the detection of meaningful movements may be left to that process.

このように、複数の処理を行わせるには、大きな計算能
力が必要になるが、処理の確実性は向上する。
In this way, performing multiple processes requires a large amount of computing power, but the reliability of the processes is improved.

さらに、−1:、記の実施例で用いた追跡方法は、ロー
カルモジュール■3の追跡特性を変化させることにより
、広い応用が可能となる。
Furthermore, the tracking method used in the embodiment described in -1: can be widely applied by changing the tracking characteristics of the local module (3).

例えば、fの値の符号を変えることにより、物体に対す
る特に1が変る。fが正の場合、物体に付いていく特性
、逆に、fが負の場合は、物体から離れようとする特性
を実現できる。また、次式のように移動ペクI〜ル(u
、v)をφだけ回転させることにより、第6図に示すよ
うに、物体の動きに対して角度φだけずねた方向にモジ
ュールを追跡させることもできる。
For example, by changing the sign of the value of f, the 1 in particular for the object changes. If f is positive, the characteristic of following the object can be realized, and conversely, if f is negative, the characteristic of trying to move away from the object can be realized. In addition, as shown in the following equation, the moving pixel (u
, v) by φ, it is also possible to make the module track in a direction shifted by an angle φ with respect to the movement of the object, as shown in FIG.

これらの特性を組み合わせて使うことにより、各モジュ
ールを、第7図のように物体の前方エツジ、後方エツジ
、前方斜めエツジ、後方斜めエツジなとを選択的に追跡
させることが可能となる。なお、」二連の手法は、次式
のように、各小領域に対するdO)に重みW(])を導
入して、その符号、絶対値を変化させることにより代替
できる。
By using these characteristics in combination, it becomes possible for each module to selectively track the front edge, rear edge, front diagonal edge, and rear diagonal edge of an object as shown in FIG. Note that the double method can be replaced by introducing a weight W(]) into dO) for each small region and changing its sign and absolute value, as shown in the following equation.

(但しΣは Σ と−膜化できる) j=oi、=0 つまり、この重みW(1)によって、例えばカ・口火の
移動バク1−ルから物体の進む方向を予測しながら追跡
させることも可能になる。
(However, Σ can be combined with Σ.) j = oi, = 0 In other words, by using this weight W(1), for example, it is possible to predict the direction of an object and track it based on the moving back of the engine. It becomes possible.

さらに、上述の手法の応用として、第8図のように多数
のモジュールを配置することにより、物体の軸郭を抽出
できることになる。この際、モジュール同士が同し箇所
を追跡しないためと、モジュールが外乱て物体から離れ
てしまわないために、ホストコンピュータが各モジュー
ルを制御する。
Furthermore, as an application of the above-described method, by arranging a large number of modules as shown in FIG. 8, the axis contour of the object can be extracted. At this time, the host computer controls each module so that the modules do not track the same location and to prevent the modules from moving away from the object due to disturbance.

あるいは、ローカルモジュール同士で互いの抑制・拘束
力か働くように交信を行う。
Alternatively, local modules communicate with each other so as to act as restraints and restraints on each other.

この輪郭抽出法は、従来の差分処理、2値化といった方
法に比へて、多数のモジュールかlコ)の動き情報を使
うため環境の影響を受は難く、確へ郭を抽出できる。ま
た、輪郭抽出と同時にその動きも捉え/MLることかで
きる。この輪郭情報とその動き情報から、予め持ってい
る物体の形状パターンや動きパターンとの照合を行い、
物体の認識を行うことができる。
Compared to conventional methods such as differential processing and binarization, this contour extraction method uses motion information from a large number of modules, so it is less affected by the environment and can accurately extract contours. Furthermore, it is possible to capture/ML the movement at the same time as contour extraction. From this contour information and its movement information, we compare it with the shape pattern and movement pattern of the object that we have in advance,
Objects can be recognized.

また、これまでに述べた一連の手法は、一つのローカル
モジュール上で実現可能であり、物体の追跡とその輪郭
抽出を行うモジュールとして機能する。
Further, the series of methods described so far can be realized on one local module, which functions as a module that tracks an object and extracts its outline.

〔発明の効果〕〔Effect of the invention〕

以北説明したように本発明によれば、変化領域の対応が
とれないような場合にも、確実に変化領域の追跡を行う
ことかでき、環境変動によるノイズ成分を除去したり、
一つの物体に由来する複数の変化領域を統合してその動
きを見たりすることを可能にする、耐環境性に優れた追
跡装置を実現できる等の実用上多大なる効果が奏せられ
る。
As explained above, according to the present invention, even in cases where correspondence between changing areas cannot be established, changing areas can be reliably tracked, noise components caused by environmental changes can be removed, and noise components caused by environmental changes can be removed.
Great practical effects can be achieved, such as the ability to realize a tracking device with excellent environmental resistance, which makes it possible to integrate a plurality of changing regions originating from one object and observe its movement.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の実施例の概略構成図、第2図はローカ
ルモジュール13の構成図、第3図は追跡用領域及び移
動方向検出用小領域の説明図、第4図は一つの物体が複
数の変化領域に分離して追跡される場合の一例を示す図
、第5図は追跡結果判定処理のフローチャー1〜、第6
図は角度φだけ異なる方向への追跡の説明図、第7図は
物体エツジの選択的追跡の説明図、第8図は物体の輪郭
抽出の説明図、第9図は従来例の説明図である。 I  TVカメラ     2 ・A/1つ変換器3・
・変化検出部     4・・追跡部5・・ポストコン
ピュータ 6・・参照画像メモリ7・・・差分回路  
    8・ 2値化回路9・・ラベリンク回路   
]0 追跡命令部1】・制御ハス      12  
画像バス13−1〜n・ローカルモジュール 14・追跡用領域設定部 15・移動方向検出用小領域設定部 16・移動ベク)〜ルミ1算部 17・追跡結果判定部
]8 グラフィックデイスプレィコン1〜ローラ19・
・表示装置 13a・ウィンドウコン1〜ローラ 1.3b  ウィンドウメモリ 13c  ローカルプロセッサ ]、3d  パスインタフェース 代理人 弁理士 則 近 憲 佑 第8図 第9図
FIG. 1 is a schematic configuration diagram of an embodiment of the present invention, FIG. 2 is a configuration diagram of the local module 13, FIG. 3 is an explanatory diagram of a tracking area and a small area for detecting moving direction, and FIG. 4 is an illustration of one object. FIG. 5 is a diagram showing an example of a case where the tracking result is tracked separately into a plurality of change regions, and FIG.
The figure is an explanatory diagram of tracking in directions different by an angle φ, Fig. 7 is an explanatory diagram of selective tracking of object edges, Fig. 8 is an explanatory diagram of object contour extraction, and Fig. 9 is an explanatory diagram of a conventional example. be. I TV camera 2 ・A/1 converter 3・
- Change detection unit 4... Tracking unit 5... Post computer 6... Reference image memory 7... Differential circuit
8. Binarization circuit 9...Label link circuit
]0 Tracking command part 1]・Control lotus 12
Image buses 13-1 to n, Local module 14, Tracking area setting unit 15, Moving direction detection small area setting unit 16, Movement vector) ~ Lumi 1 calculation unit 17, Tracking result determination unit] 8 Graphic display controller 1 ~ Laura 19・
・Display device 13a ・Window controller 1 to roller 1.3b Window memory 13c Local processor], 3d Path interface agent Patent attorney Noriyuki Chika Figure 8 Figure 9

Claims (2)

【特許請求の範囲】[Claims] (1)撮像された画像から変化領域を抽出する変化検出
手段と、この変化検出手段により抽出された変化領域の
少なくとも一部を含む領域を追跡用領域として設定する
設定手段と、この設定手段により設定された前記追跡用
領域の部分の前記追跡用領域内での移動方向を求める移
動方向検出手段と、この移動方向検出手段により求めら
れた前記移動方向に基づいて前記追跡用領域を移動する
移動手段とを備え、この移動手段による追跡用領域の移
動により前記変化領域を追跡することを特徴とする追跡
装置。
(1) A change detection means for extracting a change area from a captured image, a setting means for setting an area including at least a part of the change area extracted by the change detection means as a tracking area, and a setting means for a moving direction detecting means for determining a moving direction within the tracking area of the set portion of the tracking area; and a movement for moving the tracking area based on the moving direction determined by the moving direction detecting means. A tracking device, comprising: a means for tracking the changed region by moving the tracking region by the moving means.
(2)撮像された画像を表示する表示手段と、撮像され
た画像から変化領域を抽出する変化検出手段と、前記変
化検出手段により抽出された変化領域の少なくとも一部
を含む領域を追跡用領域として設定し前記表示手段に表
示する手段と、この手段により表示された追跡用領域を
前記変化領域の移動に伴い移動する追跡手段とを具備し
たことを特徴とする追跡装置。
(2) A display means for displaying a captured image, a change detection means for extracting a changed area from the captured image, and a tracking area that includes at least a part of the changed area extracted by the change detection means. A tracking device comprising: means for setting and displaying on said display means; and tracking means for moving a tracking area displayed by said means in accordance with movement of said changing area.
JP2320881A 1990-11-27 1990-11-27 Tracking device Pending JPH04192781A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2320881A JPH04192781A (en) 1990-11-27 1990-11-27 Tracking device
US07/799,321 US5243418A (en) 1990-11-27 1991-11-27 Display monitoring system for detecting and tracking an intruder in a monitor area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2320881A JPH04192781A (en) 1990-11-27 1990-11-27 Tracking device

Publications (1)

Publication Number Publication Date
JPH04192781A true JPH04192781A (en) 1992-07-10

Family

ID=18126309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2320881A Pending JPH04192781A (en) 1990-11-27 1990-11-27 Tracking device

Country Status (1)

Country Link
JP (1) JPH04192781A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006080367A1 (en) * 2005-01-28 2006-08-03 Olympus Corporation Particle group movement analysis system, and particle group movement analysis method and program
WO2019082652A1 (en) * 2017-10-25 2019-05-02 株式会社 東芝 Image sensor, person detection method, program, and control system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006080367A1 (en) * 2005-01-28 2006-08-03 Olympus Corporation Particle group movement analysis system, and particle group movement analysis method and program
JP4934018B2 (en) * 2005-01-28 2012-05-16 オリンパス株式会社 Particle swarm motion analysis system, particle swarm motion analysis method and program
WO2019082652A1 (en) * 2017-10-25 2019-05-02 株式会社 東芝 Image sensor, person detection method, program, and control system

Similar Documents

Publication Publication Date Title
US5243418A (en) Display monitoring system for detecting and tracking an intruder in a monitor area
Javed et al. Tracking and object classification for automated surveillance
Chang et al. Multiple object tracking with kernel particle filter
Bobick et al. Real-time recognition of activity using temporal templates
Bhaskar et al. Blink detection and eye tracking for eye localization
Jain et al. Real-time upper-body human pose estimation using a depth camera
Castrillón et al. ENCARA2: Real-time detection of multiple faces at different resolutions in video streams
Zhang et al. Real-time multiple human perception with color-depth cameras on a mobile robot
KR102153591B1 (en) Method and apparatus for detecting garbage dumping action in real time on video surveillance system
WO2020215552A1 (en) Multi-target tracking method, apparatus, computer device, and storage medium
CN102222341B (en) Motion characteristic point detection method and device, moving target detecting method and device
Iketani et al. Real-time surveillance system detecting persons in complex scenes
Yamane et al. Person tracking by integrating optical flow and uniform brightness regions
KR20220007882A (en) Representation and extraction of layered motion from monocular still camera video
Bhargava et al. Detection of object abandonment using temporal logic
CN111079536A (en) Behavior analysis method based on human body key point time sequence, storage medium and equipment
Castrillón-Santana et al. Multiple face detection at different resolutions for perceptual user interfaces
Polat et al. Robust tracking of human body parts for collaborative human computer interaction
WO2020138596A1 (en) Method and device for performing a loop closure detection
JPH0546771A (en) Motive object detector
Patel et al. Human tracking in video surveillance
Sadkhan et al. An investigate on moving object tracking and detection in images
JPH04192781A (en) Tracking device
Chen et al. Detection and segmentation of occluded vehicles based on skeleton features
Frigola et al. Visual human machine interface by gestures