JPH1132325A - Object tracing method, and object tracking and supervising system - Google Patents

Object tracing method, and object tracking and supervising system

Info

Publication number
JPH1132325A
JPH1132325A JP10130540A JP13054098A JPH1132325A JP H1132325 A JPH1132325 A JP H1132325A JP 10130540 A JP10130540 A JP 10130540A JP 13054098 A JP13054098 A JP 13054098A JP H1132325 A JPH1132325 A JP H1132325A
Authority
JP
Japan
Prior art keywords
detected
connection
correction
objects
determination step
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10130540A
Other languages
Japanese (ja)
Other versions
JP3657116B2 (en
Inventor
Wataru Ito
渡 伊藤
Hirotada Ueda
博唯 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Denshi KK
Original Assignee
Hitachi Denshi KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Denshi KK filed Critical Hitachi Denshi KK
Priority to JP13054098A priority Critical patent/JP3657116B2/en
Publication of JPH1132325A publication Critical patent/JPH1132325A/en
Application granted granted Critical
Publication of JP3657116B2 publication Critical patent/JP3657116B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an object tracing and supervising system by which a position of an object is accurately estimated even when the object is detected in a disruption state, positions of plural objects are accurately estimated even hen plural objects are detected in line and tracing paths of the respective objects are detected. SOLUTION: An object tracing method detects a difference between an input image signal from a television(TV) camera and a reference background image signal as an object, classifies a detected state change based on a change in the number of objects detected in a continuous input image signal, stores a position of the detected object, an area of a detected area and an image pattern of the detected object for each time as connection information to correct the detected position of the object detected in a distribution state and to correct loci of plural objects detected in line.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、テレビジョンカメ
ラを用いた監視装置に係り、テレビジョンカメラの撮像
視野内に侵入した複数の物体を、該テレビジョンカメラ
の映像信号の中から自動的に検出し、該検出物体の動き
を自動的に追尾するようにした物体追跡方法及び物体追
跡監視装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a monitoring apparatus using a television camera, and automatically detects a plurality of objects that have entered the field of view of the television camera from video signals of the television camera. The present invention relates to an object tracking method and an object tracking monitoring device that detect and automatically track the movement of the detected object.

【0002】[0002]

【従来の技術】テレビジョンカメラ(以下TVカメラと
呼ぶ)を用いた映像監視装置は、従来より広く用いられ
ている。しかし、近年、このような監視システムにおい
て、その監視視野内に入り込んでくる人間や自動車など
の移動物体の検出及び追跡を、画像モニタ面での有人監
視によるのではなく、画像信号から自動的に検出し、所
定の報知や警報処置が得られるようにしたシステムが要
求されるようになってきている。
2. Description of the Related Art Video surveillance apparatuses using television cameras (hereinafter referred to as TV cameras) have been widely used. However, in recent years, in such a surveillance system, detection and tracking of a moving object such as a human being or a car entering the surveillance field of view are not automatically performed by manned monitoring on an image monitor surface, but automatically from an image signal. There is an increasing demand for a system that can detect and provide a predetermined notification or alarm.

【0003】このようなシステムを実現するためには、
まず、TVカメラより得られた入力画像信号と基準背景
画像、すなわち、検出すべき物体の写っていない画像信
号とを比較し、画素毎に輝度値の差分を求め、その差分
値の大きい領域を物体として検出する。この方法は、差
分法と呼ばれ、従来より広く用いられている。この方法
の応用例としては、例えば、特開平09−73541号
公報に記載されている。差分法の処理を図7を用いて説
明する。まず、TVカメラにより得られた入力画像701
と予め登録してある基準背景画像702との画素毎の差分
を計算し差分画像703を得る。次にその差分画像の画素
値が所定のしきい値未満の画素を“0”、しきい値以上
の画素を“255”(1画素が8ビットであると仮定)
として二値化画像704を得る。これによって、入力画像7
01に写った人型の物体は、二値化画像704中の画像D01
として検出される。
In order to realize such a system,
First, an input image signal obtained from a TV camera is compared with a reference background image, that is, an image signal not including an object to be detected, and a difference in luminance value is obtained for each pixel. Detect as an object. This method is called a difference method and has been widely used conventionally. An application example of this method is described in, for example, JP-A-09-73541. The processing of the difference method will be described with reference to FIG. First, an input image 701 obtained by a TV camera
Then, a difference for each pixel from the reference background image 702 registered in advance is calculated to obtain a difference image 703. Next, a pixel whose pixel value of the difference image is smaller than a predetermined threshold value is “0”, and a pixel value that is equal to or larger than the threshold value is “255” (assuming that one pixel has 8 bits).
To obtain a binarized image 704. This allows input image 7
01 is the image D01 in the binarized image 704.
Is detected as

【0004】検出物体の自動追跡は、差分法による物体
の検出を逐次的に行い、各時刻毎の検出物体の画像上の
位置に基づき対象物体の動きを求めることにより行う。
図8を用いて自動追跡原理を説明する。図8において、
801は時刻t0での二値化画像で、802は時刻t0+1での二
値化画像、803は時刻t0+2での二値化画像を表す。また
804は、前記二値化画像801,802,および803のすべての
検出物体と重心位置を、説明のため同時に表したもので
あり、805は前記画像804の検出物体の重心位置を点とし
て表したものである。図8の時刻t0、t0+1、t0+2の
それぞれの時刻で得られた二値化画像801,802,803に
おいて、それぞれの時刻で検出物体D02,D03,D04の
位置で物体が検出できたとき、この物体の動きは画像80
4におけるそれぞれの時刻の検出物体D02,D03,D04
のそれぞれの重心C01,C02,C03を結んだ矢印V01,
V02で表される。
The automatic tracking of the detected object is performed by sequentially detecting the object by the difference method, and obtaining the motion of the target object based on the position of the detected object on the image at each time.
The principle of automatic tracking will be described with reference to FIG. In FIG.
Reference numeral 801 denotes a binarized image at time t0, 802 denotes a binarized image at time t0 + 1, and 803 denotes a binarized image at time t0 + 2. Also
Numeral 804 indicates all the detected objects and the positions of the centers of gravity of the binarized images 801, 802, and 803 at the same time for explanation, and 805 indicates the positions of the centers of gravity of the detected objects of the image 804 as points. Things. In the binarized images 801, 802, 803 obtained at the respective times t0, t0 + 1, t0 + 2 in FIG. 8, the objects can be detected at the positions of the detected objects D02, D03, D04 at the respective times. When the object moves, image 80
4 detected objects D02, D03, D04 at respective times
Arrow V01 connecting the respective centers of gravity C01, C02, C03
V02.

【0005】ここで、重心は式(1)より求めることがで
きる。重心Cは、f(x,y)を差分の二値化画像(し
きい値以上を“255”、未満を“0”)として、
Here, the center of gravity can be obtained from equation (1). The center of gravity C is defined as follows: f (x, y) is a binarized image of the difference (“255” is greater than or equal to the threshold, and “0” is less than the threshold).

【0006】[0006]

【数1】 (Equation 1)

【0007】と定義される。ただし[B]は、[B]=
{(x,y)|f(x,y)=255}となる画素数で
ある。
Is defined as However, [B] is [B] =
{(X, y) | f (x, y) = 255}.

【0008】この差分法では、背景画像に近い輝度値を
持つ物体を検出した場合は、一部が欠けたり、分裂して
複数の物体として検出されることがある。従って差分法
を用いた物体の追跡法では、視野内の一つの物体が複数
の物体として検出された場合に、検出された数だけ物体
が存在するものと判断し、一つの物体であるにも関わら
ず複数の物体があるものとして追跡してしまう。また、
差分法では見かけ上繋がって写る物体は一つの物体とし
て検出される。従って、視野内に複数の物体が存在した
とき、複数の物体が、ある時刻で繋がって写った場合に
は、その時刻では物体が一つしかないものと判断してし
まうため、複数の物体が存在するにも関わらず一つの物
体として追跡してしまう。また、画像の形状や画像パタ
ーンを比較して追跡していないため、検出物体が複数存
在した場合、同一の対象を追跡していることを確実に保
証することはできない。
In the difference method, when an object having a luminance value close to that of a background image is detected, a part of the object may be missing or split and detected as a plurality of objects. Therefore, in the object tracking method using the difference method, when one object in the field of view is detected as a plurality of objects, it is determined that there are objects by the detected number, and even if the object is one object Regardless, it tracks as if there are multiple objects. Also,
In the difference method, objects that are apparently connected and detected are detected as one object. Therefore, when there are a plurality of objects in the field of view, if a plurality of objects are connected and photographed at a certain time, it is determined that there is only one object at that time. It tracks as a single object despite its existence. Further, since tracking is not performed by comparing the shapes and image patterns of images, it is not possible to reliably guarantee that the same target is being tracked when there are a plurality of detected objects.

【0009】検出物体の位置変化を基にした追跡法の応
用例としては、例えば、1989年12月発行、“テレ
ビジョン学会誌”、Vol.43, No.12, pp.1370-1374に記
載の、「スキーヤの動きの画像処理的解析」と題する論
文がある。該論文では、矢印V01,V02を求める際に、
数フレーム過去の検出位置の変化から物体の進行方向を
推測し、接続すべき重心の選択範囲を制限することで複
数の検出物体が存在する場面でも追跡を行なえるように
している。しかし、この方法では一時的に分裂した物体
や、複数の物体が並走するような場合には正確に物体を
追跡することができない。
An example of an application of the tracking method based on a change in the position of a detected object is described in, for example, “Television Society Journal”, Vol. 43, No. 12, pp. 1370-1374, published in December 1989. There is a paper entitled "Image processing analysis of skier motion". In this paper, when finding the arrows V01 and V02,
The moving direction of the object is estimated from a change in the detected position several frames in the past, and the selection range of the center of gravity to be connected is limited so that tracking can be performed even in a scene where a plurality of detected objects exist. However, this method cannot accurately track an object that has been temporarily split or a plurality of objects running in parallel.

【0010】[0010]

【発明が解決しようとする課題】前述のように従来より
広く用いられている差分法では、検出される物体がカメ
ラ視野内の背景画像に近い輝度値を持つと物体が分裂し
て検出されるという問題と、複数の物体が存在しそれら
が繋がって写る場合に正確な物体追跡が行なえないとい
う問題があった。
As described above, in the difference method which has been widely used in the prior art, if the detected object has a luminance value close to the background image in the camera field of view, the object is split and detected. In addition, there is a problem that accurate object tracking cannot be performed when a plurality of objects exist and they are connected and photographed.

【0011】本発明の第1の目的は、上記のような欠点
を除去し、一つの物体が分裂したという判断と、複数の
物体が存在していてそれらが繋がったという判断を行な
うようにした信頼性の高い物体追跡監視装置を提供する
ことにある。
A first object of the present invention is to eliminate the above-mentioned drawbacks, and to judge that one object has been split and judge that a plurality of objects exist and they are connected. An object of the present invention is to provide a highly reliable object tracking and monitoring device.

【0012】また本発明の第2の目的は、1つの物体が
分裂して検出された場合でも正確な物体の位置を推定
し、複数の検出物体が繋がって検出された場合でもそれ
ぞれの物体の正確な位置を推定し、それぞれの物体の追
跡経路を検出することができる物体追跡監視装置を提供
することにある。
A second object of the present invention is to estimate an accurate position of an object even when one object is divided and detected, and to estimate the position of each object even when a plurality of detected objects are connected and detected. It is an object of the present invention to provide an object tracking and monitoring device capable of estimating an accurate position and detecting a tracking path of each object.

【0013】また本発明の第3の目的は、1つの物体が
分裂して検出されても、複数の物体が繋がって検出され
ても、その時刻の前後の検出状態からそれぞれの追跡経
路を補正し物体を正確に追跡するように判断することが
できる物体追跡監視装置を提供することにある。
Further, a third object of the present invention is to correct each tracking path from the detection state before and after the time, even if one object is divided and detected or a plurality of objects are connected and detected. Another object of the present invention is to provide an object tracking / monitoring device capable of determining whether to accurately track an object.

【0014】また本発明の第4の目的は、物体が複数存
在しても同一の対象を追跡していることを保証する物体
追跡監視装置を提供することにある。
A fourth object of the present invention is to provide an object tracking / monitoring device which guarantees that the same object is being tracked even when a plurality of objects exist.

【0015】[0015]

【課題を解決するための手段】本発明は上記の目的を達
成するために、検出した物体の数の変化を求め、その検
出状態の変化から物体の分裂や連結を検出するようにし
たものである。
According to the present invention, in order to attain the above object, a change in the number of detected objects is obtained, and splitting or connection of the object is detected from the change in the detection state. is there.

【0016】このため本発明は、入力画像信号中の物体
を検出するステップと、連続したフレームでの検出物体
の数の変化を求める物体数変化検出ステップと、検出し
た物体数変化から物体の検出状態変化を分類する検出状
態変化分類ステップとを設け、物体の状態変化を分類す
ることによって上記物体の分裂、連結かの判定を行なう
ようにしたものである。
Therefore, the present invention provides a method for detecting an object in an input image signal, a step for detecting a change in the number of detected objects in successive frames, and a method for detecting an object from the detected change in the number of objects. And a detection state change classification step of classifying the state change, and determining whether the object is split or connected by classifying the state change of the object.

【0017】更に、前記の検出状態変化から各時刻毎に
検出した物体の位置の変化と検出した領域の面積の変化
を表す接続情報を作成する接続情報作成ステップと、不
定長の可変時間内での検出位置変化を評価することで物
体の軌跡を推定する軌跡推定ステップとを設け、検出物
体を追跡することにより、長時間内での物体の検出位置
変化を評価することでより正確な物体追跡を実現したも
のである。
Further, a connection information creating step of creating connection information representing a change in the position of the object detected at each time and a change in the area of the detected area from the detection state change, and within a variable time of indefinite length. Trajectory estimation step of estimating the trajectory of the object by evaluating the change in the detection position of the object, and tracking the detected object to evaluate the change in the detection position of the object within a long time, thereby more accurately tracking the object. Is realized.

【0018】更にまた、前述の接続情報から物体検出時
に一つの物体が複数に分裂して検出されたことを判定す
る分裂判定ステップと、分裂と判定された物体の複数の
検出領域を一つに補正する分裂補正ステップとを設けて
検出物体の追跡を行うことにより、一時的に一つの物体
が分裂して複数の物体として検出されてもその物体は一
つの物体であるように補正したものである。
Furthermore, a division determining step of determining that one object is divided into a plurality of parts upon detection of the object from the connection information, and combining a plurality of detection areas of the object determined to be divided into one. By performing the tracking of the detected object by providing a split correction step to correct, even if one object is temporarily split and detected as a plurality of objects, the object is corrected to be one object. is there.

【0019】更にまた、前述の接続情報から物体検出時
に複数の物体が繋がって検出されたことを判定する連結
判定ステップと、連結と判定された物体をその前後の接
続情報から複数の物体として補正する連結補正ステップ
とを設け、検出物体の追跡を行うことにより、一時的に
複数の物体が繋がって一つの物体として検出されても、
前後の関係によりその物体は複数の物体であるように補
正したものである。
Further, a connection determining step of determining from the connection information that a plurality of objects are connected and detected at the time of object detection, and correcting the object determined to be connected as a plurality of objects from connection information before and after the connection. Providing a connection correction step and tracking the detected object, even if a plurality of objects are temporarily connected and detected as one object,
The object has been corrected so as to be a plurality of objects according to the front-back relationship.

【0020】更にまた、前記分裂補正ステップで分裂補
正が行なわれた場合、分裂補正が行なわれたことを判定
する分裂補正再帰判定ステップを設け、再帰的に分裂補
正を行ない、一つの物体が分裂して複数の物体として検
出されてもその物体は一つの物体であることをより正確
に補正するようにしたものである。
Furthermore, when the division correction is performed in the division correction step, a division correction recursive determination step for determining that the division correction has been performed is provided, and the division correction is performed recursively, and one object is divided. Thus, even if the object is detected as a plurality of objects, the fact that the object is a single object is corrected more accurately.

【0021】更にまた、前記連結補正ステップで連結補
正が行なわれた場合、連結補正が行なわれたことを判定
する連結補正再帰判定ステップを設け、再帰的に連結補
正を行い、複数の物体が繋がって一つの物体として検出
されてもその物体は複数の物体であることをより正確に
補正することができるようにしたものである。
Further, when the connection correction is performed in the connection correction step, a connection correction recursive determination step for determining that the connection correction has been performed is provided, and the connection correction is performed recursively to connect a plurality of objects. Thus, even if a single object is detected, it can be corrected more accurately that the object is a plurality of objects.

【0022】更にまた、前記接続情報作成ステップで接
続情報として検出した物体の位置および検出した領域の
面積と共に検出した領域の画素パターンも接続情報とし
て保持し、連結判定ステップにおいて保持している画素
パターンとのマッチングによって連結を判定し、検出物
体の追跡を行い、複数の物体が存在していても同一の物
体を追跡していることを保証することができるようにし
たものである。
Further, the position of the object detected as the connection information and the area of the detected area as well as the pixel pattern of the detected area are stored as connection information in the connection information creating step, and the pixel pattern stored in the connection determination step is stored. In this case, the connection is determined by matching with the object, the detected object is tracked, and even if a plurality of objects exist, it can be guaranteed that the same object is being tracked.

【0023】即ち本発明は、例えば監視対象とする視野
範囲を撮像するTVカメラと、該TVカメラからの信号
を画像信号に変換する画像入力インターフェース手段
と、少なくともCPUと画像メモリとワークメモリとプ
ログラムメモリとによって前記画像信号を処理する処理
手段を有する物体追跡監視装置において、前記TVカメ
ラからの入力画像信号と、検出すべき物体の写っていな
い基準背景画像信号との差を、画素毎の輝度値の差分を
求めその差分値の大きい領域を物体として検出し、連続
する入力画像信号中の検出した物体の数の変化から検出
状態変化を分類し、該検出状態変化から各時刻毎の検出
物体の位置及び検出領域の面積、検出物体の画像パター
ンを接続情報として保存し、分裂して検出された物体の
検出位置の補正と、連結して検出された複数物体の軌跡
の補正を行ったものである。
That is, the present invention provides, for example, a TV camera for capturing an image of a field of view to be monitored, image input interface means for converting a signal from the TV camera into an image signal, at least a CPU, an image memory, a work memory, and a program. An object tracking / monitoring device having processing means for processing the image signal by a memory, wherein a difference between an input image signal from the TV camera and a reference background image signal in which an object to be detected is not reflected is determined by a luminance for each pixel. A difference between the detected values is determined, an area having a large difference value is detected as an object, a detected state change is classified based on a change in the number of detected objects in a continuous input image signal, and a detected object is detected at each time from the detected state change. The position and area of the detection area, the image pattern of the detected object is stored as connection information, and the detection position of the divided and detected object is corrected, In which it was corrected trajectory multiple object detected by binding.

【0024】[0024]

【発明の実施の形態】図9に、本発明の各実施例に共通
する物体追跡装置のハードウエア構成の一例を示す。
FIG. 9 shows an example of a hardware configuration of an object tracking device common to each embodiment of the present invention.

【0025】図9において、901はTVカメラ、902は画
像入力I/F、903はデータバス、904は画像メモリ、90
5はワークメモリ、906はCPU、907はプログラムメモ
リ、908は出力I/F、909は画像出力I/F、910は警
告灯、911は監視モニタである。TVカメラ901は画像入
力I/F902に接続され、警告灯910は出力I/F908に
接続され、監視モニタ911は画像出力I/F909に接続さ
れている。画像入力I/F902,画像メモリ904,ワーク
メモリ905,CPU906,プログラムメモリ907,出力I
/F908及び画像出力I/F909はデータバス903に接続
されている。図9において、TVカメラ901は対象区域
(視野範囲)を撮像する。撮像された映像信号は画像入
力I/F902からデータバス903を介して画像メモリ904
に蓄積される。CPU906はプログラムメモリ907に保存
されているプログラムに従って、ワークメモリ905内で
前記画像メモリ904に蓄積された画像の解析を行う。前
記CPU906は解析結果に応じて出力I/F908を介して
警告灯910を点灯し、画像出力I/F909を介して監視モ
ニタ911に画像を表示する。以下に説明するフローチャ
ートは全て、上述の物体追跡装置のハードウエア構成の
一例を使って説明する。
In FIG. 9, reference numeral 901 denotes a TV camera; 902, an image input I / F; 903, a data bus; 904, an image memory;
5 is a work memory, 906 is a CPU, 907 is a program memory, 908 is an output I / F, 909 is an image output I / F, 910 is a warning light, and 911 is a monitoring monitor. The TV camera 901 is connected to the image input I / F 902, the warning light 910 is connected to the output I / F 908, and the monitoring monitor 911 is connected to the image output I / F 909. Image input I / F 902, image memory 904, work memory 905, CPU 906, program memory 907, output I
/ F908 and the image output I / F909 are connected to the data bus 903. In FIG. 9, a TV camera 901 captures an image of a target area (viewing range). The captured video signal is transferred from the image input I / F 902 to the image memory 904 via the data bus 903.
Is accumulated in The CPU 906 analyzes the image stored in the image memory 904 in the work memory 905 according to the program stored in the program memory 907. The CPU 906 turns on the warning lamp 910 via the output I / F 908 according to the analysis result, and displays an image on the monitor 911 via the image output I / F 909. All the flowcharts described below are described using an example of the hardware configuration of the above-described object tracking device.

【0026】図1は本発明の基本となるフローチャート
の一例である。時刻t0において画像入力ステップ101で
はTVカメラ901(図9)より例えば画素数320×2
40に対応する入力画像信号701(図7)を得、差分処
理ステップ102であらかじめ登録した検出すべき物体の
写っていない基準背景画像702(図7)と画素毎に差分
を計算し、差分画像703(図7)を得る。次に二値化処
理ステップ103にて前記差分画像703(図7)のしきい値
処理を行い、予め設定したしきい値以上の部分の輝度値
を、検出すべき物体として“255”に変換し、該しき
い値未満の部分の輝度値を、検出すべき物体が存在しな
い部分として“0”に変換して、二値画像704(図7)
を得る。このとき輝度値“255”となる一固まりの領
域D01をラベリング等の方法で抽出し、時刻t0の検出
物体とし、この検出領域D01の重心を検出物体の位置と
する。尚、上記“予め設定したしきい値”とは、入力画
像と背景画像との差分値に対して、物体有無を判定する
値であり、監視対象物体に依存し、経験的な値を設定す
る。例えば、洋上の船の侵入を監視する1つの条件では
20〜40程度である。上記検出物体に対してワークメモリ
905(図9)内に、物体情報記憶領域を確保し、検出物
体位置、検出領域面積、状態変化、接続ポインタ集合を
格納する。図17は本発明における物体情報記憶領域に
格納された情報内容(リスト構造)の一例を示す図で、
オブジェクト(物体)の情報として、検出時刻,検出状
態(出現、単連結、結合,消滅,分離),検出位置・検
出領域面積・他データ(画素パターン等),確定した軌
跡,接続物体へのポインタ集合を格納している。なお状
態変化と接続ポインタ集合については、後述する。次
に、検出物体数変化算出ステップ104では、時刻t0にお
いて検出されたある検出物体の位置(重心)と時刻t0-
1と時刻t0+1の各検出物体の位置との距離を求める。こ
の距離が所定の値以下となる物体(接続可能物体)の数
を計数し、時刻t0の検出物体にたいし時刻t0-1で計数
した接続可能物体の数をNp、時刻t0+1で計数した接続
可能物体の数をNnとする。この処理を時刻t0において
検出された検出物体についてそれぞれ求める。尚、上記
“所定の値”とは、連続したフレームで検出された物体
を、同一物体である(同一物体として接続できる)可能
性があるとみなす距離のことであり、例えばこの“所定
の値”は監視対象物体の見かけの速度より大きく(2倍
程度)設定する。大きめに設定する理由は、追跡に用い
る検出物体の代表位置を重心とした場合、必ずしも検出
物体の一定の部位を示しているわけではないからであ
る。また、この“所定の値”が大きいと、連続するフレ
ーム間で正しく物体を接続できる確率が高くなるが、ノ
イズ等による検出部分を接続してしまう確率も高くな
り、後に続くステップの軌跡補正(分裂判定,分裂補
正)や軌跡推定が困難になる。逆にこの“所定の値”が
小さ過ぎると連続するフレームで同一物体の接続ができ
なくなる。実際の設定値は撮像条件、監視対象物体の移
動速度による。例えば、本発明の一例では“所定の値”
を“20”に設定した。このとき、1/2型CCD(素子の大
きさ 6.5mm×4.8mm),レンズの焦点距離 25mmを用
い、50m離れた撮像面に対して水平方向に移動する監視
対象物体(移動速度5km/h(1.4m/sec)を想定)を320×
240pix,0.3frames/secの画像で監視する場合、 水平方向の視野: 6.5mm/25mm×50m = 13.0m 見かけの速度 : 1.4m/sec×0.3sec/frame/13.0m×320
pix = 10.3pix/frame となり、接続可能とみなす距離は20pix程度となる。尚
また、上記時刻t0-1,時刻t0,時刻t0+1は、処理す
る画像を入力する時刻(時間間隔)であり、追跡対象の
移動物体が視野に入ってから出るまでに最低5フレーム
程度写るような時間間隔を設定する。この時間間隔の値
が低いと対象物体を追跡できるフレームが少なくなって
しまい、高精度の追跡ができない。この時間間隔の値
は、例えば前述の洋上の船の侵入を監視する1つの条件
では、2〜3 frames/secに設定した。
FIG. 1 is an example of a basic flowchart of the present invention. At time t0, in the image input step 101, for example, the number of pixels is 320 × 2
An input image signal 701 (FIG. 7) corresponding to 40 is obtained, and a difference is calculated for each pixel from a reference background image 702 (FIG. 7) in which an object to be detected is not registered in advance in a difference processing step 102, and a difference image is calculated. 703 (FIG. 7) is obtained. Next, in the binarization processing step 103, the threshold value processing of the difference image 703 (FIG. 7) is performed, and the luminance value of a portion equal to or greater than a preset threshold value is converted into “255” as an object to be detected. Then, the luminance value of a portion less than the threshold value is converted to “0” as a portion where no object to be detected exists, and the binary image 704 (FIG. 7)
Get. At this time, an area D01 having a luminance value of "255" is extracted by a method such as labeling, and is detected as a detection object at time t0, and the center of gravity of the detection area D01 is determined as the position of the detection object. The “preset threshold value” is a value for determining the presence or absence of an object with respect to a difference value between an input image and a background image, and is set to an empirical value depending on a monitoring target object. . For example, one condition for monitoring the intrusion of an offshore ship is
It is about 20-40. Work memory for the detected object
In 905 (FIG. 9), an object information storage area is secured, and a detected object position, a detection area area, a state change, and a connection pointer set are stored. FIG. 17 is a diagram showing an example of information contents (list structure) stored in the object information storage area according to the present invention.
Object (object) information includes detection time, detection state (appearance, single connection, combination, disappearance, separation), detection position, detection area area, other data (pixel pattern, etc.), determined trajectory, pointer to connected object Stores sets. The state change and the connection pointer set will be described later. Next, in the detected object number change calculation step 104, the position (center of gravity) of a certain detected object detected at the time t0 and the time t0−
The distance between 1 and the position of each detected object at time t0 + 1 is obtained. The number of objects (connectable objects) whose distance is equal to or less than a predetermined value is counted, and the number of connectable objects counted at time t0-1 with respect to the detected object at time t0 is counted at Np and at time t0 + 1. Let Nn be the number of connected connectable objects. This processing is obtained for each of the detected objects detected at time t0. Note that the “predetermined value” is a distance at which objects detected in consecutive frames are considered to be likely to be the same object (can be connected as the same object). "Is set to be larger (about twice) than the apparent speed of the monitoring target object. The reason for setting the size larger is that when the representative position of the detected object used for tracking is set as the center of gravity, it does not necessarily indicate a fixed part of the detected object. Also, if this "predetermined value" is large, the probability that an object can be correctly connected between consecutive frames increases, but the probability of connecting a detection portion due to noise or the like also increases. Division determination, division correction) and trajectory estimation become difficult. Conversely, if the "predetermined value" is too small, the same object cannot be connected in successive frames. The actual set value depends on the imaging condition and the moving speed of the monitoring target object. For example, in one example of the present invention, "predetermined value"
Was set to "20". At this time, using a 1 / 2-inch CCD (element size 6.5 mm x 4.8 mm) and a focal length of the lens of 25 mm, the monitoring target (moving speed 5 km / h) that moves horizontally to the imaging plane 50 m away (Assuming 1.4m / sec) 320x
When monitoring with 240pix, 0.3frames / sec image, horizontal field of view: 6.5mm / 25mm × 50m = 13.0m Apparent speed: 1.4m / sec × 0.3sec / frame / 13.0m × 320
pix = 10.3pix / frame, and the distance considered to be connectable is about 20pix. The time t0-1, time t0, and time t0 + 1 are times (time intervals) at which an image to be processed is input, and are at least about five frames from when the moving object to be tracked enters the field of view until it comes out. Set the time interval so that it appears. If the value of the time interval is low, the number of frames in which the target object can be tracked decreases, and high-precision tracking cannot be performed. The value of this time interval was set to 2-3 frames / sec, for example, under one condition for monitoring the intrusion of an offshore ship described above.

【0027】検出状態変化分類ステップ105では、注目
物体のNpとNnの値に応じて五つの検出状態を割り当て
る。 図10は、時刻t0のある検出物体に対するこの
五つの検出状態を説明する図である。図10において、
黒丸は検出物体の位置を表し、白丸は時刻t0-1または
時刻t0+1で接続可能物体が存在しなかったことを表
す。まずNp=0となる例1001は、時刻t0で検出された
ある物体C04が時刻t0-1では視野内に存在しなかった
ことを表し、以降この状態変化を「出現」と呼ぶ。Np
=1となる例1002は、時刻t0で検出されたある物体C0
5が時刻t0-1では物体C06であったことを表し、以降こ
の状態変化を「単連結」と呼ぶ。Np>1となる例1003
は、時刻t0で検出されたある物体C07が時刻t0-1では
物体C08と物体C09であった可能性があることを表す。
この例1003は、Np=2の例であり、Npが2以上の場合
にも適用できる。以降この状態変化を「結合」と呼ぶ。
Nn=0となる例1004は、時刻t0で検出されたある物体
C10が時刻t0+1では視野内から消えたことを表し、以
降この状態変化を「消滅」と呼ぶ。Nn>1となる例100
5は、時刻t0で検出されたある物体C11が時刻t0+1で
物体C12と物体C13になった可能性があることを表す。
この例1005は、Nn=2の例であり、Nnが2以上の場合
にも適用できる。以降この状態変化を「分離」と呼ぶ。
尚、これらの状態変化は2つ以上同時に起る場合もあ
る。次に接続情報作成ステップ106では、検出状態変化
分類ステップ105によって割り当てられた状態変化に対
して、ワークメモリ905(図9)内の物体情報記憶領域
の接続ポインタ集合を変更する。まず、例1002のように
「単連結」と判断された物体C05に対しては、該物体C
05の確定した軌跡を格納する領域に物体C06の検出位置
を加え、前記物体C05の接続ポインタ集合に前記物体C
06の物体情報記憶領域があるアドレスを加えると共に、
前記物体C06の接続ポインタ集合にワークメモリ905内
の前記物体C05の物体情報記憶領域があるアドレスを加
え、前記物体C06の接続可能物体へののポインタとして
指定する。次に、例1003のように「結合」と判断された
物体C07に対しては、該物体C07の確定した軌跡を格納
する領域に物体C08と物体C09の検出位置を加え、前記
物体C07の接続ポインタ集合にワークメモリ905内の前
記物体C08と前記物体C09の物体情報記憶領域があるア
ドレスを加えると共に、該前記物体C08と前記物体C09
のそれぞれの接続ポインタ集合に前記物体C07のワーク
メモリ905内の物体情報記憶領域があるアドレスを加
え、前記物体C08と前記物体C09の次のポインタとして
指定する。また例1005のように「分離」と判断された物
体C11に対しては、該物体C11の接続ポインタ集合に物
体C12と物体C13のワークメモリ905内の物体情報記憶
領域があるアドレスを加えると共に、前記物体C12と前
記物体C13のそれぞれの確定した軌跡を格納する領域に
前記物体C11の検出位置を加え、前記物体C11の物体情
報記憶領域があるアドレスを加える。つまり接続情報作
成ステップ106を行なうことで、今までに検出された各
物体のワークメモリ905内の物体情報記憶領域が接続ポ
インタ集合を介してリスト構造で接続され、各検出物体
に接続可能な検出物体を記憶することができる。
In the detection state change classification step 105, five detection states are assigned according to the values of Np and Nn of the target object. FIG. 10 is a diagram illustrating these five detection states for a certain detection object at time t0. In FIG.
The black circle represents the position of the detected object, and the white circle represents that there was no connectable object at time t0-1 or time t0 + 1. First, an example 1001 in which Np = 0 indicates that a certain object C04 detected at time t0 was not present in the visual field at time t0-1. Hereinafter, this state change is referred to as "appearance". Np
= 1, an example 1002 is a certain object C0 detected at time t0.
5 indicates that the object was the object C06 at the time t0-1, and this state change is hereinafter referred to as "simple connection". Example where Np> 1 1003
Indicates that an object C07 detected at time t0 may have been an object C08 and an object C09 at time t0-1.
This example 1003 is an example where Np = 2, and can be applied to the case where Np is 2 or more. Hereinafter, this state change is referred to as “connection”.
An example 1004 in which Nn = 0 indicates that a certain object C10 detected at time t0 has disappeared from the visual field at time t0 + 1, and this state change is hereinafter referred to as "extinction". Example 100 where Nn> 1
5 indicates that an object C11 detected at time t0 may have become an object C12 and an object C13 at time t0 + 1.
This example 1005 is an example where Nn = 2, and can be applied to the case where Nn is 2 or more. Hereinafter, this state change is referred to as “separation”.
Note that two or more of these state changes may occur simultaneously. Next, in the connection information creation step 106, the connection pointer set of the object information storage area in the work memory 905 (FIG. 9) is changed in response to the state change assigned in the detection state change classification step 105. First, for the object C05 determined to be “simple connection” as in Example 1002,
The detected position of the object C06 is added to the area where the determined trajectory of the object C05 is stored, and the object C05 is added to the connection pointer set of the object C05.
While adding the address where the object information storage area of 06 is,
The address at which the object information storage area of the object C05 in the work memory 905 is located is added to the set of connection pointers of the object C06, and designated as a pointer to a connectable object of the object C06. Next, for the object C07 determined to be “combined” as in Example 1003, the detection positions of the objects C08 and C09 are added to the area storing the determined trajectory of the object C07, and the connection of the object C07 is added. The addresses of the object information storage areas of the object C08 and the object C09 in the work memory 905 are added to the pointer set, and the object C08 and the object C09 are added.
The address at which the object information storage area in the work memory 905 of the object C07 is located is added to each set of connection pointers of the object C07, and designated as the next pointer of the object C08 and the object C09. Further, for the object C11 determined to be "separated" as in Example 1005, the address of the object information storage area in the work memory 905 of the object C12 and the object C13 is added to the connection pointer set of the object C11, The detected position of the object C11 is added to the area for storing the determined trajectories of the object C12 and the object C13, and the address of the object information storage area of the object C11 is added. In other words, by performing the connection information creation step 106, the object information storage areas in the work memory 905 of each object detected so far are connected in a list structure via a set of connection pointers, and the detection that can be connected to each detected object is performed. Objects can be stored.

【0028】次に、物体情報記憶領域のリスト構造を図
11と図12を用いて説明する。図11は時刻t0から
時刻t0+4の間に検出した物体の状態を説明する図で、
図12は図11の検出物体のリスト構造を接続構造図と
して表したものである。この図11と図12において、
黒丸は検出物体の位置または検出物体であることを示す
だけのものであって、検出された2値化画像の領域面積
を表すものではない。図11において、時刻t0から時
刻t0+4の間に検出した物体の位置が黒丸で示すように
なっている場合、前述の検出物体数変化算出ステップ10
4及び、検出状態変化分類ステップ105並びに、接続情報
作成ステップ106により各物体の物体情報記憶領域は図
12のように連結された接続構造となる。例えば、図1
1の時刻t0+2の物体C19に注目すると、その直後の時
刻t0+3に検出された物体はC16,C20,C21である。
ここで該3つの物体C16,C20,C21と前記物体C19と
の距離を求めると、前記物体C19と前記物体C16との距
離が所定値以上となるので除外され、前述の検出物体数
変化算出ステップ104によって前記物体C20と前記C21
は物体C19の接続可能物体と判定され、検出状態変化分
類ステップ105によって前記時刻t0+2の物体C19と物体
C20,C21は「分離」という状態変化に分類される。一
方同じ時刻t0+2の物体C15も上記と同様の方法によ
り、距離が所定値以内の物体C16と「単連結」という状
態変化に分類される。次に軌跡推定ステップ113では、
物体情報記憶領域内に記憶されている物体の検出位置の
変化を接続ポインタを遡って行い、物体の軌跡を推定す
る。例えば、図12中の物体C22は、物体C20,C19,
C18,C17の順で遡ることができ、物体C22の軌跡は、
物体C17,C18,C19,C20,C22の検出位置を通った
ものと推定することができる。次に異常判定ステップ10
8では、軌跡推定ステップ107で得られた物体の軌跡を時
間と移動距離によって評価する。例えば、停止車輌の有
無の判定を行なう場合、所定時間内の物体の軌跡が所定
範囲内に収まるか否かを評価し、所定範囲を越えている
(移動距離が大)場合は画像入力ステップ101に戻り、
所定範囲内に収まっている(移動距離が小)場合は停止
車輌と判断し警報・モニタ表示ステップ109に進む。該
警報・モニタ表示ステップ109では出力I/F908(図
9)と画像出力I/F909(図9)に指令を送る。これ
を受けて、前記出力I/F908(図9)は警告灯910(図
9)に異常を示す発光をさせ、前記画像出力I/F909
(図9)は異常状態を監視モニタ911に表示させる。こ
の実施例によれば、検出状態の変化から物体の分裂や結
合を検出しながら物体を追跡することができる。
Next, the list structure of the object information storage area will be described with reference to FIGS. FIG. 11 is a diagram illustrating the state of the object detected between time t0 and time t0 + 4.
FIG. 12 illustrates a list structure of the detected objects in FIG. 11 as a connection structure diagram. In FIGS. 11 and 12,
The black circles only indicate the position of the detected object or the detected object, but do not indicate the area of the detected binary image. In FIG. 11, when the position of the object detected between time t0 and time t0 + 4 is indicated by a black circle, the above-described detected object number change calculation step 10 is performed.
The object information storage area of each object has a connection structure as shown in FIG. 12 by the detection state change classification step 105 and the connection information creation step 106. For example, FIG.
Paying attention to the object C19 at time t0 + 2 of No. 1, the objects detected at time t0 + 3 immediately after that are C16, C20, and C21.
Here, when the distance between the three objects C16, C20, C21 and the object C19 is obtained, the distance between the object C19 and the object C16 becomes a predetermined value or more and is excluded. 104, the objects C20 and C21
Is determined as a connectable object of the object C19, and the object C19 and the objects C20 and C21 at the time t0 + 2 are classified into a state change of "separation" in the detection state change classification step 105. On the other hand, the object C15 at the same time t0 + 2 is also classified into a state change of "simple connection" with the object C16 whose distance is within the predetermined value by the same method as described above. Next, in trajectory estimation step 113,
The change of the detected position of the object stored in the object information storage area is performed by going back to the connection pointer, and the trajectory of the object is estimated. For example, the object C22 in FIG.
The trace of the object C22 can be traced back in the order of C18 and C17.
It can be estimated that the object has passed the detection positions of the objects C17, C18, C19, C20, and C22. Next, abnormality judgment step 10
In step 8, the trajectory of the object obtained in the trajectory estimation step 107 is evaluated based on time and moving distance. For example, when determining the presence or absence of a stopped vehicle, it is evaluated whether or not the trajectory of the object within a predetermined time falls within a predetermined range. If the trajectory exceeds the predetermined range (the moving distance is large), the image input step 101 is performed. Back to
If it is within the predetermined range (the moving distance is short), it is determined that the vehicle is stopped and the process proceeds to the alarm / monitor display step 109. In the alarm / monitor display step 109, a command is sent to the output I / F 908 (FIG. 9) and the image output I / F 909 (FIG. 9). In response, the output I / F 908 (FIG. 9) causes the warning light 910 (FIG. 9) to emit light indicating an abnormality, and the image output I / F 909 (FIG. 9).
(FIG. 9) displays an abnormal state on the monitor 911. According to this embodiment, the object can be tracked while detecting the fragmentation or coupling of the object from the change in the detection state.

【0029】前述の停車車両を故障したための停車と判
断する時間(所定時間)は、例えば5秒(5sec)に設定
すると、5秒停止していればその停車車両を故障車両と
判断する。また、前述の移動距離が小である所定範囲
(停止とみなす最大移動距離)は、例えば対象物体の見
かけに大きさに設定する。これは、検出処理では対象物
体の重心を代表位置として用いており、検出状態によっ
ては代表位置が車両の前部になったり後部になったりし
て、対象物体の位置が常に一定の位置を示さないためで
ある。
If the time (predetermined time) for determining that the stopped vehicle has stopped due to a failure is set to, for example, 5 seconds (5 seconds), if the vehicle has stopped for 5 seconds, the stopped vehicle is determined to be a failed vehicle. In addition, the above-described predetermined range in which the moving distance is small (the maximum moving distance regarded as stopping) is set to, for example, the apparent size of the target object. This is because the center of gravity of the target object is used as the representative position in the detection process, and the representative position may be located at the front or rear of the vehicle depending on the detection state, and the position of the target object always indicates a fixed position. Because there is no.

【0030】実際の設定値は撮像条件、監視対象物体の
大きさによる。例えば、本発明の一例では“所定の範
囲”を“40×25 pix”の矩形範囲に設定し、軌跡の位置
変化がこの範囲内に収まる場合に停止車両と判定した。
このとき、1/2型CCD(素子の大きさ 6.5mm×4.8mm),
レンズの焦点距離 25mmを用い、200m離れた撮像面に対
して水平方向に移動する監視対象物体(大きさ 6.0mm×
4.8mmを想定)を320×240pix,0.3frames/secの画像で
監視する場合、対象物体の水平方向の見かけの大きさ
は、 水平方向の視野: 6.5mm/25mm×200m = 52.0m 見かけの大きさ: 6.0m/52.0m×320pix = 36.9pix となる。
The actual set value depends on the imaging conditions and the size of the monitored object. For example, in one example of the present invention, the “predetermined range” is set to a rectangular range of “40 × 25 pix”, and when the position change of the trajectory falls within this range, it is determined that the vehicle is stopped.
At this time, 1/2 inch CCD (element size 6.5mm × 4.8mm),
Using a lens focal length of 25mm, the monitored object (horizontal size 6.0mm ×
4.8 mm) is monitored by 320 × 240 pix, 0.3 frames / sec image, the apparent size of the target object in the horizontal direction is the horizontal field of view: 6.5 mm / 25 mm × 200 m = 52.0 m The apparent size So: 6.0m / 52.0m × 320pix = 36.9pix.

【0031】また、図12の物体C14,物体C15,物体C1
6は一つの接続ポインタ集合であり、図10の分類によ
れば「単連結」の状態変化を示している。この軌跡の判
定方法を図18によって説明する。図18は本発明にお
ける単連結の状態変化を起こしている物体の軌跡判定と
補正後のリスト構造の一例を示す図で、図12の物体C
14が単連結の状態変化を起こした場合の例である。今ま
でリスト構造で接続されていた物体C15の検出位置を物
体C14の確定した軌跡を格納する領域に追加し、更に、
物体C15を指していた物体C14のポインタを物体C16を
指すようにに変更し、最後に物体C15の接続情報を削除
している。
The objects C14, C15, and C1 shown in FIG.
Reference numeral 6 denotes one connection pointer set, which indicates a state change of "single connection" according to the classification of FIG. The method of determining the trajectory will be described with reference to FIG. FIG. 18 is a diagram showing an example of a list structure after trajectory determination and correction of an object having a single connection state change according to the present invention.
Reference numeral 14 denotes an example in which a single connection state change has occurred. The detection position of the object C15, which has been connected in a list structure, is added to the area for storing the determined trajectory of the object C14.
The pointer of the object C14 pointing to the object C15 is changed to point to the object C16, and finally the connection information of the object C15 is deleted.

【0032】ここで、異常を表す表示として警告灯によ
る発光を例に挙げたが、光だけではなく、音や振動また
はそれらの組み合せ等、オペレータあるいは犬などの補
助生物が感知する手段であればなんでもよいことは自明
である。
Here, light emission by a warning light has been described as an example of a display indicating an abnormality. However, not only light but also means such as sound, vibration, or a combination thereof that can be sensed by an assisting organism such as an operator or a dog. It is obvious that anything is possible.

【0033】本発明の他の実施例について、図2,図1
3,図14を用いて説明する。この実施例はTVカメラ
に写った一つの物体が分裂して複数の物体として検出さ
れた場合でも、これを補正しながら追跡を行なうもので
ある。この実施例をフローチャートで表すと、図2のよ
うになる。このフローチャートは、図1の実施例に分裂
判定ステップ110と分裂補正ステップ111を追加したもの
である。分裂判定ステップ110では、接続情報作成ステ
ップ106によって得られたリスト構造の状態変化から検
出物体が分裂して見えたか否かを判定する。これを図1
3と図14を用いて説明する。図13は時刻t0から時
刻t0+1,‥‥,時刻t1-1から時刻t1の間に検出した
物体の分裂補正を行なう前の検出物体のリスト構造を接
続構造図として表した図で、図14は図13の検出物体
の分裂補正を行なった後を接続構造図として表したもの
である。この図13と図14において、黒丸は検出物体
の位置または検出物体であることを示すだけのものであ
って、検出された2値化画像の領域面積を表すものでは
ない。図13において物体C23は、時刻t0では前述の
状態変化の一つである「分離」の状態変化をし、物体C
23から時刻t1まで状態変化を繰り返して、時刻t1では
物体C28で「結合」の状態変化をしている。分裂判定ス
テップ110では、この時刻t0の物体C23とリスト構造に
より接続される時刻t0+1の物体C24と物体C25につい
て、該物体C24と物体C25との距離が所定の物体の最大
の大きさ以下で、かつ、前記物体C24と物体C25の領域
面積の和が物体C23の領域面積以下となる場合、およ
び、時刻t1の物体C28とリスト構造により接続される
時刻t1-1の物体C26と物体C27について、該物体C26
と物体C27との距離が所定の物体の最大の大きさ以下
で、かつ、前記物体C26と物体C27の領域面積の和が前
記物体C28の領域面積以下となる場合、物体C23,C2
4,C25,‥‥,C26,C27,C28を「分裂」と判定す
る。即ち、この時刻t0での一つの物体C23が何らかの
影響で時刻t0+1と時刻t1-1との間で二つの物体に分離
して検出され、時刻t1で物体C28として一つの物体に
戻って検出されたと推定する。尚、上記“所定の物体の
最大の大きさ”は停止車両の判定に関連して説明した
“所定範囲”の設定と同様、対象物体の見かけの大きさ
に設定すればよい。その設定値は上記と同様に撮影条件
と対象物体の大きさによる。
FIGS. 2 and 1 show another embodiment of the present invention.
3, and will be described with reference to FIG. In this embodiment, even when one object captured by the TV camera is divided and detected as a plurality of objects, the tracking is performed while correcting the correction. FIG. 2 is a flowchart of this embodiment. This flowchart is obtained by adding a division determination step 110 and a division correction step 111 to the embodiment of FIG. In the division determination step 110, it is determined from the state change of the list structure obtained in the connection information creation step 106 whether or not the detected object has appeared to be divided. Figure 1
3 and FIG. FIG. 13 is a diagram showing, as a connection structure diagram, a list structure of the detected objects before performing the division correction of the objects detected between time t0 and time t0 + 1, ‥‥, and time t1-1 and time t1. 14 shows a connection structure diagram after the splitting correction of the detected object in FIG. 13 is performed. In FIGS. 13 and 14, the black circles indicate only the position of the detected object or the detected object, and do not indicate the area of the detected binary image. In FIG. 13, at time t0, the object C23 undergoes a state change of "separation", which is one of the state changes described above, and the object C23
The state change is repeated from 23 to time t1, and at time t1, the object C28 changes the state of "combined". In the division determination step 110, the distance between the object C24 and the object C25 at the time t0 + 1 connected to the object C23 at the time t0 and the object C24 at the time t0 + 1 is equal to or smaller than the maximum size of the predetermined object. And the sum of the area areas of the object C24 and the object C25 is equal to or less than the area area of the object C23, and the objects C26 and C27 at the time t1-1 connected to the object C28 at the time t1 by the list structure. About the object C26
When the distance between the object C27 and the object C27 is equal to or less than the maximum size of the predetermined object and the sum of the area areas of the object C26 and the object C27 is equal to or less than the area area of the object C28, the objects C23 and C2
4, C25, .DELTA., C26, C27, C28 are determined to be "split". That is, one object C23 at the time t0 is separated into two objects between the time t0 + 1 and the time t1-1 due to some influence, and returns to the one object as the object C28 at the time t1. Presumably detected. Note that the “maximum size of the predetermined object” may be set to the apparent size of the target object, similarly to the setting of the “predetermined range” described in relation to the determination of the stopped vehicle. The set value depends on the photographing conditions and the size of the target object in the same manner as described above.

【0034】次に分裂補正ステップ111では、ワークメ
モリ905内に時刻t0+1で検出された物体として新たに物
体C29と物体C30の物体情報記憶領域を作成し、物体C
29の検出位置を物体C24と物体C25の検出位置の面積に
よる加重平均とし、物体C29の領域面積は物体C24と物体
C25の領域面積の和とし、物体C30の検出位置を物体C26
と物体C27の面積による加重平均とし、物体C30の領域
面積は物体C26と物体C27の領域面積の和とし、物体C
29の状態変化を「単連結」とし、物体C23の接続ポイン
タ集合から物体C24と物体C25のワークメモリ905内の
物体情報記憶領域があるアドレスを削除し、物体C23の
接続ポインタ集合に物体C29のワークメモリ905内の物
体情報記憶領域があるアドレスを追加する。同様に時刻
t0+1から時刻t1-1までの各時刻に対しても新たにワー
クメモリ905内に物体情報記憶領域を作成する。そし
て、物体C23と物体C28の検出状態を「単連結」に変更
する。これにより、時刻t0+1から時刻t1-1までの分裂
と判定された物体の物体情報記憶領域及びリンク構造を
正確に補正することができる。この実施例によれば、一
つの物体が分裂を起こして複数の物体として検出された
場合でも、これを補正し正確な物体追跡を行うことがで
きる。
Next, in the division correction step 111, object information storage areas of the objects C29 and C30 are newly created in the work memory 905 as objects detected at time t0 + 1,
The detection position of 29 is a weighted average based on the area of the detection positions of the object C24 and the object C25, and the area area of the object C29 is
Let the detection position of object C30 be the sum of the area areas of C25 and object C26
And the area of the object C27, and the area area of the object C30 is the sum of the area areas of the object C26 and the object C27.
The state change of the object C23 is set to “simple connection”, the address where the object information storage area in the work memory 905 of the object C24 and the object C25 is deleted from the connection pointer set of the object C23, and the connection pointer set of the object C23 is deleted from the connection pointer set of the object C23. An address where the object information storage area in the work memory 905 is located is added. Similarly, an object information storage area is newly created in the work memory 905 for each time from time t0 + 1 to time t1-1. Then, the detection state of the objects C23 and C28 is changed to "simple connection". As a result, the object information storage area and the link structure of the object determined to be divided from time t0 + 1 to time t1-1 can be accurately corrected. According to this embodiment, even when one object is split and detected as a plurality of objects, this can be corrected and accurate object tracking can be performed.

【0035】次に、本発明の他の実施例について図3,
図15,図16を用いて説明する。この実施例はTVカ
メラに写った複数の物体が連結して一つの物体として検
出された場合でも、これを補正しながら追跡を行なうも
のである。この実施例をフローチャートで表すと図3の
ようになる。図3のフローチャートは、図1の実施例に
連結判定ステップ112と連結補正ステップ113を追加した
ものである。連結判定ステップ112では、連結情報作成
ステップ106によって得られたリスト構造の状態変化か
ら検出物体が連結して見えたか否かを判定する。図15
は時刻t0-1から時刻t0,‥‥,時刻t1から時刻t1+1
の間に検出した物体の連結補正を行なう前の検出物体の
リスト構造を接続構造図として表した図で、図16は図
15の検出物体の連結補正を行なった後を接続構造図と
して表したものである。この図15と図16において、
黒丸は検出物体の位置または検出物体であることを示す
だけのものであって、検出された2値化画像の領域面積
を表すものではない。図15において、物体C33は時刻
t0では前述の状態変化の一つである「結合」の状態変
化をし、物体C33から時刻t1まで状態変化を繰り返し
て、時刻t1では物体C34で「分離」の状態変化をして
いる。連結判定ステップ112では、時刻t0の物体C33と
リスト構造により接続される時刻t0-1の物体C31と物
体C32について、該物体C31と物体C32との距離が所定
の物体の最大の大きさ以下で、かつ、前記物体C33の領
域面積が前記物体C31と物体C32の領域面積の和以下と
なる場合、および、時刻t1の物体C34とリスト構造に
より接続される時刻t1+1の物体C35と物体C36につい
て、該物体C35と物体C36との距離が所定の物体の最大
の大きさ以下で、かつ、物体C34の領域面積が前記物体
C35と物体C36の領域面積の和以下となる場合、物体C
31,C32,C33,‥‥,C34,C35,C36を「連結」と
判定する。即ち、この時刻t1-1での二つの物体C31と
物体C32とが何らかの影響で時刻t0と時刻t1との間で
一つの物体に結合して検出され、時刻t1+1で物体C28
として二つの物体に戻って検出されたと推定する。
Next, another embodiment of the present invention will be described with reference to FIGS.
This will be described with reference to FIGS. In this embodiment, even when a plurality of objects captured by a TV camera are connected and detected as one object, tracking is performed while correcting this. FIG. 3 is a flowchart of this embodiment. The flowchart of FIG. 3 is obtained by adding a connection determination step 112 and a connection correction step 113 to the embodiment of FIG. In the connection determination step 112, it is determined from the state change of the list structure obtained in the connection information creation step 106 whether or not the detected objects are viewed as being connected. FIG.
Are time t0-1 to time t0, ‥‥, and time t1 to time t1 + 1
FIG. 16 is a connection structure diagram showing a list structure of detected objects before performing connection correction of the objects detected during the period, and FIG. 16 is a connection structure diagram after connection correction of the detected objects of FIG. 15 is performed. Things. In FIGS. 15 and 16,
The black circles only indicate the position of the detected object or the detected object, but do not indicate the area of the detected binary image. In FIG. 15, at time t0, the object C33 changes the state of “combination”, which is one of the state changes described above, and repeats the state change from the object C33 to time t1. The state is changing. In the connection determination step 112, for the object C31 and the object C32 at the time t0-1 connected to the object C33 at the time t0 by the list structure, the distance between the object C31 and the object C32 is equal to or smaller than the maximum size of the predetermined object. When the area of the object C33 is equal to or less than the sum of the areas of the objects C31 and C32, and the objects C35 and C36 at time t1 + 1 connected to the object C34 at time t1 by a list structure. When the distance between the object C35 and the object C36 is equal to or less than the maximum size of the predetermined object and the area of the object C34 is equal to or less than the sum of the area areas of the objects C35 and C36, the object C
31, C32, C33,..., C34, C35, C36 are determined to be "connected". That is, the two objects C31 and C32 at the time t1-1 are combined with one object between the times t0 and t1 due to some influence, and the object C28 is detected at the time t1 + 1.
Is assumed to have been detected by returning to two objects.

【0036】次に連結補正ステップ113では、物体C31
の時刻t0-Nから時刻t0-1までの軌跡の平均移動ベクト
ルV03と、物体C32の時刻t0-Nから時刻t0-1までの軌
跡の平均移動ベクトルV04と、物体C35の時刻t1+1か
ら時刻t1+Nまでの軌跡の平均移動ベクトルV05と、物
体C36の時刻t1+1から時刻t1+Nまでの軌跡の平均移動
ベクトルV06を求める。移動ベクトルvは、軌跡が(x
1,y1)、(x2,y2)、…(xN,yN)と変化した場合
は、
Next, in the connection correction step 113, the object C31
Of the trajectory from time t0-N to time t0-1 of the object C32, the average trajectory vector V04 of the trajectory of the object C32 from time t0-N to time t0-1, and the time t1 + 1 of the object C35 An average movement vector V05 of the trajectory from time t1 + N to time t1 and an average movement vector V06 of the trajectory of the object C36 from time t1 + 1 to time t1 + N are obtained. The movement vector v has a locus (x
1, y1), (x2, y2), ... (xN, yN)

【0037】[0037]

【数2】 (Equation 2)

【0038】として計算する。尚、Nは平均ベクトルを
求める際に使用するフレーム数を指定するもので、本発
明の一例ではN=5に設定した。計算した平均移動ベクト
ルから、V03とV05,V03とV06,V04とV05,V04と
V06のベクトルのなす角をそれぞれ計算し、その中で最
も小さい角度の組み合わせを連結候補とする。更に前記
の連結候補とした組み合わせを除いたベクトルのなす角
の中から最も小さい角度の組み合わせを更に連結候補と
する。この処理を移動ベクトルの組がなくなるまで行な
う。移動ベクトルv1=(x1,y1)とv2=(x2,y2)
のなす角θは、
Is calculated. Note that N designates the number of frames used when obtaining the average vector, and N is set to 5 in one example of the present invention. From the calculated average movement vectors, the angles formed by the vectors V03 and V05, V03 and V06, V04 and V05, and V04 and V06 are calculated, and the combination of the smallest angle among them is set as a candidate for connection. Furthermore, the combination of the smallest angle among the angles formed by the vectors excluding the combination as the connection candidate is further set as the connection candidate. This process is repeated until there are no more moving vector sets. Moving vector v1 = (x1, y1) and v2 = (x2, y2)
Angle θ is

【0039】[0039]

【数3】 (Equation 3)

【0040】として計算する。図16の例では、平均移
動ベクトルV03とV05,V04とV06の組み合わせになっ
たとしている。連結補正ステップ113では更に、時刻t0
から時刻t1までの各時刻で検出された物体として新た
に物体C37,C38,‥‥,C39,C40の物体情報記憶領
域を作成し、物体C37と物体C38の検出位置を物体C33
の検出位置にし、物体C39と物体C40の検出位置を物体
C34の検出位置にする。更に、物体C37と物体C38の領
域面積を物体C33の領域面積の半分の値とし、物体C39
と物体C40の領域面積を物体C34の領域面積の半分の値
とする。また、物体C31,物体C37,‥‥‥,物体C39の
状態変化と物体C32,物体C38,‥‥‥,物体C40の状態
変化とを「単連結」とする。これにより、時刻t0から
時刻t1までの連結と判定された物体の物体情報記憶領
域及びリスト構造を正確に補正することができる。この
実施例によれば、複数の物体が連結を起こして一つの物
体として検出された場合でも、これを補正し正確な物体
追跡を行うことができる。
Is calculated. In the example of FIG. 16, it is assumed that a combination of the average movement vectors V03 and V05 and V04 and V06 is obtained. In the connection correction step 113, the time t0
The object information storage areas of the objects C37, C38,..., C39, and C40 are newly created as the objects detected at each time from the time t1 to the time t1, and the detection positions of the objects C37 and C38 are set to the object C33.
And the detection positions of the objects C39 and C40 are set as the detection positions of the object C34. Further, the area of the object C37 and the area of the object C38 are set to half the area of the area of the object C33.
And the area area of the object C40 is set to half the area area of the object C34. The state change of the object C31, the object C37, ‥‥‥, and the object C39 and the state change of the object C32, the object C38, ‥‥‥, and the object C40 are “simple connection”. As a result, the object information storage area and the list structure of the object determined to be connected from the time t0 to the time t1 can be accurately corrected. According to this embodiment, even when a plurality of objects are linked and detected as one object, this can be corrected and accurate object tracking can be performed.

【0041】次に、本発明の他の実施例について図4の
フローチャートを用いて説明する。この図4の実施例
は、図2の実施例に分裂補正再帰判定ステップ114を追
加したものである。この分裂補正再帰判定ステップ114
は分裂補正が行なわれたか否を判定し、分裂補正が行な
われたときには分裂判定ステップ110へ戻り、分裂補正
後の新しい接続情報に基づいて再度分裂補正を行う。ま
た、分裂補正が行なわれなかった場合には軌跡推定ステ
ップ107へ進む。この実施例によれば、複数の物体が二
重三重に分裂を起こして複数の物体として検出された場
合、分裂補正を行なえる限り補正することができるため
より正確な物体追跡を行なうことができる。
Next, another embodiment of the present invention will be described with reference to the flowchart of FIG. The embodiment shown in FIG. 4 is obtained by adding a division correction recursive determination step 114 to the embodiment shown in FIG. This division correction recursion determination step 114
Determines whether the splitting correction has been performed, and when the splitting correction has been performed, returns to the splitting determination step 110, and performs the splitting correction again based on the new connection information after the splitting correction. If the division correction has not been performed, the process proceeds to the trajectory estimation step 107. According to this embodiment, when a plurality of objects are split and double-triple and detected as a plurality of objects, correction can be made as long as split correction can be performed, so that more accurate object tracking can be performed. .

【0042】次に、本発明の他の実施例について図5の
フローチャートを用いて説明する。この図5の実施例
は、図3の実施例に連結補正再帰判定ステップ115を追
加したものである。この連結補正再帰判定ステップ115
は連結が行なわれたか否かを判定し、連結補正後の新し
い接続情報に基づいて再度連結補正を行う。また、連結
補正が行なわれなかった場合には軌跡推定ステップ107
へ進む。この実施例によれば、複数の物体が二重三重に
連結を起こして検出された場合でも、連結補正がおこな
える限り補正することができるためより正確な物体追跡
を行なうことができる。
Next, another embodiment of the present invention will be described with reference to the flowchart of FIG. The embodiment of FIG. 5 is obtained by adding a connection correction recursion determination step 115 to the embodiment of FIG. This connection correction recursion determination step 115
Determines whether or not the connection has been made, and performs the connection correction again based on the new connection information after the connection correction. If the connection correction has not been performed, the trajectory estimation step 107
Proceed to. According to this embodiment, even when a plurality of objects are detected due to double and triple connection, correction can be made as long as connection correction can be performed, so that more accurate object tracking can be performed.

【0043】次に、本発明の他の実施例について図6を
用いて説明する。この実施例は、図4と図5で表された
実施例の分裂判定ステップ110,分裂補正ステップ111,
分裂補正再帰判定ステップ114,連結判定ステップ112,
連結補正ステップ113及び連結補正再帰判定ステップ115
を組み合わせて構成したもので、分裂補正再帰判定ステ
ップ114と連結補正再帰判定ステップ115をまとめ合わせ
補正再帰判定ステップ116としてある。図6のフローチ
ャートにおいて、補正再帰判定ステップ116によって少
なくとも分裂補正または連結補正のどちらかが行なわれ
たか否かを判定し、補正が行なわれたときには分裂判定
ステップ110に戻り、補正後の新しい接続情報に基づい
て再度分裂補正または連結補正を行う。また、分裂補正
と連結補正が行なわれなかったときには軌跡推定ステッ
プ107に進む。この実施例によれば、分裂や連結といっ
た現象が同時にかつ二重三重に生じた場合でも、これら
を補正することができるためより正確な物体追跡を行な
うことができる。
Next, another embodiment of the present invention will be described with reference to FIG. This embodiment is different from the embodiment shown in FIGS. 4 and 5 in the division determination step 110, the division correction step 111,
Split correction recursion determination step 114, connection determination step 112,
Connection correction step 113 and connection correction recursion determination step 115
Are combined, and the split correction recursion determination step 114 and the connection correction recursion determination step 115 are combined into a correction recursion determination step 116. In the flowchart of FIG. 6, it is determined whether at least either the splitting correction or the connection correction has been performed in the correction recursion determination step 116, and if the correction has been performed, the process returns to the split determination step 110, and the corrected new connection information The division correction or the concatenation correction is performed again based on. When the division correction and the connection correction are not performed, the process proceeds to the trajectory estimation step 107. According to this embodiment, even when phenomena such as splitting and connection occur simultaneously and double and triple, these can be corrected, so that more accurate object tracking can be performed.

【0044】図19,図20および図21の接続構造図
によって、上記補正再帰判定ステップ116が必要となる
例を説明する。この図19から図21において、黒丸は
検出物体の位置または検出物体であることを示すだけの
ものであって、検出された2値化画像の領域面積を表す
ものではない。図19において、物体C50が物体C51と
物体C52に分離して物体C59で結合し、その途中の物体
C54で別の物体C71からの結合を生じ、次の物体C56で
物体C58とC74に分離している。図20は、図19の接
続構造について連結補正を行なった後の接続構造を示す
図で、算出した移動ベクトルから、物体C54は物体C84
と物体C72に補正され、物体C56は物体C85と物体C73
に補正される。この場合次に、物体C49から物体C60ま
での接続について分裂補正を行う必要がある。従って、
図6の補正再帰判定ステップ116によって分裂判定ステ
ップ110に戻り補正を繰り返す必要がある。図21は補
正再帰判定ステップ116を通過後に分裂判定ステップ110
に戻って、分裂補正ステップ113にて分裂補正を行なっ
た後の接続構造を示す。分裂補正ステップ113によっ
て、物体C51,C52,C53,C84,C55,C85,C57,C58が物
体C80,C81,C82,C83に補正される。
An example in which the correction recursion determination step 116 is required will be described with reference to the connection structure diagrams of FIGS. 19, 20 and 21. In FIGS. 19 to 21, black circles only indicate the position of the detected object or the detected object, and do not indicate the area of the area of the detected binarized image. In FIG. 19, an object C50 is separated into an object C51 and an object C52 and connected by an object C59, a connection from another object C71 occurs at an intermediate object C54, and is separated into objects C58 and C74 by a next object C56. ing. FIG. 20 is a diagram showing the connection structure after performing the connection correction for the connection structure of FIG. 19, and the object C54 is converted to the object C84 from the calculated movement vector.
And the object C72, and the object C56 is the object C85 and the object C73.
Is corrected to In this case, next, it is necessary to perform split correction on the connection from the object C49 to the object C60. Therefore,
It is necessary to return to the division determination step 110 by the correction recursion determination step 116 of FIG. 6 and repeat the correction. FIG. 21 shows a division determination step 110 after passing through the correction recursion determination step 116.
Returning to FIG. 7, the connection structure after the division correction in the division correction step 113 is shown. In the division correction step 113, the objects C51, C52, C53, C84, C55, C85, C57, and C58 are corrected to the objects C80, C81, C82, and C83.

【0045】次に、本発明の他の実施例について説明す
る。この実施例は、図3,図5または図6で示されてい
る発明において、接続情報ステップ106でオブジェクト
(物体)の情報として、検出物体の画像パターンも記憶
するようにし、連結補正ステップ113において該画像パ
ターンのパターンマッチングによる類似度に基いて連結
して検出された物体の補正を行うものである。尚前記パ
ターンマッチング法は、例えば田村秀行監修「コンピュ
ータ画像処理入門」総合出版(株)、1987、pp.148-1
53に記載されている。連結補正ステップ113では、図1
5における物体C31とC35、物体C31とC36、物体C32とC3
5、物体C32とC36のマッチングを行い、それぞれの画像
パターンの類似度を計算し、その中で最も高い類似度を
持つ組合せを連結候補とする。この処理を画像パターン
すべてについて行う。先の実施例と同様に、図16の例
では物体C31とC35、物体C32とC36の組合わせを連結候補
とし、続く連結補正ステップ113では、時刻t0から時刻
t1までの各時刻で検出された物体として、新たに物体C
37,C38,…,C39,C40の物体情報記憶領域を作成し、
物体C37と物体C38の検出位置を物体C33の検出位置に
し、物体C39と物体C40の検出位置を物体C34の検出位置
にする。更に、物体C37と物体C38の領域面積を物体C33
の領域面積の半分の値とし、物体C39と物体C40の領域
面積を物体C34の領域面積の半分の値とする。これによ
り、時刻t0から時刻t1までの連結と判定された物体の
物体情報記憶領域及びリスト構造を正確に補正すること
ができる。この実施例によれば、複数の物体が連結を起
こして一つの物体として検出された場合でも、これを補
正し正確な物体追跡を行うことができる。
Next, another embodiment of the present invention will be described. This embodiment is different from the invention shown in FIG. 3, FIG. 5 or FIG. 6 in that an image pattern of a detected object is also stored as information of an object in the connection information step 106, and a connection correction step 113 is performed. The correction of the object detected by the connection based on the similarity by the pattern matching of the image pattern is performed. The pattern matching method is described in, for example, “Introduction to Computer Image Processing” supervised by Hideyuki Tamura, Sogo Shuppan, 1987, pp. 148-1.
53. In the connection correction step 113, FIG.
Objects C31 and C35, Objects C31 and C36, Objects C32 and C3 in 5
5. Match the objects C32 and C36, calculate the similarity between the respective image patterns, and select the combination having the highest similarity among them as a connection candidate. This process is performed for all the image patterns. As in the previous embodiment, in the example of FIG. 16, the combination of the objects C31 and C35 and the combination of the objects C32 and C36 are set as connection candidates, and in the subsequent connection correction step 113, detection is performed at each time from time t0 to time t1. As an object, a new object C
Create object information storage areas of 37, C38, ..., C39, C40,
The detection positions of the objects C37 and C38 are set as the detection positions of the object C33, and the detection positions of the objects C39 and C40 are set as the detection positions of the object C34. Further, the area of the area between the objects C37 and C38 is changed to the object C33.
And the area area of the object C39 and the object C40 is half the area area of the object C34. As a result, the object information storage area and the list structure of the object determined to be connected from the time t0 to the time t1 can be accurately corrected. According to this embodiment, even when a plurality of objects are linked and detected as one object, this can be corrected and accurate object tracking can be performed.

【0046】以上述べたように上記実施例によれば、連
続する入力画像に対する検出物体の数の変化から検出状
態変化を分類し、検出状態変化の接続情報を保持し、そ
の接続情報から一つの物体の分裂や複数物体の連結を補
正しながらそれらの検出物体を追跡することで、より正
確な追跡を行なうことができる。
As described above, according to the above embodiment, a change in the detection state is classified based on a change in the number of detected objects with respect to a continuous input image, connection information of the change in the detection state is held, and one connection is obtained from the connection information. By tracking the detected objects while correcting for the division of the objects and the connection of the plurality of objects, more accurate tracking can be performed.

【0047】[0047]

【発明の効果】従って、本発明によれば、TVカメラの
視野内に複数物体が存在するときに、一時的に分裂した
物体や複数の物体が交錯する場合に個々の物体を正確に
追跡することが難しかった欠点を解決し、しかも正確に
物体を追跡することができ、物体追跡監視装置の適用範
囲を大きく広げることができる。
As described above, according to the present invention, when a plurality of objects are present in the field of view of a TV camera, when a temporarily divided object or a plurality of objects intersect, the individual objects can be accurately tracked. This makes it possible to solve the difficulties and to accurately track the object, thereby greatly expanding the applicable range of the object tracking and monitoring apparatus.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例の動作を説明するためのフロー
チャート
FIG. 1 is a flowchart for explaining the operation of an embodiment of the present invention.

【図2】本発明の実施例の動作を説明するためのフロー
チャート
FIG. 2 is a flowchart for explaining the operation of the embodiment of the present invention;

【図3】本発明の実施例の動作を説明するためのフロー
チャート
FIG. 3 is a flowchart for explaining the operation of the embodiment of the present invention;

【図4】本発明の実施例の動作を説明するためのフロー
チャート
FIG. 4 is a flowchart for explaining the operation of the embodiment of the present invention;

【図5】本発明の実施例の動作を説明するためのフロー
チャート
FIG. 5 is a flowchart for explaining the operation of the embodiment of the present invention;

【図6】本発明の実施例の動作を説明するためのフロー
チャート
FIG. 6 is a flowchart for explaining the operation of the embodiment of the present invention;

【図7】差分法における物体検出原理を説明するブロッ
ク図
FIG. 7 is a block diagram illustrating the principle of object detection in the difference method.

【図8】従来の検出物体の追跡追跡原理を説明するブロ
ック図
FIG. 8 is a block diagram illustrating the principle of conventional tracking and tracking of a detected object.

【図9】本発明の実施例のハードウエアの一例を示す構
成ブロック図
FIG. 9 is a configuration block diagram illustrating an example of hardware according to an embodiment of the present invention.

【図10】本発明の検出状態変化を説明する図FIG. 10 is a diagram illustrating a detection state change according to the present invention.

【図11】本発明の検出物体の接続情報を説明する図FIG. 11 is a diagram illustrating connection information of a detected object according to the present invention.

【図12】図11のリスト構造を説明する接続構造図FIG. 12 is a connection structure diagram illustrating the list structure of FIG. 11;

【図13】本発明の分裂判定を説明する図FIG. 13 is a diagram for explaining division determination according to the present invention.

【図14】本発明の分裂補正後の物体の接続状況を説明
する図
FIG. 14 is a diagram illustrating a connection state of an object after division correction according to the present invention;

【図15】本発明の連結判定を説明する図FIG. 15 is a diagram illustrating a connection determination according to the present invention.

【図16】本発明の連結補正後の物体の接続状況を説明
する図
FIG. 16 is a diagram illustrating a connection state of objects after connection correction according to the present invention.

【図17】本発明の物体情報記憶領域に格納された情報
内容(リスト構造)の一例を示す図
FIG. 17 is a diagram showing an example of information content (list structure) stored in an object information storage area according to the present invention;

【図18】本発明の単連結の状態変化を起こしている物
体の軌跡判定と補正後のリスト構造の一例を示す図
FIG. 18 is a diagram showing an example of a list structure after trajectory determination and correction of an object causing a single connection state change according to the present invention;

【図19】本発明の補正再帰ステップを説明する図FIG. 19 is a view for explaining a correction recursion step of the present invention.

【図20】図19の連結補正後の物体の接続状況を説明
する図
20 is a view for explaining the connection state of the object after the connection correction in FIG. 19;

【図21】図20の分裂補正後の物体の接続状況を説明
する図
21 is a view for explaining the connection state of the objects after the division correction in FIG. 20;

【符号の説明】[Explanation of symbols]

101:画像入力ステップ、 102:差分処理ステップ、
103:二値化処理ステップ、 104:検出物体数変化検出
ステップ、 105:検出状態変化分類ステップ、 106:
接続情報作成ステップ、 107:軌跡推定ステップ、 1
08:異常判定ステップ、 109:警報・モニタ表示ステ
ップ、 110:分裂判定ステップ、 111:分裂補正ステ
ップ、 112:連結判定ステップ、 113:連結補正ス
テップ、114:分裂補正再帰判定ステップ、 115:連結
補正再帰判定ステップ、 116:補正再帰判定ステッ
プ、 901:TVカメラ、 902:画像入力I/F、 90
3:データバス、 904:画像メモリ、 905:ワークメ
モリ、 906:CPU、 907:プログラムメモリ、 90
8:出力I/F、 909:画像出力I/F、 910:警告
灯、 911:モニタ、 1001:出現を表す検出状態変
化、 1002:単連結を表す検出状態変化、 1003:結合
を表す検出状態変化、 1004:消滅を表す検出状態変
化、 1005:分離を表す検出状態変化
101: image input step, 102: difference processing step,
103: binarization processing step, 104: detection object number change detection step, 105: detection state change classification step, 106:
Connection information creation step, 107: trajectory estimation step, 1
08: Abnormality determination step, 109: Alarm / monitor display step, 110: Division determination step, 111: Division correction step, 112: Connection determination step, 113: Connection correction step, 114: Division correction recursive determination step, 115: Connection correction Recursion determination step, 116: Correction recursion determination step, 901: TV camera, 902: Image input I / F, 90
3: Data bus, 904: Image memory, 905: Work memory, 906: CPU, 907: Program memory, 90
8: Output I / F, 909: Image output I / F, 910: Warning light, 911: Monitor, 1001: Detection state change indicating appearance, 1002: Detection state change indicating single connection, 1003: Detection state indicating coupling Change, 1004: Detection state change indicating disappearance, 1005: Detection state change indicating separation

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 カメラを有し、そのカメラの撮像視野内
に侵入した物体を逐次検出する物体追跡方法おいて、該
カメラより得られた画像信号中から監視する物体の画像
を検出する物体検出ステップと、該物体検出ステップに
よって検出した物体の変化を検出する物体数変化検出ス
テップと、該物体変化検出ステップによって検出した変
化を複数の状態に分類する検出状態変化分類ステップと
を設け、上記物体の状態変化分類を逐次行なうようにし
たことを特徴とする物体追跡方法。
An object tracking method comprising a camera and sequentially detecting an object that has entered a field of view of the camera, wherein an object detection method detects an image of a monitored object from an image signal obtained from the camera. A step of detecting a change in the number of objects detected by the step of detecting the number of objects; a step of classifying the change detected by the step of detecting change of the object into a plurality of states; An object tracking method, characterized in that the state change classification is performed sequentially.
【請求項2】 請求項1記載の物体追跡方法において、
前記検出状態変化分類ステップにおける分類は、出現,
単連結,結合,消滅,分離の五つの状態変化としたこと
を特徴とする物体追跡方法。
2. The object tracking method according to claim 1, wherein
The classification in the detection state change classification step includes appearance,
An object tracking method characterized by five state changes: simple connection, combination, disappearance, and separation.
【請求項3】 請求項1または請求項2記載の物体追跡
方法において、 前記検出状態変化分類ステップによって分類した前記五
つの状態変化から、各時刻毎の検出した物体の位置およ
び検出した領域の面積の変化をあらわす接続情報を作成
する接続情報作成ステップと、 該接続情報ステップによって作成した前記接続情報か
ら、前記物体検出ステップによって検出した物体の位置
変化によって物体の軌跡を推定する軌跡推定ステップと
を設け、上記物体の追跡をしたことを特徴とする物体追
跡方法。
3. The object tracking method according to claim 1, wherein the position of the detected object and the area of the detected area at each time are determined from the five state changes classified in the detection state change classification step. A connection information creation step of creating connection information representing a change in the object, and a trajectory estimation step of estimating a trajectory of an object from a change in the position of the object detected by the object detection step from the connection information created by the connection information step. And an object tracking method, wherein the object is tracked.
【請求項4】 請求項3記載の物体追跡方法において、 接続情報から物体検出時に一つの物体が複数に分裂して
検出されたことを判定する分裂判定ステップと、 該分裂判定ステップによって分裂して検出されたと判定
された複数の物体を一つの物体に補正する分裂補正ステ
ップとを設け、上記物体の追跡をしたことを特徴とする
物体追跡方法。
4. The object tracking method according to claim 3, wherein a division is performed by the connection information to determine that one object has been divided and detected at the time of detecting the object. A division correction step of correcting a plurality of objects determined to be detected into one object, and tracking the object, wherein the object is tracked.
【請求項5】 請求項3記載の物体追跡方法において、 前記接続情報から複数の物体が一つの物体として連結し
て検出されたことを判定する連結判定ステップと、 連結して検出されたと判定された一つの物体をその前後
の接続情報から複数の物体として補正する連結補正ステ
ップとを設け、上記物体の追跡をしたことを特徴とする
物体追跡方法。
5. The object tracking method according to claim 3, wherein from the connection information, a connection determination step of determining that a plurality of objects are connected and detected as one object, and it is determined that the plurality of objects are connected and detected. A connection correction step of correcting one object as a plurality of objects from connection information before and after the object, and tracking the object.
【請求項6】 請求項4記載の物体追跡方法において、
分裂補正再帰判定ステップを設け、分裂補正が行なえな
くなるまで分裂判定ステップと分裂補正ステップを繰り
返すようにしたことを特徴とする物体追跡方法。
6. The object tracking method according to claim 4, wherein
An object tracking method, comprising a division correction recursion determination step, and repeating the division determination step and the division correction step until division correction cannot be performed.
【請求項7】 請求項5記載の物体追跡方法において、
連結補正再帰判定ステップを設け、連結補正が行なえな
くなるまで連結判定ステップと連結補正ステップを繰り
返すようにしたことを特徴とする物体追跡方法。
7. The object tracking method according to claim 5, wherein
An object tracking method, comprising a connection correction recursion determination step, wherein the connection determination step and the connection correction step are repeated until the connection correction cannot be performed.
【請求項8】 請求項3記載の物体追跡方法において、 分裂判定ステップと、分裂補正ステップと、連結判定ス
テップと、連結補正ステップとを設け、 該分裂判定ステップは接続情報から物体検出時に一つの
物体が複数に分裂して検出されたことを判定し、 前記分裂補正ステップは前記分裂判定ステップによって
分裂と判定された複数の物体を一つの物体に補正し、 前記連結判定ステップは前記接続情報から複数の物体が
一つの物体として連結して検出されたことを判定し、 前記連結補正ステップは前記連結判定ステップによって
連結と判定された一つの物体を複数の物体として補正し
たことを特徴とする物体追跡方法。
8. The object tracking method according to claim 3, further comprising a division determination step, a division correction step, a connection determination step, and a connection correction step, wherein the division determination step is performed when one of the objects is detected from the connection information. It is determined that the object has been split into a plurality of pieces, and the split correction step corrects the plurality of objects determined to be split by the split determination step into one object, and the connection determination step is based on the connection information. It is determined that a plurality of objects are connected and detected as one object, and the connection correcting step corrects one object determined to be connected by the connection determining step as a plurality of objects. Tracking method.
【請求項9】 請求項3記載の物体追跡方法において、 分裂判定ステップと、分裂補正ステップと、分裂補正再
帰判定ステップと、連結判定ステップと、連結補正ステ
ップと、連結補正再帰判定ステップとを設け、分裂補正
が行なえなくなるまで分裂判定ステップと分裂補正ステ
ップを繰り返し連結補正が行なえなくなるまで連結判定
ステップと連結補正ステップを繰り返すことを特徴とす
る物体追跡方法。
9. The object tracking method according to claim 3, further comprising a split determination step, a split correction step, a split correction recursion determination step, a connection determination step, a connection correction step, and a connection correction recursion determination step. An object tracking method comprising: repeating a split determination step and a split correction step until split correction cannot be performed; and repeating a link determination step and a link correction step until link correction cannot be performed.
【請求項10】 請求項7,請求項8および請求項9記
載の物体追跡方法において、接続情報作成ステップで接
続情報として検出した物体の位置および検出した領域の
面積と共に検出した領域の画素パターンも接続情報とし
て保持し、連結判定ステップにおいて画素パターンのマ
ッチングによって連結を判定したことを特徴とする物体
追跡方法。
10. The object tracking method according to claim 7, 8 or 9, wherein a pixel pattern of the area detected together with the position of the object detected as connection information and the area of the detected area in the connection information creating step is also included. An object tracking method, characterized in that connection is held as connection information and connection is determined by pixel pattern matching in a connection determination step.
【請求項11】 カメラと、該カメラが撮像した画像を
入力する画像入力I/Fと、該画像入力I/Fから入力
された画像を蓄積する画像メモリと、物体追跡監視装置
の動作のプログラムを記憶しているプログラムメモリ
と、該プログラムメモリに保持されている前記プログラ
ムに従って前記物体追跡監視装置を動作させるCPU
と、前記画像メモリに蓄積された画像の解析を行なうワ
ークメモリと、少なくとも音,可視光,振動のいずれか
を表示し人体または補助動物が感知可能な信号を発生す
る警告表示手段と、監視モニタと、前記ワークメモリの
解析結果に対応して前記CPUの指示によって前記警告
表示手段に警告を表示させる信号を伝達する出力I/F
と、前記ワークメモリの解析結果に対応して前記CPU
の指示によって前記監視モニタに表示させる画像を送る
画像出力I/Fと、前述の構成要素同士を接続するデー
タバスを有し、物体の追跡監視を行なうことを特徴とす
る物体追跡監視装置。
11. A camera, an image input I / F for inputting an image captured by the camera, an image memory for storing an image input from the image input I / F, and a program for operating the object tracking monitoring device And a CPU for operating the object tracking / monitoring device according to the program stored in the program memory
A work memory for analyzing an image stored in the image memory, a warning display means for displaying at least one of sound, visible light, and vibration to generate a signal that can be detected by a human body or an auxiliary animal; And an output I / F for transmitting a signal for displaying a warning on the warning display means in accordance with the instruction of the CPU in accordance with the analysis result of the work memory.
And the CPU corresponding to the analysis result of the work memory.
And an image output I / F for sending an image to be displayed on the monitoring monitor in accordance with the instruction of (1), and a data bus connecting the above-described components, and performs object tracking monitoring.
JP13054098A 1997-05-14 1998-05-13 Object tracking method and object tracking apparatus Expired - Fee Related JP3657116B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13054098A JP3657116B2 (en) 1997-05-14 1998-05-13 Object tracking method and object tracking apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP9-124329 1997-05-14
JP12432997 1997-05-14
JP13054098A JP3657116B2 (en) 1997-05-14 1998-05-13 Object tracking method and object tracking apparatus

Publications (2)

Publication Number Publication Date
JPH1132325A true JPH1132325A (en) 1999-02-02
JP3657116B2 JP3657116B2 (en) 2005-06-08

Family

ID=26461019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13054098A Expired - Fee Related JP3657116B2 (en) 1997-05-14 1998-05-13 Object tracking method and object tracking apparatus

Country Status (1)

Country Link
JP (1) JP3657116B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046647A (en) * 2002-07-12 2004-02-12 Univ Waseda Method and device for tracking moving object based on dynamic image data
JP2006209698A (en) * 2005-01-31 2006-08-10 Olympus Corp Target tracking device, microscope system and target tracking program
JP2006331347A (en) * 2005-05-30 2006-12-07 Olympus Corp Image processor and object domain tracking program
JP2007327843A (en) * 2006-06-07 2007-12-20 Olympus Corp Image processor and image processing program
JP2008123360A (en) * 2006-11-14 2008-05-29 Nippon Telegr & Teleph Corp <Ntt> Device, method, and program for extracting/determining human body specific area
JP2008252519A (en) * 2007-03-30 2008-10-16 Hitachi Kokusai Electric Inc Image processing apparatus
EP2161679A2 (en) 2008-09-05 2010-03-10 Fujitsu Limited Apparatus and method for extracting object image
JP2010079655A (en) * 2008-09-26 2010-04-08 Canon Inc Image processing apparatus, image processing method, image pickup device, and program
JP2010205276A (en) * 2010-04-09 2010-09-16 Toshiba Tec Corp Traffic line editing device, and traffic line editing program
JP2012016003A (en) * 2010-06-30 2012-01-19 Ajou Univ Industry Cooperation Foundation Active object tracking device and method using monitoring camera
JP2012128877A (en) * 2012-03-19 2012-07-05 Toshiba Corp Suspicious behavior detection system and method
JP2013058899A (en) * 2011-09-08 2013-03-28 Toshiba Corp Monitoring device, method therefor, and program therefor
US8504317B2 (en) 2009-09-04 2013-08-06 Panasonic Corporation Position calibration information collecting apparatus, position calibration information collecting method, and position calibration information collecting program
JP2013236324A (en) * 2012-05-10 2013-11-21 Canon Inc Image processing device and image processing method
JP2013240013A (en) * 2012-05-17 2013-11-28 Canon Inc Video processing device, management method for tracking object, and program
JP2014164549A (en) * 2013-02-26 2014-09-08 Kddi Corp Subject collation device, subject collection method and program
JP2017027246A (en) * 2015-07-17 2017-02-02 株式会社日立製作所 Monitoring system and monitoring method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8483431B2 (en) * 2008-05-27 2013-07-09 Samsung Electronics Co., Ltd. System and method for estimating the centers of moving objects in a video sequence

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046647A (en) * 2002-07-12 2004-02-12 Univ Waseda Method and device for tracking moving object based on dynamic image data
JP2006209698A (en) * 2005-01-31 2006-08-10 Olympus Corp Target tracking device, microscope system and target tracking program
JP2006331347A (en) * 2005-05-30 2006-12-07 Olympus Corp Image processor and object domain tracking program
WO2006129442A1 (en) * 2005-05-30 2006-12-07 Olympus Corporation Image processing device and object region tracking program
US8019143B2 (en) 2005-05-30 2011-09-13 Olympus Corporation Image processing apparatus and computer program product
JP4515332B2 (en) * 2005-05-30 2010-07-28 オリンパス株式会社 Image processing apparatus and target area tracking program
JP2007327843A (en) * 2006-06-07 2007-12-20 Olympus Corp Image processor and image processing program
US8129990B2 (en) 2006-06-07 2012-03-06 Olympus Corporation Image processing apparatus and computer program product
JP4659722B2 (en) * 2006-11-14 2011-03-30 日本電信電話株式会社 Human body specific area extraction / determination device, human body specific area extraction / determination method, human body specific area extraction / determination program
JP2008123360A (en) * 2006-11-14 2008-05-29 Nippon Telegr & Teleph Corp <Ntt> Device, method, and program for extracting/determining human body specific area
JP2008252519A (en) * 2007-03-30 2008-10-16 Hitachi Kokusai Electric Inc Image processing apparatus
US9256793B2 (en) 2008-09-05 2016-02-09 Fujitsu Limited Apparatus and method for extracting object image
EP2161679A2 (en) 2008-09-05 2010-03-10 Fujitsu Limited Apparatus and method for extracting object image
US8509481B2 (en) 2008-09-26 2013-08-13 Canon Kabushiki Kaisha Image processing apparatus, image processing method, imaging apparatus
JP2010079655A (en) * 2008-09-26 2010-04-08 Canon Inc Image processing apparatus, image processing method, image pickup device, and program
US8504317B2 (en) 2009-09-04 2013-08-06 Panasonic Corporation Position calibration information collecting apparatus, position calibration information collecting method, and position calibration information collecting program
JP2010205276A (en) * 2010-04-09 2010-09-16 Toshiba Tec Corp Traffic line editing device, and traffic line editing program
JP2012016003A (en) * 2010-06-30 2012-01-19 Ajou Univ Industry Cooperation Foundation Active object tracking device and method using monitoring camera
JP2013058899A (en) * 2011-09-08 2013-03-28 Toshiba Corp Monitoring device, method therefor, and program therefor
JP2012128877A (en) * 2012-03-19 2012-07-05 Toshiba Corp Suspicious behavior detection system and method
JP2013236324A (en) * 2012-05-10 2013-11-21 Canon Inc Image processing device and image processing method
JP2013240013A (en) * 2012-05-17 2013-11-28 Canon Inc Video processing device, management method for tracking object, and program
JP2014164549A (en) * 2013-02-26 2014-09-08 Kddi Corp Subject collation device, subject collection method and program
JP2017027246A (en) * 2015-07-17 2017-02-02 株式会社日立製作所 Monitoring system and monitoring method

Also Published As

Publication number Publication date
JP3657116B2 (en) 2005-06-08

Similar Documents

Publication Publication Date Title
JP3657116B2 (en) Object tracking method and object tracking apparatus
EP0878965A2 (en) Method for tracking entering object and apparatus for tracking and monitoring entering object
US8243987B2 (en) Object tracking using color histogram and object size
JP5032846B2 (en) MONITORING DEVICE, MONITORING RECORDING DEVICE, AND METHOD THEREOF
US8619135B2 (en) Detection of abnormal behaviour in video objects
US7916944B2 (en) System and method for feature level foreground segmentation
EP1844443B1 (en) Classifying an object in a video frame
US8218814B2 (en) Image data processing apparatus and method for object detection and judging suspicious objects
US20060056702A1 (en) Image processing apparatus and image processing method
JPH09322155A (en) Method and device for monitoring video
CN111814635B (en) Deep learning-based firework recognition model establishment method and firework recognition method
JP2001060269A (en) Object tracking method and device
JP2007310574A (en) Collision risk decision system and warning system
JP2001338302A (en) Monitoring device
US20220004748A1 (en) Video display method, device and system, and video camera
JP3852745B2 (en) Object detection method and object detection apparatus
JPH0614698B2 (en) Automatic tracking camera
JP2000156852A (en) Monitoring device
JP2008026999A (en) Obstacle detection system and obstacle detection method
CN109799844B (en) Dynamic target tracking system and method for pan-tilt camera
JP2002150295A (en) Object detection method and object detection device
JP4302801B2 (en) Object tracking method and object tracking apparatus
JP2006211696A (en) Object detecting method and object detecting system
JP3625442B2 (en) Object detection method, object detection apparatus, and object detection program
KR20200010691A (en) Character recognition and traffic control system using heterogeneous camera

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050308

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080318

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090318

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100318

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100318

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110318

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120318

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120318

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130318

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130318

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140318

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees