JPH08205131A - Monitor system and moving body tracking method thereof - Google Patents

Monitor system and moving body tracking method thereof

Info

Publication number
JPH08205131A
JPH08205131A JP7009983A JP998395A JPH08205131A JP H08205131 A JPH08205131 A JP H08205131A JP 7009983 A JP7009983 A JP 7009983A JP 998395 A JP998395 A JP 998395A JP H08205131 A JPH08205131 A JP H08205131A
Authority
JP
Japan
Prior art keywords
image pattern
density image
pattern information
moving object
density
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7009983A
Other languages
Japanese (ja)
Inventor
Rie Fujiura
理恵 藤浦
Akira Kasano
章 笠野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP7009983A priority Critical patent/JPH08205131A/en
Publication of JPH08205131A publication Critical patent/JPH08205131A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: To provide the monitor system which can accurately track a target moving body even when there are plural moving bodies in a monitor area. CONSTITUTION: A density pattern stack part 11 is stored with density image pattern information on respective bodies, detected by a moving body detection part 10, in time series. This density pattern stack part 11 is stored with the density image pattern information corresponding to respective bodies which can not be specified as identical bodies by an identical body correspondence decision part 13 and correspond to a low matching degree and respective current bodies before the last time. Consequently, not only collation between current density image pattern information and last density image pattern information, but also collation with density image pattern information on respective moving bodies which are detected last and before are performed for the tracking process of the CPU 1.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、特に建物、敷地、施設
等の構内における移動物体を、画像処理技術を利用して
監視する監視システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a monitoring system for monitoring a moving object on a premises such as a building, a site, a facility, etc. by using image processing technology.

【0002】[0002]

【従来の技術】従来、特に建物、敷地、施設等の構内に
おいて、監視カメラや赤外線センサ等を利用して、侵入
者や入場者等を含む移動物体を検出し、目的の移動物体
を監視する監視システムが開発されている。
2. Description of the Related Art Conventionally, a moving object including an intruder or an attendant is detected by using a surveillance camera, an infrared sensor or the like, and a target moving object is monitored particularly in a premises such as a building, a site or a facility. Surveillance systems have been developed.

【0003】この監視システムは、監視カメラの位置に
応じて決定される監視領域内の画像を所定の時間間隔で
入力し、各入力画像間の差分を求めることにより移動物
体を検出する。さらに、その移動物体の大きさ、移動方
向や移動速度等の判定パラメータを使用して、目的の移
動物体を検知する。
This surveillance system detects moving objects by inputting images within a surveillance area determined according to the position of a surveillance camera at predetermined time intervals and obtaining a difference between the respective input images. Furthermore, the target moving object is detected using the determination parameters such as the size of the moving object, the moving direction and the moving speed.

【0004】このような監視システムでは、前記判定パ
ラメータを検出して目的の移動物体を特定するために、
移動物体の追跡処理が必要である。追跡処理では、現時
点(T時)で入力された画像情報に基づいて検出された
移動物体とその前(所定の時間前T−1時)に検出され
た移動物体とを照合する照合処理が実行される。この照
合処理により得られる照合度が所定値以上の場合には、
同一物体が監視領域内において移動していることを追跡
することができる。
In such a monitoring system, in order to detect the determination parameter and identify the target moving object,
Tracking of moving objects is required. In the tracking process, a collation process is performed to collate a moving object detected based on the image information input at the current time (T time) with a moving object detected before that (T-1 o'clock before a predetermined time). To be done. If the matching degree obtained by this matching process is greater than or equal to a predetermined value,
It is possible to track that the same object is moving within the surveillance area.

【0005】しかしながら、監視領域内に複数の移動物
体が存在する場合に、各物体が交差したり、接触するこ
とがある。このような場合に、複数の物体を一つの物体
であると誤認識し、この誤認識に基づいた情報の蓄積に
より追跡処理を実行すると、誤った追跡を行なうことに
なる。また、目的の移動物体を追跡するための情報を保
持できずに、誤認識した時点で追跡処理が中断すること
もある。
However, when there are a plurality of moving objects in the monitoring area, the objects may intersect or contact each other. In such a case, if a plurality of objects are erroneously recognized as one object and a tracking process is executed by accumulating information based on the erroneous recognition, erroneous tracking will be performed. Further, the tracking process may be interrupted at the time of erroneous recognition because the information for tracking the target moving object cannot be held.

【0006】[0006]

【発明が解決しようとする課題】従来の監視システムで
は、監視領域内に複数の移動物体が存在する場合に、各
物体の交差や接触により、目的の移動物体を誤認識し、
正確な追跡処理が不可能になる場合がある。本発明の目
的は、監視領域内に複数の移動物体が存在する場合で
も、目的の移動物体を正確に追跡処理できる監視システ
ムを提供することにある。
In the conventional monitoring system, when a plurality of moving objects exist in the monitoring area, the target moving object is erroneously recognized due to the intersection or contact of each object,
Accurate tracking may not be possible. An object of the present invention is to provide a monitoring system capable of accurately tracking a target moving object even if a plurality of moving objects exist in the monitoring area.

【0007】[0007]

【課題を解決するための手段】本発明の監視システム
は、監視領域内に複数の移動物体が存在する場合に、移
動物体検出手段により各移動物体を検出し、この各移動
物体に対応する濃度画像パターン情報を時系列的に記憶
する濃度画像パターン記憶手段および各移動物体毎に時
系列上の同一物体を特定するための同一物体対応判定処
理を行なう同一物体対応判定手段を有する。さらに、同
一物体対応判定手段の同一物体対応判定処理において、
同一物体と特定できない照合度に対応するそれ以前の濃
度画像パターン情報および現時点の濃度画像パターン情
報を保存する保存手段および各移動物体を追跡処理する
追跡手段を備えている。
In the monitoring system of the present invention, when a plurality of moving objects exist in the monitoring area, the moving object detecting means detects each moving object, and the density corresponding to each moving object is detected. It has density image pattern storage means for storing image pattern information in time series, and same object correspondence determination means for performing the same object correspondence determination process for specifying the same object in time series for each moving object. Furthermore, in the same object correspondence determination processing of the same object correspondence determination means,
It is provided with a storage means for storing the density image pattern information before that and the current density image pattern information corresponding to the degree of matching that cannot be specified as the same object, and a tracking means for tracking each moving object.

【0008】[0008]

【作用】本発明では、濃度画像パターン記憶手段には、
移動物体検出手段により検出された各移動物体に対応す
る濃度画像パターン情報が時系列的に記憶される。同一
物体対応判定手段は、濃度画像パターン記憶手段に記憶
された現時点とそれ以前の濃度画像パターン情報間の照
合度に基づいて、各移動物体毎に時系列上の同一物体を
特定するための同一物体対応判定処理を行なう。保存手
段は、同一物体対応判定処理において、現時点の濃度画
像パターン情報に対して同一物体と特定できない照合度
に対応するそれ以前の濃度画像パターン情報を各移動物
体毎に抽出し、この抽出したそれ以前の各濃度画像パタ
ーン情報および現時点の濃度画像パターン情報を濃度画
像パターン記憶手段に保存する。これにより、追跡処理
では、現時点の濃度画像パターン情報と前回の濃度画像
パターン情報間の照合処理だけでなく、前回以前の過去
に検出された各移動物体の濃度画像パターン情報との照
合処理が実行される。
In the present invention, the density image pattern storage means is
The density image pattern information corresponding to each moving object detected by the moving object detecting means is stored in time series. The same object correspondence determination means identifies the same object in time series for each moving object based on the degree of matching between the current density image pattern information stored in the density image pattern storage means and the previous density image pattern information. Object correspondence determination processing is performed. In the same object correspondence determination process, the storage means extracts, for each moving object, density image pattern information before that corresponding to a matching degree that cannot be identified as the same object with respect to the current density image pattern information, and The previous density image pattern information and the current density image pattern information are stored in the density image pattern storage means. As a result, in the tracking process, not only the matching process between the current density image pattern information and the previous density image pattern information, but also the matching process with the density image pattern information of each moving object detected before the previous time are executed. To be done.

【0009】[0009]

【実施例】以下図面を参照して本発明の実施例について
説明する。図1は本実施例の監視システムの要部を示す
ブロック図、図2と図3は本実施例の動作を説明するた
めのフローチャート、図4は本実施例の動作を説明する
ための概念図である。 (監視システムの構成)本システムは、図1に示すよう
に、システム全体を制御するための中央制御装置を構成
するマイクロプロセッサ(CPU)1とメインメモリ2
を有し、この中央制御装置とシステムバス3を介して画
像処理系とが接続している。CPU1は、予めメインメ
モリ2に記憶された監視プログラムに従って、画像処理
系の各構成要素を制御する。
Embodiments of the present invention will be described below with reference to the drawings. 1 is a block diagram showing the main part of the monitoring system of this embodiment, FIGS. 2 and 3 are flow charts for explaining the operation of this embodiment, and FIG. 4 is a conceptual diagram for explaining the operation of this embodiment. Is. (Structure of Monitoring System) As shown in FIG. 1, the present system includes a microprocessor (CPU) 1 and a main memory 2 which constitute a central control unit for controlling the entire system.
The central processing unit is connected to the image processing system via the system bus 3. The CPU 1 controls each component of the image processing system according to a monitoring program stored in the main memory 2 in advance.

【0010】画像処理系は、カメラ・インターフェース
(I/F)6、画像メモリ7、表示コントローラ9、移
動体検出部10、濃度パターンスタック部11、パター
ン照合部12、同一物体対応判定部13、追跡結果情報
保持部14、および監視目的判定部15の各構成要素か
らなり、画像バス4を介して接続されている。
The image processing system includes a camera interface (I / F) 6, an image memory 7, a display controller 9, a moving body detecting section 10, a density pattern stack section 11, a pattern collating section 12, a same object correspondence judging section 13, The tracking result information holding unit 14 and the monitoring purpose determination unit 15 are configured by respective constituent elements, and are connected via the image bus 4.

【0011】カメラI/F6は、監視領域の画像を入力
するための画像入力手段であるカメラ5に接続されてい
る。カメラI/F6は、カメラ5から取込まれた監視領
域の画像をA/D変換処理し、ディジタルの画像情報を
画像バス4に出力する。
The camera I / F 6 is connected to the camera 5 which is an image input means for inputting an image of the surveillance area. The camera I / F 6 performs A / D conversion processing on the image of the monitoring area captured by the camera 5 and outputs digital image information to the image bus 4.

【0012】表示コントローラ9はCRTモニタ8に接
続されており、画像バス4を介して転送されたディジタ
ルの画像情報および監視対象の目的の移動物体を示すマ
ーキングをCRTモニタ8に出力し表示させる。
The display controller 9 is connected to the CRT monitor 8 and outputs the digital image information transferred via the image bus 4 and the marking indicating the target moving object to be monitored to the CRT monitor 8 for display.

【0013】画像メモリ7は複数のフレームメモリから
なり、カメラI/F6を介して所定の時間間隔で連続的
に入力されたディジタルの画像情報を順次保持する。こ
の画像メモリ7には、後述するように、移動物体(構内
の侵入者や入場者等を含む)が存在しない背景画像情報
がリファレンス画像(R)として保持される。
The image memory 7 is composed of a plurality of frame memories, and sequentially holds digital image information continuously input at predetermined time intervals via the camera I / F 6. As will be described later, the image memory 7 holds background image information in which no moving objects (including intruders and visitors on the premises) are present as a reference image (R).

【0014】移動体検出部10は、画像メモリ7に保持
された背景画像(R)と現時点で入力された画像(現在
画像)との差分画像に基づいて、監視領域内の複数の移
動物体を検出する。
The moving object detection unit 10 detects a plurality of moving objects in the monitoring area based on the difference image between the background image (R) held in the image memory 7 and the image (current image) input at the current time. To detect.

【0015】濃度パターンスタック部11は、移動体検
出部10により検出された各移動物体に対応する濃度画
像パターン情報(濃淡パターン情報)を時系列的に蓄積
して保存するための記憶装置である。
The density pattern stack unit 11 is a storage device for time-sequentially accumulating and saving the density image pattern information (shading pattern information) corresponding to each moving object detected by the moving body detecting unit 10. .

【0016】パターン照合部12は、濃度パターンスタ
ック部11に保存された過去(現時点より以前)の濃度
画像パターンと現時点の濃度画像パターンとの間の照合
度(相互相関値)を算出する手段である。パターン照合
部12は、相互相関法、SSDA法、または複合類似度
法により、各移動物体の照合度を算出する。例えば複合
類似度法による具体例として、パターン照合部12は、
「照合度S=[(→a)・(→b)]/[|→a|・|
→b|]」の演算を実行する。ここで、(→a),(→
b)はそれぞれ物体a,bの濃度画像パターンを意味す
るベクトル記号であり、|→a|,|→b|はそれぞれ
各物体の濃度の2乗和である。
The pattern matching unit 12 is means for calculating the degree of matching (cross-correlation value) between the past (before the present time) density image pattern stored in the density pattern stack unit 11 and the current density image pattern. is there. The pattern matching unit 12 calculates the matching degree of each moving object by the cross correlation method, SSDA method, or composite similarity method. For example, as a specific example using the composite similarity method, the pattern matching unit 12
“Matching degree S = [(→ a) · (→ b)] / [| → a | · |
→ b |] ”is executed. Where (→ a), (→
b) is a vector symbol that means the density image pattern of the objects a and b, respectively, and | → a | and | → b | are the sum of squares of the density of each object.

【0017】同一物体対応判定部13は算出した照合度
に基づいて、以前の移動物体と現時点で検出された移動
物体との対応付けの判定(同一物体の判定)を行なう。
具体的には、照合度が高いものを同一物体であると判定
したり、または照合度が所定のしきい値を越えて、所定
の時間経過の範囲内の場合に同一物体であると判定す
る。
The same object correspondence determination unit 13 determines the correspondence between the previous moving object and the moving object detected at the present time (determination of the same object) based on the calculated matching degree.
Specifically, it is determined that the objects with a high degree of matching are the same object, or if the degree of matching exceeds a predetermined threshold value and is within a predetermined time period, it is determined that they are the same object. .

【0018】追跡結果情報保持部14は、後述する追跡
処理により得られた追跡処理結果情報(軌跡情報、位置
情報、大きさ等)を保持する記憶装置である。さらに、
監視目的判定部15は、予め設定した基準に従って目的
の移動物体を特定するための判定手段である。
The tracking result information holding unit 14 is a storage device for holding tracking processing result information (trajectory information, position information, size, etc.) obtained by the tracking processing described later. further,
The monitoring purpose determination unit 15 is a determination unit for specifying a target moving object according to a preset standard.

【0019】次に、本実施例の動作を説明する。 (移動物体の監視処理)まず、図2のフローチャートを
参照して、監視システムの全体的動作を説明する。
Next, the operation of this embodiment will be described. (Monitoring Process of Moving Object) First, the overall operation of the monitoring system will be described with reference to the flowchart of FIG.

【0020】まず、CPU1は、監視処理に必要な各種
基準値をメインメモリ2に設定する(ステップS1)。
各種基準値には、照合度の基準値(しきい値)や濃度パ
ターンスタック部11に情報を時系列的に格納するため
の時間設定値N(T=T−1〜T−N)が含まれる。
First, the CPU 1 sets various reference values necessary for the monitoring process in the main memory 2 (step S1).
The various reference values include a reference value (threshold value) of the matching degree and a time set value N (T = T-1 to TN) for storing information in the density pattern stack unit 11 in time series. Be done.

【0021】CPU1は、初期画像として監視領域の背
景画像(リファレンス画像R)を、カメラ5とカメラI
/F6を介して入力して画像メモリ7に格納する(ステ
ップS2,S3)。背景画像とは、監視領域内に移動物
体が存在しない状態の画像情報である。
The CPU 1 uses the background image (reference image R) of the monitoring area as the initial image, the camera 5 and the camera I.
It is input via / F6 and stored in the image memory 7 (steps S2 and S3). The background image is image information in a state where no moving object exists in the monitoring area.

【0022】この後に、カメラ5により取込まれる監視
領域の画像を、所定の時間間隔に連続的に入力する(ス
テップS4)。入力画像は、カメラI/F6を介して画
像メモリ7に順次格納される(ステップS5)。
After this, the images of the monitoring area captured by the camera 5 are continuously input at predetermined time intervals (step S4). The input image is sequentially stored in the image memory 7 via the camera I / F 6 (step S5).

【0023】移動体検出部10は、画像メモリ7に保持
された背景画像(R)と現時点で入力された画像(現在
画像)との差分画像に基づいて、監視領域内の複数の移
動物体を検出する(ステップS6)。ここで、CPU1
は、移動体検出部10により検出した監視領域内での移
動物体が単体または複数体であるかを判断する。本実施
例では、複数の移動物体を検出した場合を想定する。
The moving object detection unit 10 detects a plurality of moving objects in the monitoring area based on the difference image between the background image (R) held in the image memory 7 and the image (current image) input at the current time. It is detected (step S6). Here, CPU1
Determines whether the moving object in the monitoring area detected by the moving object detection unit 10 is a single object or a plurality of objects. In this embodiment, it is assumed that a plurality of moving objects are detected.

【0024】次に、本発明の要旨である追跡処理を実行
する(ステップS7)。この追跡処理は、後述するよう
に、CPU1以外に濃度パターンスタック部11、パタ
ーン照合部12および同一物体対応判定部13の各構成
要素を主として実行される。この追跡処理により得られ
た追跡処理結果情報(軌跡情報、位置情報、大きさ等)
は、追跡結果情報保持部14に格納される(ステップS
8)。
Next, the tracking process which is the gist of the present invention is executed (step S7). As will be described later, this tracking process is mainly executed by each component of the density pattern stack unit 11, the pattern matching unit 12, and the same object correspondence determination unit 13 in addition to the CPU 1. Tracking process result information (track information, position information, size, etc.) obtained by this tracking process
Is stored in the tracking result information holding unit 14 (step S
8).

【0025】監視目的判定部15は、追跡結果情報保持
部14に保持された情報を使用して、設定した基準(初
期位置、移動速度、移動方向等)に従って、監視対象の
目的の移動物体を抽出して特定する(ステップS9)。
抽出特定できた場合には、CPU1は、表示コントロー
ラ9を介してCRTモニタ8に報知する報知処理を実行
する(ステップS10のYES,S11)。さらに、監
視処理が終了するまで、ステップS4からの処理を繰り
返す(ステップS12)。 (追跡処理)次に、図3のフローチャートと図4を参照
して、本実施例の追跡処理を説明する。
The monitoring purpose determining section 15 uses the information held in the tracking result information holding section 14 to determine the target moving object to be monitored according to the set reference (initial position, moving speed, moving direction, etc.). It is extracted and specified (step S9).
When the extraction and identification can be performed, the CPU 1 executes a notification process of notifying the CRT monitor 8 via the display controller 9 (YES in step S10, S11). Further, the processes from step S4 are repeated until the monitoring process is completed (step S12). (Tracking Process) Next, the tracking process of this embodiment will be described with reference to the flowchart of FIG. 3 and FIG.

【0026】まず、CPU1は、画像メモリ7から移動
体検出部10により検出された移動物体の濃度画像パタ
ーン情報を切出して、メインメモリ2に格納する(ステ
ップS20,S21)。
First, the CPU 1 cuts out density image pattern information of a moving object detected by the moving object detection unit 10 from the image memory 7 and stores it in the main memory 2 (steps S20 and S21).

【0027】ここで、濃度パターンスタック部11に
は、移動体検出部10により検出された過去(現時点T
より以前)の濃度画像パターン情報が保持されている。
CPU1は、濃度パターンスタック部11から過去の濃
度画像パターン情報を読出す(ステップS22)。
Here, in the density pattern stack unit 11, the past (current time T) detected by the moving body detection unit 10 is detected.
(Before the previous) density image pattern information is held.
The CPU 1 reads past density image pattern information from the density pattern stack unit 11 (step S22).

【0028】パターン照合部12は、切出した各移動物
体の濃度画像パターン情報と過去の濃度画像パターン情
報間の照合度を算出する照合処理を実行する(ステップ
S23)。同一物体対応判定部13は、パターン照合部
12により得られた照合度に基づいて、現時点の移動物
体とそれ以前の移動物体との対応付け処理(同一物体対
応判定処理)を実行する(ステップS24)。即ち、照
合度が高いものを同一物体であると判定したり、または
照合度が所定のしきい値を越えて、所定の時間経過の範
囲内の場合に同一物体であると判定する。
The pattern matching unit 12 executes a matching process for calculating the matching degree between the density image pattern information of each clipped moving object and the past density image pattern information (step S23). The same object correspondence determination unit 13 executes the matching process (the same object correspondence determination process) between the moving object at the present time and the moving object before that based on the matching degree obtained by the pattern matching unit 12 (step S24). ). That is, it is determined that the objects having a high degree of matching are the same object, or if the degree of matching exceeds a predetermined threshold value and is within a predetermined time period, it is determined that the objects are the same object.

【0029】次に、本実施例では、現時点(T)の移動
物体に対して、照合度がしきい値以下で前回(T−1以
前)に検出された移動物体に対応する濃度画像パターン
情報をスタック部11から抽出する(ステップS2
5)。即ち、現時点の移動物体とは対応しない過去にお
いて最新の移動物体を抽出する。
Next, in this embodiment, the density image pattern information corresponding to the moving object detected last time (before T-1) when the matching degree is equal to or less than the threshold value with respect to the moving object at the present time (T). Is extracted from the stack unit 11 (step S2
5). That is, the latest moving object in the past that does not correspond to the current moving object is extracted.

【0030】この抽出処理により、該当する過去の濃度
画像パターン情報がスタック部11に存在しない場合に
は、今回(現時点)の移動物体に対応する濃度画像パタ
ーン情報を濃度パターンスタック部11に格納する(ス
テップS26のYES,S27)。また、該当する過去
の濃度画像パターン情報を抽出した場合には、その過去
の濃度画像パターン情報および現時点の移動物体に対応
する濃度画像パターン情報を濃度パターンスタック部1
1に格納する(ステップS26のNO,S28)。
By this extraction processing, if the corresponding past density image pattern information does not exist in the stack section 11, the density image pattern information corresponding to the current (current) moving object is stored in the density pattern stack section 11. (YES in step S26, S27). When the relevant past density image pattern information is extracted, the past density image pattern information and the density image pattern information corresponding to the moving object at the present time are obtained.
1 (NO in step S26, S28).

【0031】即ち、本実施例では、現時点の移動物体が
検出されたときに、濃度パターンスタック部11には、
前回(T−1)の全ての移動物体の濃度画像パターン情
報と共に、照合度がしきい値以下(対応先のない)で前
回T−1以前の最新の移動物体に対応する濃度画像パタ
ーン情報が格納される。
That is, in this embodiment, when the moving object at the present time is detected, the density pattern stack section 11
Along with the density image pattern information of all the moving objects of the previous time (T-1), the density image pattern information corresponding to the latest moving object before the previous time T-1 before the matching degree is equal to or less than the threshold value (no corresponding destination). Is stored.

【0032】したがって、CPU1がパターン照合部1
2と同一物体対応判定部13により、移動物体の追跡処
理を実行する場合に、前回の濃度画像パターンだけでな
く、前回T−1以前で対応先のない最新の移動物体に対
応する濃度画像パターン情報との照合処理を実行する。
これにより、複数の移動物体が交差したり接触したよう
な状態が発生しても、各移動物体に対する正確な追跡処
理を実行することができる。
Therefore, the CPU 1 has the pattern matching unit 1
When the moving object tracking processing is executed by the same object correspondence determination unit 13 as 2 above, not only the density image pattern of the previous time but also the density image pattern of the latest moving object that has no corresponding destination before T-1 before Perform collation processing with information.
As a result, even if a plurality of moving objects intersect or come into contact with each other, accurate tracking processing can be executed for each moving object.

【0033】このような本実施例の追跡処理の具体例を
図4を参照して説明する。まず、図4(A)に示すよう
に、濃度パターンスタック部11には、各移動物体(こ
こでは物体Aから物体Dとする)毎に、濃度画像パター
ンP1,P2が時系列的(現時点をTとして、それ以前
の最新T−1時点からT−N時点まで)に格納されてい
る。ここで、斜線のパターンP2は同一物体で最新の時
点で検出された情報である。また、点線のパターンP3
は、その時点で検出不可であることを示す情報である。
A specific example of the tracking process of this embodiment will be described with reference to FIG. First, as shown in FIG. 4A, in the density pattern stack unit 11, density image patterns P1 and P2 are time-sequentially (for the present time, for each moving object (here, object A to object D)). T from the latest T-1 time point to the T-N time point). Here, the hatched pattern P2 is the information detected at the latest point in time for the same object. Also, the dotted pattern P3
Is information indicating that detection is not possible at that time.

【0034】次に、図4(B)に示すように、例えば現
時点Tにおいて、監視領域内で移動物体A,Bに対応す
る濃度画像パターンを保持したと想定する。前述の追跡
処理により、濃度パターンスタック部11からそれ以前
の濃度画像パターンを読出し、照合処理を実行する。こ
のとき、図4(A)に示すように、最新の時点T−1で
の濃度画像パターンは物体A,Dのパターンのみであ
る。
Next, as shown in FIG. 4B, it is assumed that, for example, at the present time T, the density image patterns corresponding to the moving objects A and B are held in the monitoring area. Through the above-described tracking processing, the density image patterns before that are read from the density pattern stack unit 11 and the matching processing is executed. At this time, as shown in FIG. 4A, the density image pattern at the latest time point T-1 is only the pattern of the objects A and D.

【0035】いま仮に、時点T−1において、物体A,
Bとが交差しており、実際には物体A,D以外に、物体
Bも監視領域内に存在したと想定する。物体Aについて
は、時点T−1においても検出されており、さらにそれ
以前の時点T−2とT−3においても検出されているた
め、正確に追跡処理されることになる。
Now, suppose that at time T-1, the objects A,
It is assumed that B and B intersect each other, and in addition to the objects A and D, the object B actually exists in the monitoring area. The object A is detected at the time point T-1 and also detected at the time points T-2 and T-3 before that, so that the object A is accurately tracked.

【0036】一方、現時点Tでは物体Bに対応する濃度
画像パターンが入力されたが、時点T−1の濃度画像パ
ターンの照合処理では、照合度はしきい値未満となり、
同一物体とは判定されない。即ち、従来の方式では、以
前からの追跡処理は不可能となり、物体Bは現時点で全
く新たに現れたことになる。換言すれば、濃度パターン
スタック部11には、時点T−1では誤った認識の濃度
画像パターン情報が格納されていることになる。
On the other hand, at the present time T, the density image pattern corresponding to the object B is input, but in the matching processing of the density image pattern at time T-1, the matching degree is less than the threshold value,
It is not determined that they are the same object. That is, with the conventional method, the tracking process from before is not possible, and the object B has appeared at this point. In other words, the density pattern stack section 11 stores density image pattern information that is erroneously recognized at time T-1.

【0037】そこで、本発明では、追跡処理において、
濃度パターンスタック部11に格納された時点T−1だ
けでなく、それ以前において対応先のない最新の各濃度
画像パターン情報との照合処理が実行される。即ち、こ
こでは、時点T−2の物体Bに対応する濃度画像パター
ン情報と時点T−3の物体Cに対応する濃度画像パター
ン情報との照合処理が実行される。この照合処理によ
り、図4(B)に示すように、時点T−2において、物
体Bとの同一物体対応判定がなされるため、物体Bは少
なくとも時点T−2から現時点(T)まで監視領域内に
存在していることを推定することができる。
Therefore, in the present invention, in the tracking process,
The collation processing is performed not only at the time T-1 stored in the density pattern stack unit 11 but also at each latest density image pattern information that has no corresponding destination before that. That is, here, the collation processing of the density image pattern information corresponding to the object B at the time point T-2 and the density image pattern information corresponding to the object C at the time point T-3 is executed. By this matching process, as shown in FIG. 4B, at the time point T-2, the same object correspondence determination with the object B is made, so that the object B is at least in the monitoring area from the time point T-2 to the current time point (T). Can be presumed to exist within.

【0038】そして、濃度パターンスタック部11に
は、現時点で入力された各移動物体A,Bに対応する濃
度画像パターン情報と共に、物体A,Bとは同一と判定
されなかった濃度画像パターン情報(D)が格納され
る。したがって、次の画像入力時に、濃度パターンスタ
ック部11に保持された濃度画像パターン情報を利用し
て、新たな移動物体の追跡処理を確実に行なうことがで
きる。 (本実施例の変形例)本実施例では、濃度パターンスタ
ック部11には、前回(時点T−1)に入力された全て
の濃度画像パターン情報および対応先のない移動物体の
時点T−1以前であって最新の濃度画像パターン情報が
格納される。
Then, in the density pattern stack section 11, the density image pattern information corresponding to the moving objects A and B input at the present time and the density image pattern information (which is not judged to be the same as the objects A and B) ( D) is stored. Therefore, when the next image is input, the density image pattern information held in the density pattern stack unit 11 can be used to reliably perform the tracking process for a new moving object. (Modification of this Embodiment) In this embodiment, the density pattern stack unit 11 stores all the density image pattern information input last time (time T-1) and the time T-1 of a moving object having no corresponding destination. The previous and latest density image pattern information is stored.

【0039】ここで、移動物体が人間の場合には、移動
に伴って変形するため、時点T−1での濃度画像パター
ン情報との照合度が必ずしも高くならない。そこで、第
1の変形例では、濃度パターンスタック部11には、図
4(A)に示すように、パターンP1を含む前回(T−
1)以前の全ての過去(T−N)の濃度画像パターン情
報を格納する。
Here, when the moving object is a human, it is deformed with the movement, and therefore the degree of matching with the density image pattern information at the time point T-1 is not necessarily high. Therefore, in the first modified example, the density pattern stack unit 11 includes the previous pattern (T−T−) including the pattern P1 as shown in FIG.
1) Store all past (TN) density image pattern information before.

【0040】追跡処理では、前回(T−1)から(T−
N)までの各移動物体の濃度画像パターン情報との照合
処理が実行されて、その中で照合度の最大値を示す物体
との対応付け処理が実行される。この対応付け処理で
は、前回(T−1)の物体との対応付けがなされる(図
5のフローチャートを参照)。図5において、ステップ
S50の初期設定処理では、現時点(T時)の物体数m
(ここではm=2となる)および濃度パターンスタック
部11に格納された前回(T−1)以前の最新の物体数
Pnが設定される。ステップS57では、ステップS5
4で算出した照合度の中から最大の照合度に対応する物
体が検出される。そして、ステップS58では、この検
出された物体と前回(T−1)の物体との対応付け処理
が実行される。
In the tracking process, from the last time (T-1) to (T-
The matching process with the density image pattern information of each moving object up to N) is performed, and the matching process with the object having the maximum matching degree is performed. In this association processing, association with the previous (T-1) object is performed (see the flowchart in FIG. 5). In FIG. 5, in the initial setting process of step S50, the number of objects at the present time (T time) m
(Here, m = 2) and the latest number of objects Pn before the last time (T-1) stored in the density pattern stack unit 11 are set. In step S57, step S5
An object corresponding to the maximum matching degree is detected from the matching degrees calculated in 4. Then, in step S58, a process of associating the detected object with the previous (T-1) object is executed.

【0041】このとき、時間に対する重み付け関数f
(T)を照合度に掛けることにより、対応付けを時間経
過が長時間でない物体への優先度を低くする。重み付け
関数f(T)は、(T−1−N)時に「0」、(T−
1)時に「1」の時間に対して例えば単調増加な関数よ
りも、緩やかに増加するような対数関数の方が望まし
い。
At this time, a weighting function f with respect to time
By multiplying the matching degree by (T), the priority of the object whose association time is not long is lowered. The weighting function f (T) is "0" at (T-1-N) and (T-
1) Sometimes, a logarithmic function that gradually increases with respect to the time of "1" is more preferable than a monotonically increasing function.

【0042】また、第1の変形例では、図5のフローチ
ャートに示す処理の代わりに、図7のフローチャートに
示す処理でもよい。さらに、第2の変形例では、前記第
1の変形例において過去の前回(T−1)から(T−
N)までの全ての物体との照合処理が実行されていた
が、図6のフローチャートに示すような処理が実行され
る。
Further, in the first modification, the process shown in the flowchart of FIG. 7 may be used instead of the process shown in the flowchart of FIG. Furthermore, in the second modified example, in the first modified example, from the past last time (T-1) to (T-
Although the collation processing with all the objects up to N) has been executed, the processing shown in the flowchart of FIG. 6 is executed.

【0043】即ち、初期設定処理において、処理開始
(T=0)から時点(T=N)までのN時間において、
各物体の照合度の平均値と分散値を算出する(ステップ
S60)。次に、現時点(T時)の対象物体の濃度画像
パターン情報と各物体の最新(T−1以前)の濃度画像
パターン情報との間で照合処理を実行し、照合度を算出
する(ステップS61)。
That is, in the initialization process, in the N time from the process start (T = 0) to the time point (T = N),
An average value and a variance value of the matching degree of each object are calculated (step S60). Next, the matching process is executed between the density image pattern information of the target object at the present time (T time) and the latest (before T-1) density image pattern information of each object to calculate the matching degree (step S61). ).

【0044】この算出した照合度の中で、前記初期設定
処理により算出した分散の範囲に含まれる照合度を抽出
し、この照合度に対応する物体を検出する(ステップS
62)。そして、検出した物体に対応する過去の(T−
1)から(T−N)までの各濃度画像パターン情報との
照合処理を実行し、その中で照合度の最大値を示す物体
との対応付け処理を実行する(ステップS63)。この
ステップS63の処理は、前記第1の変形例の対応付け
処理と同様である。
From the calculated matching degree, the matching degree included in the range of variance calculated by the initial setting process is extracted, and the object corresponding to this matching degree is detected (step S).
62). Then, the past (T-
The matching process with each density image pattern information from 1) to (TN) is executed, and the matching process with the object having the maximum matching degree among them is executed (step S63). The process of step S63 is similar to the associating process of the first modification.

【0045】さらに、最も古い照合度を除去して、最新
の照合度をデータとして付加することにより、前記初期
設定処理により算出した各物体の照合度の平均値と分散
値を更新して、次の照合処理に利用する(ステップS6
4)。
Further, by removing the oldest matching degree and adding the latest matching degree as data, the average value and the variance value of the matching degree of each object calculated by the initialization process are updated, Is used for the collation processing of (step S6)
4).

【0046】[0046]

【発明の効果】以上詳述したように本発明によれば、監
視領域内に存在する複数の移動物体から目的の移動物体
を追跡処理する監視システムにおいて、現時点より以前
の各物体の画像情報を蓄積することにより、各物体間で
交差や接触等が生じた場合でも、目的の移動物体を正確
に追跡処理することができる。したがって、本発明の監
視システムを建物、敷地、施設等の構内に適用すれば、
その構内への侵入者や入場者等を確実に監視することが
可能となる。
As described in detail above, according to the present invention, in a monitoring system for tracking a target moving object from a plurality of moving objects existing in a monitoring area, image information of each object before the present time is displayed. By accumulating, the target moving object can be accurately tracked even if intersections or contacts occur between the objects. Therefore, if the monitoring system of the present invention is applied to the premises of buildings, sites, facilities, etc.,
It is possible to reliably monitor intruders and visitors to the premises.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の本実施例に係わる監視システムの要部
を示すブロック図。
FIG. 1 is a block diagram showing a main part of a monitoring system according to an embodiment of the present invention.

【図2】本実施例の動作を説明するためのフローチャー
ト。
FIG. 2 is a flowchart for explaining the operation of this embodiment.

【図3】本実施例の動作を説明するためのフローチャー
ト。
FIG. 3 is a flowchart for explaining the operation of this embodiment.

【図4】本実施例の動作を説明するための概念図。FIG. 4 is a conceptual diagram for explaining the operation of this embodiment.

【図5】本実施例の第1の変形例を説明するためのフロ
ーチャート。
FIG. 5 is a flowchart for explaining a first modified example of this embodiment.

【図6】本実施例の第2の変形例を説明するためのフロ
ーチャート。
FIG. 6 is a flowchart for explaining a second modification example of the present embodiment.

【図7】本実施例の第1の変形例に関するフローチャー
ト。
FIG. 7 is a flowchart relating to a first modified example of this embodiment.

【符号の説明】[Explanation of symbols]

1…CPU、2…メインメモリ、3…システムバス、4
…画像バス、5…カメラ、6…カメラI/F、7…画像
メモリ、8…CRTモニタ、9…表示コントローラ、1
0…移動体検出部、11…濃度パターンスタック部、1
2…パターン照合部、13…同一物体対応判定部、14
…追跡結果情報保持部、15…監視目的判定部。
1 ... CPU, 2 ... Main memory, 3 ... System bus, 4
... image bus, 5 ... camera, 6 ... camera I / F, 7 ... image memory, 8 ... CRT monitor, 9 ... display controller, 1
0 ... Moving object detection unit, 11 ... Density pattern stack unit, 1
2 ... Pattern matching unit, 13 ... Same object correspondence determination unit, 14
... tracking result information holding unit, 15 ... monitoring purpose determining unit.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G08B 25/00 510 M ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI technical display location G08B 25/00 510 M

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 監視領域内の画像を連続して入力する画
像入力手段と、 この画像入力手段により連続入力された画像を濃度画像
パターン情報を含むディジタル画像情報に変換する変換
手段と、 この変換手段により変換された複数のディジタル画像情
報を記憶する画像記憶手段と、 この画像記憶手段に記憶されたディジタル画像情報の中
で背景画像と前記画像入力手段により入力された現時点
の画像との差分画像に基づいて、前記監視領域内の移動
物体を検出する移動物体検出手段と、 この移動物体検出手段により検出された各移動物体に対
応する濃度画像パターン情報を時系列的に記憶する濃度
画像パターン記憶手段と、 この濃度画像パターン記憶手段に記憶された現時点とそ
れ以前の前記濃度画像パターン情報間の照合度に基づい
て、各移動物体毎に時系列上の同一物体を特定するため
の同一物体対応判定処理を行なう同一物体対応判定手段
と、 前記現時点の濃度画像パターン情報に対して同一物体と
特定できない照合度を有するそれ以前の濃度画像パター
ン情報を各移動物体毎に抽出し、この抽出した前記それ
以前の各濃度画像パターン情報および前記現時点の濃度
画像パターン情報を前記濃度画像パターン記憶手段に保
存する保存手段と、 前記同一物体対応判定処理の判定結果に基づいて、前記
移動物体を追跡処理する追跡手段とを具備したことを特
徴とする監視システム。
1. An image input unit for continuously inputting images in a monitoring area, a conversion unit for converting images continuously input by the image input unit into digital image information including density image pattern information, and the conversion unit. Image storage means for storing a plurality of digital image information converted by the means, and a difference image between the background image and the current image input by the image input means in the digital image information stored in the image storage means On the basis of the above, a moving object detecting means for detecting a moving object in the monitoring area, and a density image pattern storage for time-sequentially storing the density image pattern information corresponding to each moving object detected by the moving object detecting means. Means and each of the density image pattern storage means based on the degree of matching between the present time and the density image pattern information before that. The same object correspondence determination means for performing the same object correspondence determination process for specifying the same object in time series for each moving object, and before that having a matching degree that cannot identify the same object with respect to the current density image pattern information The density image pattern information of each of the moving objects is extracted, and the extracted density image pattern information before and the density image pattern information at the present time are stored in the density image pattern storage means; A monitoring system comprising: a tracking unit configured to track the moving object based on a determination result of the object correspondence determination process.
【請求項2】 前記同一物体対応判定手段は、各移動物
体毎に現時点の濃度画像パターン情報とそれ以前の全て
の濃度画像パターン情報とを照合処理し、最大の照合度
を示す移動物体を時系列上の同一物体であると判定する
ように構成されたことを特徴とする請求項1記載の監視
システム。
2. The same object correspondence determining means performs a matching process on current density image pattern information and all previous density image pattern information for each moving object, and detects the moving object having the maximum matching degree. The monitoring system according to claim 1, wherein the monitoring system is configured to determine that they are the same object on the series.
【請求項3】 前記同一物体対応判定手段は、予め同一
物体の照合度の分散値を算出し、前記それ以前の濃度画
像パターン情報の中で最新の濃度画像パターン情報と前
記現時点の濃度画像パターン情報とを照合処理し、この
照合度が前記分散値の範囲内に含まれる各移動物体に対
応する前記それ以前の濃度画像パターン情報との照合処
理を実行するように構成されたことを特徴とする請求項
2記載の監視システム。
3. The same object correspondence determining means calculates in advance a variance value of the matching degree of the same object, and the latest density image pattern information and the current density image pattern among the density image pattern information before that are calculated. It is configured to perform collation processing with information, and to perform collation processing with the density image pattern information before that corresponding to each moving object whose degree of collation falls within the range of the dispersion value. The monitoring system according to claim 2.
【請求項4】 監視領域内の画像を連続して入力する画
像入力手段と、この画像入力手段により連続入力された
複数の画像情報を記憶する画像記憶手段と、この画像記
憶手段に記憶された画像情報の中で背景画像と前記画像
入力手段により入力された現時点の画像との差分画像に
基づいて、前記監視領域内の移動物体を検出する移動物
体検出手段と、この移動物体検出手段により検出された
各移動物体に対応する濃度画像パターン情報を時系列的
に記憶する濃度画像パターン記憶手段とを備えた監視シ
ステムにおいて、 前記濃度画像パターン記憶手段に記憶された現時点とそ
れ以前の濃度画像パターン情報を読出すステップと、 前記現時点の濃度画像パターン情報と前記それ以前の濃
度画像パターン情報との照合処理を実行するステップ
と、 前記照合処理の照合度に基づいて、各移動物体毎に時系
列上の同一物体を特定するための同一物体対応判定処理
を行なうステップと、 前記現時点の濃度画像パターン情報に対して同一物体と
特定できない照合度を有するそれ以前の濃度画像パター
ン情報を各移動物体毎に抽出するステップと、 抽出した前記それ以前の各濃度画像パターン情報および
前記現時点の濃度画像パターン情報を前記濃度画像パタ
ーン記憶手段に保存するステップと、 前記同一物体対応判定処理の判定結果に基づいて、前記
各移動物体を追跡処理するステップとからなることを特
徴とする移動物体追跡方法。
4. An image input unit for continuously inputting images in the monitoring area, an image storage unit for storing a plurality of image information continuously input by the image input unit, and an image storage unit for storing the image information. A moving object detection unit that detects a moving object in the monitoring area based on a difference image between a background image and the current image input by the image input unit in the image information, and the moving object detection unit detects the moving object. A density image pattern storage means for time-sequentially storing the density image pattern information corresponding to each of the moving objects, the density image patterns of the present time and the previous density image patterns stored in the density image pattern storage means. A step of reading information, a step of executing a collation process of the current density image pattern information and the previous density image pattern information, Performing the same object correspondence determination process for specifying the same object in time series for each moving object based on the matching degree of the matching process; and specifying the same object for the current density image pattern information. A step of extracting density image pattern information before that having an unmatchable degree for each moving object, and the extracted density image pattern information before that and the density image pattern information at the present time are stored in the density image pattern storage means. A moving object tracking method comprising a step of storing and a step of tracking each moving object based on a determination result of the same object correspondence determination processing.
JP7009983A 1995-01-25 1995-01-25 Monitor system and moving body tracking method thereof Pending JPH08205131A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7009983A JPH08205131A (en) 1995-01-25 1995-01-25 Monitor system and moving body tracking method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7009983A JPH08205131A (en) 1995-01-25 1995-01-25 Monitor system and moving body tracking method thereof

Publications (1)

Publication Number Publication Date
JPH08205131A true JPH08205131A (en) 1996-08-09

Family

ID=11735135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7009983A Pending JPH08205131A (en) 1995-01-25 1995-01-25 Monitor system and moving body tracking method thereof

Country Status (1)

Country Link
JP (1) JPH08205131A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000038121A (en) * 1998-07-22 2000-02-08 Mitsubishi Motors Corp Travel control method for vehicle
JP2008077361A (en) * 2006-09-20 2008-04-03 Kanazawa Inst Of Technology Monitoring method and monitoring system
US7656430B2 (en) 2005-02-28 2010-02-02 Sony Corporation Information processing system, information processing apparatus and method, and program
US8208028B2 (en) 2006-08-07 2012-06-26 Panasonic Corporation Object verification device and object verification method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000038121A (en) * 1998-07-22 2000-02-08 Mitsubishi Motors Corp Travel control method for vehicle
US7656430B2 (en) 2005-02-28 2010-02-02 Sony Corporation Information processing system, information processing apparatus and method, and program
US8208028B2 (en) 2006-08-07 2012-06-26 Panasonic Corporation Object verification device and object verification method
JP2008077361A (en) * 2006-09-20 2008-04-03 Kanazawa Inst Of Technology Monitoring method and monitoring system

Similar Documents

Publication Publication Date Title
US11257223B2 (en) Systems and methods for user detection, identification, and localization within a defined space
JP4984728B2 (en) Subject collation device and subject collation method
JP5459674B2 (en) Moving object tracking system and moving object tracking method
US8619140B2 (en) Automatic adjustment of area monitoring based on camera motion
JP2021514498A (en) Target tracking method and device, storage medium
EP2058777A1 (en) Suspicious behavior detection system and method
US8995714B2 (en) Information creation device for estimating object position and information creation method and program for estimating object position
JP6617085B2 (en) Object situation estimation system, object situation estimation apparatus, object situation estimation method, and object situation estimation program
KR20190046351A (en) Method and Apparatus for Detecting Intruder
JP6385419B2 (en) Object detection device
JP5807635B2 (en) Flow line detection system, flow line detection method, and flow line detection program
KR20180080004A (en) Target tracking method using feature information in target occlusion condition
WO2005039181A1 (en) Monitoring device
JP2018055607A (en) Event detection program, event detection device, and event detection method
JP2008002817A (en) Object identification system
CN112183304A (en) Off-position detection method, system and computer storage medium
CN114155595A (en) Behavior detection monitoring method, intelligent camera and intelligent monitoring system
JPH08205131A (en) Monitor system and moving body tracking method thereof
JP6336935B2 (en) Moving object tracking device
JP7243372B2 (en) Object tracking device and object tracking method
EP3617933B1 (en) Detecting room occupancy with binary pir sensors
CN115761693A (en) Method for detecting vehicle location mark points and tracking and positioning vehicles based on panoramic image
JPH07134767A (en) Monitoring device for intrusion of suspicious person
CN109740518B (en) Method and device for determining object in video
JP3425092B2 (en) Pattern recognition method