JP2003006649A - Invading object tracking method and invading object monitoring device - Google Patents

Invading object tracking method and invading object monitoring device

Info

Publication number
JP2003006649A
JP2003006649A JP2001184525A JP2001184525A JP2003006649A JP 2003006649 A JP2003006649 A JP 2003006649A JP 2001184525 A JP2001184525 A JP 2001184525A JP 2001184525 A JP2001184525 A JP 2001184525A JP 2003006649 A JP2003006649 A JP 2003006649A
Authority
JP
Japan
Prior art keywords
image
template
size
input
template image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001184525A
Other languages
Japanese (ja)
Other versions
JP4444529B2 (en
Inventor
Wataru Ito
渡 伊藤
Hirotada Ueda
博唯 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2001184525A priority Critical patent/JP4444529B2/en
Publication of JP2003006649A publication Critical patent/JP2003006649A/en
Application granted granted Critical
Publication of JP4444529B2 publication Critical patent/JP4444529B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an invading object tracking method and an invading object monitoring device with high reliability with which an invading object can be exactly tracked by setting the suitable size of a template image even when a plurality of invading objects are photographed while being overlapped or when the luminance value of pixels comprising the image of the invading object is close to the luminance value of pixels comprising the image of the background in a reference background image. SOLUTION: An operating marker to be moved corresponding to an operating means is displayed on a monitor while being superimposed on an input image picked up by an image pickup device and on the basis of the position of the operating marker, the size of the template image is set. The size of the template image set by size setting of template image is newly registered as a candidate for the size of template image, and any size candidate of the template image is selected. Then, the invading object in the field of vision of the image pickup device is detected and tracked.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、撮像装置を用いた
監視装置に係り、特に撮像視野内に侵入した物体を撮像
装置から入力する映像信号の中から自動的に検出し、操
作手段を用いて設定されたテンプレート画像の大きさに
基づいて検出した物体の画像をテンプレート画像として
登録し、該テンプレート画像をもとにテンプレートマッ
チングによって検出した物体の動きを自動的に検出する
ようにした侵入物体追跡方法と、検出した物体の動きを
監視モニタ上に表示し、監視員に所定の報知を行なうよ
うにした侵入物体監視装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a monitoring device using an image pickup device, and more particularly, to an object that has entered the image pickup field of view, which is automatically detected from a video signal input from the image pickup device and uses an operating means. Image of an object detected based on the size of the template image set as a template image, and an intruding object automatically detecting the movement of the object detected by template matching based on the template image The present invention relates to a tracking method and an intruding object monitoring device that displays the detected movement of an object on a monitoring monitor to give a predetermined notification to a monitoring person.

【0002】[0002]

【従来の技術】カメラ等の撮像装置を用いた映像監視装
置は、従来から広く用いられている。しかし、このよう
な映像監視装置を用いた監視システムにおいて、その監
視視野内に入り込んでくる人間や自動車などの侵入物体
の検出及び追跡を、監視員がモニタに表示される画像を
見ながら行なう有人監視ではなく、カメラ等の画像入力
手段から入力される画像から侵入物体を自動的に検出
し、その動きを自動的に追跡するようにし、所定の報知
や警報処置が得られるようにしたシステムが要求される
ようになってきている。
2. Description of the Related Art A video surveillance device using an image pickup device such as a camera has been widely used. However, in a surveillance system using such a video surveillance device, a manned person who performs detection and tracking of an intruding object such as a person or an automobile entering the surveillance field of view while observing an image displayed on the monitor Instead of monitoring, a system that automatically detects an intruding object from an image input from an image input means such as a camera and automatically tracks the movement of the intruding object to obtain a predetermined notification or alarm action is provided. It is becoming required.

【0003】このような監視システムを実現するために
は、まず、差分法などによって視野内の侵入物体を検出
する。差分法とは、テレビジョンカメラ(以下、カメラ
と称する)等の撮像装置により得られた入力画像と、予
め作成した基準背景画像、即ち、検出すべき物体の写っ
ていない画像とを比較し、画素毎に輝度値の差分を求
め、その差分値の大きい領域を物体として検出する処理
方法である。このようにして検出された侵入物体の画像
をテンプレートとして登録し、逐次入力される画像の中
でテンプレート画像と一致度が最大となる位置を検出す
る。この方法は、テンプレートマッチングと呼ばれ、例
えば、1985年に総研出版より出版された田村秀行氏
監修による『コンピュータ画像処理入門』と題する書籍
のP149〜153で解説されている。通常、テンプレ
ートマッチングを用いて対象物体を追跡する場合、対象
物体の姿勢の変化に追従するため、マッチング処理によ
って検出された対象物体の位置の画像を新たにテンプレ
ートとして逐次更新する。従来技術のこれらの処理を図
4と図5を用いて説明する。
In order to realize such a monitoring system, first, an intruding object in the visual field is detected by a difference method or the like. The difference method is a comparison between an input image obtained by an imaging device such as a television camera (hereinafter referred to as a camera) and a reference background image created in advance, that is, an image in which an object to be detected is not captured, This is a processing method in which a difference in luminance value is obtained for each pixel and an area having a large difference value is detected as an object. The image of the intruding object detected in this way is registered as a template, and the position where the degree of coincidence with the template image is the maximum is detected in the images that are sequentially input. This method is called template matching, and is described, for example, in pages 149 to 153 of a book entitled "Introduction to Computer Image Processing" supervised by Hideyuki Tamura, published by Soken Shuppan in 1985. Usually, when tracking a target object using template matching, the image of the position of the target object detected by the matching process is sequentially updated as a new template in order to follow changes in the posture of the target object. These processes of the conventional technique will be described with reference to FIGS. 4 and 5.

【0004】図4は、差分法によって撮像装置の視野内
に侵入した物体を検出し、検出した物体をテンプレート
マッチングで使用できるように初期のテンプレート画像
として登録する処理のプロセスを説明するための図であ
る。図4で、401 は入力画像、402 は基準背景画像、40
3 は入力画像 401 と基準背景画像 402 の差分画像、40
4 は差分画像 403 の二値化画像、405 は差分処理部、4
06 は二値化処理部、407 は入力画像 401 中に写る人型
の物体、408 は人型の物体 407 に相当する差分画像 40
3 中の人型の差分画像、409 は人型の差分画像 408 に
相当する二値化画像 404 中の人型の物体(人型の二値
化画像)、410 は検出された人型の物体409 の外接矩
形、411 は入力画像 401 から指定された領域を抽出す
る抽出処理部、412 は抽出画像、413 はテンプレート画
像である。
FIG. 4 is a diagram for explaining a process of detecting an object that has entered the visual field of the image pickup apparatus by the difference method and registering the detected object as an initial template image so that it can be used for template matching. Is. In FIG. 4, 401 is the input image, 402 is the reference background image, and 40
3 is the difference image between the input image 401 and the reference background image 402, 40
4 is a binarized image of the difference image 403, 405 is a difference processing unit, 4
06 is a binarization processing unit, 407 is a human-shaped object in the input image 401, and 408 is a difference image corresponding to the human-shaped object 407.
3 human difference image, 409 is the binarized image corresponding to the human difference image 408, humanoid object in 404 (humanoid binarized image), 410 is the detected humanoid object 409 is a circumscribing rectangle, 411 is an extraction processing unit that extracts a specified region from the input image 401, 412 is an extracted image, and 413 is a template image.

【0005】図4において、先ず、カメラ等の撮像装置
から、例えば、320 × 240 画素の入力画像 401 を入力
する。次に、差分処理部 405 において、入力画像 401
と、予め作成した基準背景画像 402 との画素毎の差分
を計算し、差分画像 403 を取得する。この時、入力画
像 401 中の人型の物体 407 は差分画像 403 中に、人
型の差分画像 408 として現れる。そして、二値化処理
部 406 において、差分画像 403 の各画素に対して差分
値が所定のしきい値未満の画素の値を“ 0 ”、しきい
値以上の画素の値を“ 255 ”( 1 画素を 8 ビットと
して取り扱う)に置き換えて、二値化画像 404 を得
る。この時、入力画像 401 に撮像された人型の物体 40
7 は、二値化画像 404 中の人型の物体 409 として検出
される。以上が、差分法による物体検出処理プロセスの
概略である。
In FIG. 4, first, an input image 401 of 320 × 240 pixels is input from an image pickup device such as a camera. Next, in the difference processing unit 405, the input image 401
And a difference for each pixel from the reference background image 402 created in advance is calculated, and the difference image 403 is acquired. At this time, the humanoid object 407 in the input image 401 appears in the differential image 403 as a humanoid differential image 408. Then, in the binarization processing unit 406, with respect to each pixel of the difference image 403, the value of the pixel whose difference value is less than a predetermined threshold value is “0”, and the value of the pixel which is more than the threshold value is “255” ( 1 pixel is treated as 8 bits) and the binarized image 404 is obtained. At this time, the humanoid object 40 captured in the input image 401
7 is detected as a humanoid object 409 in the binarized image 404. The above is the outline of the object detection processing process by the difference method.

【0006】次に、二値化画像 404 中の差分法によっ
て検出された人型の物体 409 の外接矩形 410 を検出す
る。次に、抽出処理部 411 において、入力画像 401 か
ら外接矩形 410 で表される領域を抽出する。抽出され
た画像は抽出画像 412 中のテンプレート画像 413 とし
て登録される。以上が、初期のテンプレート画像登録処
理プロセスの概略である。
Next, the circumscribed rectangle 410 of the human-shaped object 409 detected by the difference method in the binarized image 404 is detected. Next, the extraction processing unit 411 extracts the area represented by the circumscribed rectangle 410 from the input image 401. The extracted image is registered as the template image 413 in the extracted image 412. The above is the outline of the initial template image registration processing process.

【0007】図5は、テンプレートマッチングによって
侵入物体を追跡する処理プロセスを説明するための図で
ある。図5において、501 、503 、505 、507 は時刻 t
0-1、t0 、t0+1 、t0+2 における抽出画像、501a 、503
a 、505a 、507a は時刻 t0-1 、t0 、t0+1 、t0+2 で
得られたテンプレート画像、502 、504 、506 、508は
時刻 t0 、t0+1 、t0+2 、t0+3 における入力画像、509
a 、509b 、509c 、509d はマッチング処理部、510a 、
510b 、510c はテンプレート画像更新部である。
FIG. 5 is a diagram for explaining a processing process for tracking an intruding object by template matching. In FIG. 5, 501, 503, 505, and 507 are times t.
Extracted images at 0-1, t0, t0 + 1, t0 + 2, 501a, 503
a, 505a, 507a are template images obtained at times t0-1, t0, t0 + 1, t0 + 2, 502, 504, 506, 508 are at times t0, t0 + 1, t0 + 2, t0 + 3. Input image, 509
a, 509b, 509c, 509d are matching processing units, 510a,
510b and 510c are template image update units.

【0008】図5において、マッチング処理部 509a 、
509b 、509c 、509d は、抽出画像501 、503 、505 、5
07 中のそれぞれのテンプレート画像 501a 、503a 、50
5a、507a とそれぞれの入力画像 502 、504 、506 、50
8 を比較し、入力画像中でテンプレート画像と最も一致
度が高くなる部分を検出する。以上が、テンプレートマ
ッチング処理プロセスである。
In FIG. 5, the matching processing unit 509a,
509b, 509c, 509d are the extracted images 501, 503, 505, 5
07 Template images 501a, 503a, 50
5a, 507a and their respective input images 502, 504, 506, 50
8 is compared and the part of the input image that has the highest degree of matching with the template image is detected. The above is the template matching processing process.

【0009】テンプレート画像更新部 510a、510b、510
c は、マッチング処理部 509a、509b、509c、509d で検
出された最も一致度が高い部分を新たな侵入物体の位置
とし、その画像を用いて抽出画像及びテンプレート画像
を置き換えることでテンプレート画像の更新を行なう。
ここで、テンプレートマッチング、テンプレート画像更
新を、図5によって時刻 t0-1、t0、t0+1、t0+2、t0+3
と順を追って説明する。
Template image update units 510a, 510b, 510
c is the position of the new intruding object that has the highest degree of matching detected by the matching processing units 509a, 509b, 509c, and 509d, and the template image is updated by replacing the extracted image and template image with that image Do.
Here, template matching and template image update are performed at times t0-1, t0, t0 + 1, t0 + 2, t0 + 3 according to FIG.
Will be explained step by step.

【0010】先ず、時刻 t0-1 において得られたテンプ
レート画像 501a と時刻 t0 に得られた入力画像 502
を使ってテンプレートマッチング処理を行なう。ここ
で、追跡処理の最初の処理フレームでは、テンプレート
画像 501a は差分法によって検出された人型の物体 407
の画像となる。テンプレートマッチング処理部 509a
では、入力画像 502 におけるテンプレート画像 501a
の位置に相当する領域(領域 502b)の周囲 502c を探
索領域とし、テンプレート画像 501a との一致度を求
め、探索領域 502c 中でテンプレート画像 501a と最も
一致している(最も一致度が高い)領域 502a を検出
(マッチング)する。ここで、探索領域 502c は、領域
502b を基準として、横方向±Sx 画素、縦方向 ±Sy
画素として設定される。ここで、例えば、Sx = 30 、Sy
= 10 とする。Sx 、Sy は、追跡すべき対象の入力画像
502 上での見かけの最大移動量に設定する。また、一
致度を求めるために、例えば、式(1) に示す正規化相関
r(x,y,u,v)を用いることができる。
First, a template image 501a obtained at time t0-1 and an input image 502 obtained at time t0.
Perform template matching processing using. Here, in the first processing frame of the tracking process, the template image 501a is a human-shaped object 407 detected by the difference method.
It becomes an image of. Template matching processing part 509a
Then, the template image 501a in the input image 502
The area 502c around the area corresponding to the position (area 502b) is set as the search area, the degree of coincidence with the template image 501a is obtained, and the area that most matches (the highest degree of coincidence) with the template image 501a in the search area 502c. 502a is detected (matching). Where the search area 502c is the area
Horizontal direction ± Sx pixels, vertical direction ± Sy based on 502b
It is set as a pixel. Where, for example, Sx = 30, Sy
= 10. Sx and Sy are the input images of the target to be tracked
502 Set to the apparent maximum amount of movement. In order to obtain the degree of coincidence, for example, the normalized correlation shown in Equation (1) is used.
r (x, y, u, v) can be used.

【数1】 [Equation 1]

【0011】式(1) において、f( ) は入力画像、g( )
はテンプレート画像を表し、(x,y)は入力画像の探索領
域 502c 内の座標(マッチング対象領域と呼ぶ)、(u,
v) はテンプレート画像 501a の左上の座標(テンプレ
ート画像登録時の座標)を表す。ただし、画像は全て左
上を原点 (0,0) とする。また、W はテンプレート画像
の幅、H はテンプレート画像の高さを表す。また、式
(1) において、f( )とg( )の上に棒線は平均値を表し、
それぞれ、入力画像内のマッチング対象領域、テンプレ
ート画像の平均輝度値であり、式(2) と式(3) で表され
る。
In equation (1), f () is the input image and g ()
Represents a template image, (x, y) is the coordinates in the search region 502c of the input image (called a matching target region), (u,
v) represents the upper left coordinates of the template image 501a (the coordinates when the template image was registered). However, the upper left corner of all images is the origin (0,0). W is the width of the template image and H is the height of the template image. Also, the formula
In (1), the bar above f () and g () represents the average value,
These are the average luminance value of the matching target area in the input image and the template image, respectively, and are expressed by equations (2) and (3).

【数2】 [Equation 2]

【式3】 [Formula 3]

【0012】正規化相関 r(x,y,u,v) は、入力画像 f
( ) の位置 (x,y) を左上の座標とする幅 W と高さ H
の領域の輝度値分布と、テンプレート画像 g( ) の位置
(u,v)を左上の座標とする幅 W と高さ H の領域の輝度
値分布との一致度を表すもので、入力画像 f( ) とテン
プレート画像 g( ) の各画素の輝度値が全て同じ値であ
った場合、1.0 となる。テンプレートマッチングは、入
力画像 f( ) 中でテンプレート画像 g( ) と最も一致度
が高くなる部分を検出する処理である。すなわち、テン
プレート画像 g( ) の位置 (u,v) を基準として (x,y)
を u-Sx≦x<u+Sx、v-Sy≦y<v+Sy と変化させ、式(1)
で表される正規化相関 r(x,y,u,v) が最大となる (x,y)
を見つける。図5の例では、侵入物体は入力画像 502
中で位置 502e に写っているため、最も一致している領
域は 502a(左上の座標 (x,y))となる。なお、正規化
相関の他にも入力画像 f( ) の位置 (x,y) を左上の座
標とする幅 W と高さH の領域とテンプレート画像 g()
の位置 (u,v) を左上の座標とする幅 W と高さ H の領
域の各画素の輝度値の差の絶対値の平均値を一致度とし
て用いても良い。この場合、入力画像 f( ) とテンプレ
ート画像 g( ) の各画素の輝度値が全て同じ値であった
場合、0.0 となる。テンプレートマッチング処理部 509
a の処理結果によれば、領域 502b(左上の座標 (u,
v))に存在していた侵入物体は、領域 502a(左上の座
標 (x,y))に移動したと判定される。したがって、領域
502b の中心と領域 502a の中心を結ぶ矢印 502d が侵
入物体の移動方向となる。次に、テンプレート画像更新
部 510a では、入力画像 502 のマッチングした領域 50
2a を抽出して抽出画像 503 を得て、テンプレート画像
501a を新たなテンプレート画像 503a として更新す
る。
The normalized correlation r (x, y, u, v) is the input image f
Width W and height H with upper left coordinates at position (x, y) of ()
Value distribution in the area of and the position of template image g ().
It represents the degree of coincidence between the luminance value distribution of the area of width W and height H with (u, v) as the upper left coordinate, and the luminance value of each pixel of the input image f () and the template image g () is If all values are the same, it becomes 1.0. Template matching is a process of detecting a portion of the input image f () that has the highest degree of matching with the template image g (). That is, with reference to the position (u, v) of the template image g (), (x, y)
Is changed to u-Sx ≤ x <u + Sx, v-Sy ≤ y <v + Sy, and equation (1)
The normalized correlation r (x, y, u, v) represented by is maximum (x, y)
Find out. In the example of FIG. 5, the intruding object is the input image 502.
Since it is located at position 502e, the region with the best match is 502a (upper left coordinates (x, y)). In addition to the normalized correlation, a region of width W and height H with the position (x, y) of the input image f () as the upper left coordinate and the template image g ()
The average value of the absolute values of the differences in the brightness values of the pixels in the area of width W and height H with the position (u, v) at the upper left coordinates may be used as the degree of coincidence. In this case, when the brightness values of the respective pixels of the input image f () and the template image g () are all the same value, it becomes 0.0. Template matching processing part 509
According to the processing result of a, the area 502b (upper left coordinates (u,
The intruding object existing in (v)) is determined to have moved to the area 502a (upper left coordinates (x, y)). Therefore, the area
An arrow 502d connecting the center of 502b and the center of region 502a is the moving direction of the intruding object. Next, in the template image updating unit 510a, the matching region 50 of the input image 502 is
2a is extracted to obtain the extracted image 503, and the template image
Update 501a as a new template image 503a.

【0013】次に、時刻 t0+1 に入力された入力画像 5
04 について、テンプレートマッチング処理部 509b で
は、時刻 t0 の場合と同様に、入力画像 504 における
テンプレート画像 503a の位置に相当する領域(領域 5
04b)の周囲 504c を探索領域とし、探索領域 504c 中
でテンプレート画像 503a と最も一致している領域 504
a を検出する。この例では、侵入物体の移動方向は、矢
印 504d になる。さらに、テンプレート画像更新処理部
510b では、入力画像 504 のマッチングした領域 504a
を抽出して抽出画像 505 を得て、テンプレート画像 5
03a を新たなテンプレート画像 505a として更新する。
Next, the input image 5 input at time t0 + 1
For 04, in the template matching processing unit 509b, as in the case of time t0, the area (area 5) corresponding to the position of the template image 503a in the input image 504 is displayed.
The area 504c surrounding 04b) is set as the search area, and the area 504 that most matches the template image 503a in the search area 504c.
detect a. In this example, the moving direction of the intruding object is arrow 504d. In addition, the template image update processing unit
In 510b, the matching region 504a of the input image 504
To obtain the extracted image 505 and the template image 5
Update 03a as a new template image 505a.

【0014】続く、時刻 t0+2 に入力された入力画像 5
06 について、テンプレートマッチング処理部 509c で
は、時刻 t0+1 の場合と同様に、入力画像 506 におけ
るテンプレート画像 505a の位置に相当する領域(領域
506b)の周囲 506c を探索領域とし、探索領域 506c
中でテンプレート画像 504a と最も一致している領域50
6a を検出する。この例では、侵入物体の移動方向は、
矢印 506d になる。さらに、テンプレート画像更新処理
部 510c では、入力画像 506 のマッチングした領域506
a を抽出して抽出画像 507 を得て、テンプレート画像
505a を新たなテンプレート画像 507a として更新す
る。
Next, the input image 5 input at time t0 + 2
As for 06, the template matching processing unit 509c, as in the case of time t0 + 1, determines the region (region) corresponding to the position of the template image 505a in the input image 506.
506b) around 506c as a search area, and search area 506c
Region 50 that most matches template image 504a
Detect 6a. In this example, the moving direction of the intruding object is
It becomes arrow 506d. Further, in the template image update processing unit 510c, the matching region 506 of the input image 506 is
Extract a to get the extracted image 507,
Update 505a as a new template image 507a.

【0015】さらに続いて、時刻 t0+3 に入力された入
力画像 508 について、テンプレートマッチング処理部
509d では、時刻 t0+2 の場合と同様に、入力画像 508
におけるテンプレート画像 507a の位置に相当する領域
(領域 508b)の周囲 508cを探索領域とし、探索領域 5
08c 中でテンプレート画像 506a と最も一致している領
域 508a を検出する。この例では、侵入物体の移動方向
は、矢印 508d になる。このようにして、入力画像 502
に写る侵入物体 502e は、矢印 502d、504d、506d、50
8d の順に移動したと判断できる。
Subsequently, the template matching processing unit is applied to the input image 508 input at time t0 + 3.
In 509d, as in the case of time t0 + 2, the input image 508
The area 508c around the area (area 508b) corresponding to the position of the template image 507a in FIG.
A region 508a that most matches the template image 506a in 08c is detected. In this example, the moving direction of the intruding object is arrow 508d. In this way, the input image 502
The intruding object 502e shown in the figure is arrows 502d, 504d, 506d, 50.
It can be judged that they moved in the order of 8d.

【0016】前述の差分法とテンプレートマッチングを
用いた侵入物体の追跡法では、差分法によって検出され
た検出物体の外接矩形がテンプレート画像の大きさとな
る(幅 W、高さ H)。しかし、撮像装置の視野内に複数
の侵入物体が存在し、かつ、それらが重なって写ってい
る場合、実際の侵入物体の大きさよりも大きく観測され
てしまう。このような現象が発生すると、テンプレート
画像には侵入物体以外の画素も多く含まれるようになっ
てしまうため、正確な侵入物体の追跡が困難になる。
In the tracking method of an intruding object using the difference method and template matching described above, the circumscribed rectangle of the detected object detected by the difference method becomes the size of the template image (width W, height H). However, when a plurality of intruding objects are present within the field of view of the image pickup apparatus and are overlapped in the image, they are observed larger than the actual size of the intruding object. When such a phenomenon occurs, many pixels other than the intruding object are included in the template image, which makes it difficult to accurately track the intruding object.

【0017】また、差分法は、入力画像と予め用意した
基準背景画像との画素毎の輝度差に基づいて侵入物体を
検出する処理方法であるため、侵入物体の像を構成する
画素の輝度値と、基準背景画像中の背景の像を構成する
画素の輝度値が近い値の場合には、その画素は検出され
なくなる。したがって、検出される物体 409 の一部が
欠けてしまったり、一部が分離して検出され、検出物体
の外接矩形は侵入物体に対して小さくなってしまう。こ
のような現象が発生すると、侵入物体よりも小さいテン
プレート画像を用いてテンプレートマッチング処理を行
なわなければならなくなるため、正確な侵入物体の追跡
が困難になる。このような問題に対して、予め追跡すべ
き侵入物体の見かけ上の大きさを決めておく(テンプレ
ート画像の大きさを固定にする)方法が取られる。しか
し、この方法を用いると、大きさの異なる侵入物体に対
しては、適切なテンプレート画像の大きさが設定でき
ず、侵入物体の追跡が困難となる。
Further, since the difference method is a processing method for detecting an intruding object based on a difference in brightness between the input image and a reference background image prepared in advance for each pixel, the brightness value of the pixels forming the image of the intruding object is detected. When the brightness value of the pixel forming the background image in the reference background image is close, the pixel is not detected. Therefore, a part of the detected object 409 is missing, or a part of the detected object 409 is detected separately, and the circumscribed rectangle of the detected object becomes smaller than the intruding object. When such a phenomenon occurs, template matching processing must be performed using a template image smaller than the intruding object, which makes it difficult to accurately track the intruding object. To solve such a problem, a method of predetermining the apparent size of the intruding object to be traced (fixing the size of the template image) is adopted. However, when this method is used, it is difficult to track the intruding object because the size of the template image cannot be set appropriately for the intruding objects having different sizes.

【0018】[0018]

【発明が解決しようとする課題】前述の従来技術には、
撮像装置の視野内に複数の侵入物体が存在してそれらが
重なって写っている場合、侵入物体の大きさが大きく観
測されるという欠点があった。また、侵入物体の像を構
成する画素の輝度値と、基準背景画像中の背景の像を構
成する画素の輝度値が近い値の場合、侵入物体の大きさ
が小さく観測されるという欠点があった。さらにまた、
予め追跡すべき侵入物体の見かけ上の大きさを決めてお
く方法を用いても、大きさの異なる侵入物体に対しては
正確に追跡できない欠点があった。本発明の目的は、上
記のような欠点を除去し、複数の侵入物体が重なって写
った場合や、侵入物体の像を構成する画素の輝度値と基
準背景画像中の背景の像を構成する画素の輝度値が近い
値の場合でも、適切なテンプレート画像の大きさを設定
できるようにして、正確に侵入物体を追跡することがで
きる信頼性の高い侵入物体追跡方法及び侵入物体監視装
置を提供することにある。
DISCLOSURE OF THE INVENTION Problems to be Solved by the Invention
When a plurality of intruding objects are present in the field of view of the image pickup apparatus and are overlapped in the image, the size of the intruding object is observed to be large. Further, when the brightness value of the pixels forming the image of the intruding object and the brightness value of the pixels forming the background image in the reference background image are close to each other, the size of the intruding object is observed to be small. It was Furthermore,
Even if a method of previously determining the apparent size of an intruding object to be tracked is used, there is a drawback in that an intruding object having a different size cannot be accurately tracked. The object of the present invention is to eliminate the above-mentioned drawbacks and to form the image of the background of the reference background image and the brightness value of the pixels forming the image of the intruding object when a plurality of intruding objects are overlapped. Provided is a highly reliable intruding object tracking method and intruding object monitoring device capable of accurately tracking an intruding object by setting an appropriate template image size even when the brightness values of pixels are close to each other. To do.

【0019】[0019]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明の侵入物体追跡方法は、操作手段を用いて
入力される操作信号に応じて移動する操作マーカを、撮
像装置により撮像された入力画像に重畳してモニタに表
示し、操作マーカの位置に基づいてテンプレート画像の
大きさを設定し、入力画像と、操作マーカの位置と、テ
ンプレート画像の大きさとに基づいて、初期のテンプレ
ート画像を登録することで、侵入物体を追跡するように
したものである。
In order to achieve the above object, an intruding object tracking method according to the present invention uses an image pickup device to pick up an image of an operation marker that moves according to an operation signal input using the operation means. The size of the template image is set based on the position of the operation marker and is displayed on the monitor by superimposing the input image on the input image, the position of the operation marker, and the size of the template image. By registering a template image, an intruding object is tracked.

【0020】即ち、本発明の侵入物体追跡方法は、テン
プレート画像をもとにしたテンプレートマッチングによ
って、撮像視野内を撮像して取得した入力画像から撮像
視野内の物体を検出し、検出した物体を追跡する侵入物
体追跡方法において、入力画像を表示装置の表示画面上
に表示し、表示画面上に操作マーカを重畳して表示し、
操作者の指示に応じて操作マーカを移動し、操作マーカ
の位置に基づいて、入力画像の画像領域の一部をテンプ
レート画像に設定するものである。
That is, the intruding object tracking method of the present invention detects an object in the imaging visual field from the input image obtained by imaging the imaging visual field by template matching based on the template image, and detects the detected object. In an intruding object tracking method for tracking, an input image is displayed on a display screen of a display device, and an operation marker is displayed on the display screen in a superimposed manner,
The operation marker is moved according to the instruction of the operator, and a part of the image area of the input image is set in the template image based on the position of the operation marker.

【0021】また、本発明の侵入物体追跡方法で設定す
るテンプレート画像は、操作マーカの位置を1つの頂点
とする多角形に相当する入力画像の画像領域の一部を切
り取るものである。更にまた、テンプレート画像の大き
さまたは形状の少なくとも1つをテンプレート大きさ候
補として記憶し、操作者が、入力画像の所望の位置に、
選択したテンプレート大きさ候補の1つを指定すること
によって、入力画像の画像領域の一部をテンプレート画
像に設定するものである。また、設定されたテンプレー
ト画像の大きさまたは形状を、テンプレート画像の大き
さ候補として追加または更新するものである。
The template image set by the intruding object tracking method of the present invention cuts out a part of the image area of the input image corresponding to a polygon having the position of the operation marker as one vertex. Furthermore, at least one of the size or shape of the template image is stored as a template size candidate, and the operator can select a desired position of the input image,
By designating one of the selected template size candidates, a part of the image area of the input image is set as the template image. Further, the size or shape of the set template image is added or updated as a size candidate of the template image.

【0022】更に、本発明の侵入物体監視装置は、テン
プレート画像をもとにテンプレートマッチングによっ
て、撮像視野内の物体を検出し、検出した物体を追跡す
る場合、撮像装置が取得した映像信号を逐次入力画像に
変換する画像入力インターフェイスと、ユーザからの指
示を入力する操作手段と、入力画像を記憶する画像記憶
手段と、入力画像を処理する画像処理手段と、入力画像
に、処理マーカを重畳して表示する表示装置とを備え、
画像処理手段によって、操作手段からの入力信号に基づ
いて表示装置の画像上に表示された操作マーカを移動
し、画像処理手段が、操作手段の入力信号と操作マーカ
の位置座標に基づいてテンプレート画像の大きさを設定
し、入力画像と、操作マーカの位置と、テンプレート画
像の大きさとに基づいて、テンプレート画像を登録する
初期テンプレート登録し、テンプレート画像をもとにテ
ンプレートマッチングによって撮像視野内の物体を追跡
するものである。
Furthermore, the intruding object monitoring apparatus of the present invention detects an object in the imaging field of view by template matching based on the template image, and when tracking the detected object, the image signals acquired by the imaging apparatus are sequentially acquired. An image input interface for converting into an input image, an operation means for inputting an instruction from a user, an image storage means for storing the input image, an image processing means for processing the input image, and a processing marker superimposed on the input image. And a display device for displaying
The image processing means moves the operation marker displayed on the image of the display device based on the input signal from the operation means, and the image processing means causes the template image to be generated based on the input signal of the operation means and the position coordinates of the operation marker. The size of the input image, the position of the operation marker, and the size of the template image based on the size of the template image. Is to track.

【0023】さらに、本発明の侵入物体追跡方法は、テ
ンプレート画像の大きさ設定では、操作マーカによって
指定される位置を頂点とする多角形を用いてテンプレー
ト画像の大きさを設定するようにしたものである。ま
た、本発明の侵入物体追跡方法は、操作手段を用いて入
力される操作信号に応じて移動する操作マーカを、撮像
装置により撮像された入力画像に重畳してモニタに表示
し、操作手段を用いて入力される操作信号に応じてテン
プレート画像の大きさの候補を表示し、操作手段を用い
て入力される操作信号に応じてテンプレート画像の大き
さの候補からテンプレート画像の大きさを選択し、入力
画像と、操作マーカの位置と、テンプレート画像の大き
さとに基づいて、初期のテンプレート画像を登録するこ
とで、侵入物体を追跡するようにしたものである。さら
に、本発明の侵入物体追跡方法は、テンプレート画像の
大きさ設定で設定されたテンプレート画像の大きさを新
たにテンプレート画像の大きさの候補として登録し、後
のテンプレート画像の大きさ選択で使用することが出来
るようにしたものである。
Further, in the method of tracking an intruding object according to the present invention, in setting the size of the template image, the size of the template image is set by using a polygon whose vertex is the position designated by the operation marker. Is. Further, in the intruding object tracking method of the present invention, the operation marker that moves according to the operation signal input using the operation unit is displayed on the monitor by superimposing the operation marker on the input image captured by the imaging device, and the operation unit is displayed. The template image size candidates are displayed according to the operation signal input using the template, and the template image size is selected from the template image size candidates according to the operation signal input using the operating means. The initial template image is registered based on the input image, the position of the operation marker, and the size of the template image, so that the intruding object is tracked. Furthermore, in the intruding object tracking method of the present invention, the size of the template image set in the size setting of the template image is newly registered as a candidate of the size of the template image, and is used in the subsequent size selection of the template image. It is something that can be done.

【0024】即ち、本発明の侵入物体監視装置は、カメ
ラ等の撮像手段と、カメラ等の撮像手段が撮像した画像
を入力する画像入力 I/F と、画像入力 I/F から出力さ
れた画像を記憶する画像メモリと、撮像手段の視野内の
侵入物体を検出し、操作者の操作信号に応じてテンプレ
ート画像の大きさを設定し、テンプレート画像の大きさ
に基づいて侵入物体を追跡する処理を行なう侵入物体監
視装置の動作プログラムを記憶しているプログラムメモ
リと、動作プログラムにしたがって侵入物体の検出、テ
ンプレート画像の大きさ設定、侵入物体の追跡処理を行
なう CPU と、画像メモリに記憶された画像の解析を行
なう際に一時的にデータを記憶するワークメモリと、操
作者の音声、身振りや手振り、視線方向などの少なくと
も1つ以上の動作によって操作可能な操作手段と、操作
手段の操作信号を入力する入力 I/F と、操作手段の操
作信号に対応して画像上を移動する所定の操作マーカを
入力画像に重畳して出力する画像出力 I/F とを有し、
プログラムメモリに保持されているプログラムが、前記
撮像手段から画像入力 I/F を介して入力された入力画
像と、画像メモリに予め記録しておいた基準背景画像と
から、差分法を用いて侵入物体を検出する手段と、操作
手段からの操作信号と、操作マーカの位置座標に基づい
てテンプレート画像の大きさを設定する手段と、入力画
像と、テンプレート画像の大きさに基づいてテンプレー
トマッチングを用いて侵入物体を追跡するようにしたも
のである。
That is, the intruding object monitoring apparatus according to the present invention comprises an image pickup means such as a camera, an image input I / F for inputting an image picked up by the image pickup means such as a camera, and an image output from the image input I / F. A process of detecting an intruding object in the field of view of the image pickup means and storing the image memory, setting the size of the template image according to the operation signal of the operator, and tracking the intruding object based on the size of the template image. A program memory that stores the operation program of the intruder monitoring device, a CPU that performs intrusion object detection, template image size setting, and intrusion object tracking processing according to the operation program, and an image memory A work memory that temporarily stores data when performing image analysis and at least one or more actions such as the operator's voice, gesture, hand gesture, and line-of-sight direction. Image output that superimposes on the input image the operable operation means, the input I / F that inputs the operation signal of the operation means, and the predetermined operation marker that moves on the image corresponding to the operation signal of the operation means and output. I / F and
The program stored in the program memory invades by using the difference method from the input image input from the image pickup unit through the image input I / F and the reference background image previously recorded in the image memory. A means for detecting an object, a means for setting the size of the template image based on the operation signal from the operation means, and the position coordinates of the operation marker, an input image, and template matching based on the size of the template image are used. It is designed to trace intruding objects.

【0025】[0025]

【発明の実施の形態】本発明の侵入物体監視装置に係る
実施形態の一つを図3に示す。図3は、侵入物体監視装
置のハードウエア構成を示すブロック構成図である。30
1 は撮像装置(以下、カメラと呼ぶ)、302 は電動旋回
台(以下カメラ雲台と呼ぶ)、303 は操作手段、303a
は操作手段 303 に付属する第1のボタン、303b は操作
手段 303 に付属する第2のボタン、304 は侵入物体監
視装置、304a は画像入力 I/F(I/F:Interface )、30
4b は雲台制御 I/F 、304c は入力 I/F 、304d は画像
メモリ、304e は画像出力 I/F 、304f は出力 I/F 、30
4g は CPU( CPU:CentralProcessing Unit )、304h
はプログラムメモリ、304i はワークメモリ、304jはデ
ータバス、305 は出力モニタ、306 は警告灯である。
FIG. 3 shows one embodiment of the intruding object monitoring apparatus of the present invention. FIG. 3 is a block diagram showing the hardware configuration of the intruding object monitoring apparatus. 30
1 is an image pickup device (hereinafter, referred to as a camera), 302 is an electric swivel base (hereinafter, referred to as a camera platform), 303 is an operation unit, and 303a
Is a first button attached to the operating means 303, 303b is a second button attached to the operating means 303, 304 is an intruding object monitoring device, 304a is an image input I / F (I / F: Interface), 30
4b is a pan head control I / F, 304c is an input I / F, 304d is an image memory, 304e is an image output I / F, 304f is an output I / F, 30
4g is CPU (CPU: Central Processing Unit), 304h
Is a program memory, 304i is a work memory, 304j is a data bus, 305 is an output monitor, and 306 is a warning light.

【0026】カメラ 301 は画像入力 I/F 304a に接続
され、カメラ雲台 302 は雲台制御 I/F 304b に接続さ
れ、操作手段 303 は入力 I/F 304c に接続され、出力
モニタ305 は画像出力 I/F 304e に接続され、警告灯 3
06 は出力 I/F 304f に接続されている。また、画像入
力 I/F 304a、雲台制御 I/F 304b、入力 I/F 304c、画
像メモリ 304d、画像出力 I/F 304e、出力 I/F 304f、C
PU 304g、プログラムメモリ 304h、及びワークメモリ 3
04i は、データバス 304j に接続されている。
The camera 301 is connected to the image input I / F 304a, the camera platform 302 is connected to the platform control I / F 304b, the operation means 303 is connected to the input I / F 304c, and the output monitor 305 is connected to the image. Warning light 3 connected to output I / F 304e
06 is connected to output I / F 304f. Image input I / F 304a, pan head control I / F 304b, input I / F 304c, image memory 304d, image output I / F 304e, output I / F 304f, C
PU 304g, program memory 304h, and work memory 3
04i is connected to the data bus 304j.

【0027】図3において、カメラ 301 は、対象とす
る撮像視野内を撮像する。カメラ 301 は、撮像した映
像を電気的な映像信号(例えば NTSC 映像信号)に変換
して、映像信号を画像入力 I/F 304a に出力する。画像
入力 I/F 304a は、入力した映像信号を侵入物体監視装
置で扱うフォーマット(例えば、幅 320 pix 、高さ 24
0 pix 、8 bit/pix )の画像データに変換し、データバ
ス 304i を介して画像メモリ 304d に送る。画像メモリ
304d は、送られてきた画像データを蓄積する。操作手
段 303 は、操作者の操作方向及びボタン 303a、303b
の状態を電気的な信号(例えば接点信号)に変換し、信
号を入力 I/F 304c に出力する。CPU 304gは、プログラ
ムメモリ 304h に保存されているプログラムに従って、
ワークメモリ 304i 内で入力 I/F 304c に入力された信
号と画像メモリ 304d に蓄積された画像の解析を行な
う。
In FIG. 3, a camera 301 captures an image within a target imaging field of view. The camera 301 converts the captured image into an electrical image signal (for example, NTSC image signal) and outputs the image signal to the image input I / F 304a. The image input I / F 304a is a format in which the input video signal is handled by an intruding object monitoring device (for example, width 320 pix, height 24
Convert to 0 pix, 8 bit / pix) image data and send to image memory 304d via data bus 304i. Image memory
304d stores the sent image data. The operation means 303 includes an operation direction of the operator and buttons 303a and 303b.
The state of is converted into an electrical signal (for example, contact signal), and the signal is output to the input I / F 304c. CPU 304g uses the program stored in program memory 304h
In the work memory 304i, the signal input to the input I / F 304c and the image stored in the image memory 304d are analyzed.

【0028】以上の解析結果、カメラ 301 の視野内に
写る侵入物体を検出及び追跡する。CPU 304g は、画像
メモリ 304d に蓄積された入力画像上にワークメモリ 3
04iに記憶されている操作ポインタ位置に基づいて操作
ポインタを描画(重畳)し、画像出力 I/F 304e を介し
て出力モニタ 305 にカメラ映像を表示する。画像出力
I/F 304e は、 CPU 304g からの信号を出力モニタ 305
が使用できるフォーマット(例えば、NTSC 映像信号)
に変換して、表示モニタ 305 に送る。表示モニタ 305
は、例えば、カメラ映像を表示する。さらに、 CPU 304
g は、プログラムメモリ 304h に保存されているプログ
ラムに従って、例えば、侵入物体を検出した場合は、出
力 I/F 304f を介して警告灯306 を点灯させる。出力 I
/F 304f は、 CPU 304g からの信号を警告灯 306 が使
用できるフォーマット(例えば、接点信号)に変換し
て、警告灯 306 に送る。警告灯 306 は、例えば点灯す
る。
As a result of the above analysis, an intruding object in the visual field of the camera 301 is detected and tracked. The CPU 304g uses the work memory 3 on the input image stored in the image memory 304d.
The operation pointer is drawn (superposed) based on the operation pointer position stored in 04i, and the camera image is displayed on the output monitor 305 via the image output I / F 304e. Image output
I / F 304e outputs the signal from CPU 304g. Monitor 305
Formats that can be used by (eg NTSC video signals)
And send it to the display monitor 305. Display monitor 305
Displays a camera image, for example. In addition, CPU 304
According to the program stored in the program memory 304h, g turns on the warning light 306 via the output I / F 304f when, for example, an intruding object is detected. Output I
The / F 304f converts the signal from the CPU 304g into a format that can be used by the warning light 306 (for example, a contact signal) and sends it to the warning light 306. The warning light 306 is turned on, for example.

【0029】以下に説明する実施例は、上記侵入物体監
視装置のハードウエア構成の一例である図3を用いて実
行される。また、各実施例では、使用する画像を幅 320
pix、高さ 240 pix 、8 bit/pix として説明する。も
ちろん、これ以外の画素数の画像を用いても同じ動作を
することは言うまでもない。
The embodiment described below is executed using FIG. 3, which is an example of the hardware configuration of the intruding object monitoring apparatus. Also, in each example, the image to be used has a width of 320
Described as pix, height 240 pix, and 8 bit / pix. Of course, it goes without saying that the same operation is performed even if an image having a pixel number other than this is used.

【0030】本発明の第1の実施例を図2によって説明
する。図2は、本発明の第1の実施例の処理動作の一例
を表すフローチャートである。この第1の実施例は、差
分法によって侵入物体が検出された場合に、操作者(監
視員)が、操作手段を操作してテンプレート画像の大き
さを設定できるようにしたものである。
The first embodiment of the present invention will be described with reference to FIG. FIG. 2 is a flowchart showing an example of the processing operation of the first exemplary embodiment of the present invention. In the first embodiment, when an intruding object is detected by the difference method, the operator (monitor) can operate the operating means to set the size of the template image.

【0031】画像入力ステップ 101 から物体存在判定
ステップ 104 までの処理動作を、従来技術で用いた図
4の差分法の説明図によって説明する。画像入力ステッ
プ 101 では、カメラ 301 から、例えば、幅 320 pix
、高さ240 pix 、8 bit/pix の入力画像 401 を取得す
る。差分処理ステップ 102 では、画像入力ステップ 10
1 で得られた入力画像 401と、予め画像メモリ 304d に
記録しておいた基準背景画像 402 との画素毎の差分を
計算し、差分画像 403 を得る。次に、二値化処理ステ
ップ 103 では、差分処理ステップ 103 で得られた差分
画像 403 の各画素についてしきい値処理を行ない、画
素値がしきい値(例えば、20 )未満の場合は画素値を
“ 0 ”、しきい値以上の場合は画素値を“ 255”とな
るようにして二値化画像 404 を得る。次に、物体存在
判定ステップ 104 では、二値化処理ステップ 103 で得
られた二値化画像 404 中に“ 255 ”のかたまり(人型
の物体の二値化画像) 409 が存在するか否かを判定
し、存在した場合には操作開始判定ステップ 105 へ、
存在しなかった場合は画像入力ステップ 101 へ分岐す
る。
The processing operations from the image input step 101 to the object presence determination step 104 will be described with reference to the difference method of FIG. 4 used in the prior art. In the image input step 101, from the camera 301, for example, 320 pix width
, Input image 401 with height of 240 pix and 8 bit / pix. In the difference processing step 102, the image input step 10
The difference for each pixel between the input image 401 obtained in 1 and the reference background image 402 previously recorded in the image memory 304d is calculated, and the difference image 403 is obtained. Next, in the binarization processing step 103, threshold processing is performed on each pixel of the difference image 403 obtained in the difference processing step 103, and if the pixel value is less than the threshold value (for example, 20), the pixel value Is set to “0”, and if it is equal to or more than the threshold value, the pixel value is set to “255” to obtain the binarized image 404. Next, in the object presence determination step 104, it is determined whether or not a cluster of “255” (binarized image of a humanoid object) 409 is present in the binary image 404 obtained in the binarization processing step 103. If there is, go to operation start determination step 105,
If it does not exist, the process branches to the image input step 101.

【0032】操作開始判定ステップ 105 では、入力 I/
F 304c を介して得られる操作手段303 からの操作信号
を判定し、テンプレート画像の大きさ設定を開始する操
作信号(例えば、操作手段 303 に付属する操作ボタン
303a を押したという操作信号)の場合には操作マーカ
表示ステップ 106 へ分岐し、テンプレート画像の大き
さ設定を開始する操作信号でない場合はテンプレート画
像登録ステップ 111へ分岐する。操作マーカ表示ステッ
プ 106 では、入力画像(例えば、図4の入力画像 40
1)上に操作手段 303 の操作によって移動する操作マー
カ(例えば、矢印マーク等、移動場所が特定できるマー
クであれば何でもよい)を描画(画像に重畳)する。次
にテンプレート大きさ設定ステップ 108 では、操作マ
ーカの位置と、例えば、操作手段 303 に付属する操作
ボタン 303b を押したという操作信号に基づいて、操作
ボタン 303b を押した瞬間の操作マーカの位置を設定点
として、ワークメモリ 304i に記録する。設定終了判定
ステップ 109 では、例えば、操作手段 303 に付属する
操作ボタン 303a が押されたことによってテンプレート
画像の大きさ設定処理が終了したと判断し、操作ボタン
303a が押されていなければテンプレート画像の大きさ
設定処理が終了していないと判断する。設定が終了した
場合はテンプレート画像登録ステップ 111 へ分岐し、
終了していない場合は操作マーカ表示ステップ 106 へ
分岐する。従って、操作者(監視者)は、表示された入
力画像を見ながら、追跡したい物体を示す画像領域を操
作マーカで指定することによってテンプレート画像を設
定することができる。
In operation start judgment step 105, input I /
An operation signal for determining the operation signal from the operation means 303 obtained through the F 304c and starting the size setting of the template image (for example, an operation button attached to the operation means 303.
If it is an operation signal indicating that 303a is pressed), the process branches to operation marker display step 106, and if it is not an operation signal for starting the size setting of the template image, the process branches to template image registration step 111. In the operation marker display step 106, the input image (for example, the input image of FIG.
1) An operation marker (for example, an arrow mark or any other mark that can specify the movement location) that is moved by the operation of the operation means 303 is drawn (superposed on the image). Next, in template size setting step 108, the position of the operation marker at the moment when the operation button 303b is pressed is determined based on the position of the operation marker and, for example, the operation signal that the operation button 303b attached to the operation means 303 is pressed. Record as a set point in work memory 304i. In the setting completion determination step 109, for example, it is determined that the template image size setting process is completed by pressing the operation button 303a attached to the operation unit 303, and the operation button
If 303a is not pressed, it is determined that the template image size setting process has not been completed. When the setting is completed, branch to the template image registration step 111,
If not completed, the process branches to operation marker display step 106. Therefore, the operator (monitor) can set the template image by designating the image region showing the object to be tracked with the operation marker while looking at the displayed input image.

【0033】テンプレート画像登録ステップ 111 で
は、入力画像(例えば、図4の入力画像 401 )から、
テンプレート大きさ設定ステップ 108 においてワーク
メモリ 304i に記録された設定点を頂点とする多角形に
相当する領域を切り出し、これを初期のテンプレート画
像(例えば、図4の初期のテンプレート画像 413 )と
して画像メモリ 304d に登録する。ここで、操作開始判
定ステップ 105 で操作手段 303 の操作がないと判定さ
れた場合は、二値化画像(例えば、図4のニ値化画像 4
04 )中に検出された物体(例えば、図4の物体 409 )
の外接矩形(例えば、図4の外接矩形 410 )の大きさ
をテンプレート画像の大きさとして、その位置に相当す
る入力画像(例えば、図4の入力画像 401 )を切り出
して、これを初期のテンプレート画像(例えば、図4の
初期のテンプレート画像 413 )として画像メモリ 304d
に登録する。
In the template image registration step 111, from the input image (for example, the input image 401 in FIG. 4),
In the template size setting step 108, a region corresponding to a polygon whose vertex is the set point recorded in the work memory 304i is cut out and used as an initial template image (for example, the initial template image 413 in FIG. 4) in the image memory. Register on 304d. Here, if it is determined in the operation start determination step 105 that the operation means 303 is not operated, the binarized image (for example, the binarized image 4 in FIG.
Object detected in 04) (eg object 409 in Figure 4)
The size of the circumscribing rectangle (eg, circumscribing rectangle 410 in FIG. 4) is used as the size of the template image, and the input image (eg, input image 401 in FIG. 4) corresponding to that position is cut out and used as the initial template. Image memory 304d as an image (eg, the initial template image 413 in FIG. 4)
Register with.

【0034】次に、画像入力ステップ 112 から警報・
モニタ表示ステップ 116 までの処理動作を、従来技術
で用いた図5のテンプレートマッチング法による物体追
跡処理プロセスの説明図によって説明する。画像入力ス
テップ 112 では、画像入力ステップ 101 と同様に、カ
メラ 301から、例えば、幅 320 pix 、高さ 240 pix 、
8 bit/pix の入力画像 502 を取得する。次に、テンプ
レートマッチングステップ 113 では、テンプレートマ
ッチング処理部 509a から 509d と同様の処理を行な
い、探索領域 502c 中でテンプレート画像 501a と最も
一致度が高くなる領域 502a を検出(マッチング)し
て、侵入物体の移動位置を検出する。
Next, from the image input step 112, an alarm /
The processing operation up to the monitor display step 116 will be described with reference to the explanatory diagram of the object tracking processing process by the template matching method of FIG. In the image input step 112, similar to the image input step 101, from the camera 301, for example, width 320 pix, height 240 pix,
Get the input image 502 of 8 bit / pix. Next, in template matching step 113, template matching processing units 509a to 509d are performed to detect (match) a region 502a having the highest degree of matching with the template image 501a in the search region 502c and detect an intruding object. Detects the moving position of.

【0035】次に最大一致度判定ステップ 114 では、
テンプレートマッチング 113 で得られた一致度が所定
の値(例えば、一致度として正規化相関を用いた場合
0.5)以上であった場合は、マッチングが正常に完了し
たものとしてテンプレート更新ステップ 115 へ分岐
し、所定の値未満であった場合はマッチングが正常に完
了しなかった(侵入物体を見失った)として画像入力ス
テップ 101 へ分岐する。さらにテンプレート更新ステ
ップ 115 では、テンプレート画像更新部 510aと同様の
処理を行ない、入力画像 502 の中でマッチングした領
域 502a に相当する領域を切り出し、これを新たなテン
プレート画像 503a として、テンプレート画像を更新す
る。警報・モニタ表示ステップ 116 では、例えば、監
視モニタ 305 に対象物体の画像を表示したり、警告灯
306 を点灯させたりして、侵入物体が存在することを表
す報知を行なう。そして、画像入力ステップ 112 に戻
り、監視を続行する。以上のステップによって、カメラ
301 の視野内に写る侵入物体を自動的に検出し、侵入
物体の見かけの大きさに応じて必要であれば監視員が操
作手段 303を操作してテンプレート画像の大きさを設定
し、侵入物体を追跡させることができる。
Next, in the maximum matching degree determination step 114,
The matching degree obtained by the template matching 113 is a predetermined value (for example, when the normalized correlation is used as the matching degree).
If it is 0.5) or more, it is judged that the matching is completed normally and the process branches to the template update step 115. If it is less than the predetermined value, the matching is not completed normally (the intruding object is lost). It branches to the image input step 101. Further, in the template update step 115, the same process as the template image update unit 510a is performed, the region corresponding to the matched region 502a in the input image 502 is cut out, and the template image is updated as a new template image 503a. . In the alarm / monitor display step 116, for example, an image of the target object is displayed on the monitor 305 or a warning lamp is displayed.
For example, the 306 is turned on to notify that an intruding object is present. Then, the process returns to the image input step 112 to continue the monitoring. With the above steps,
An intruding object in the field of view of 301 is automatically detected, and if necessary, a surveillance staff operates the operation means 303 to set the size of the template image according to the apparent size of the intruding object. Can be tracked.

【0036】上記の本発明の第1の実施例では、テンプ
レート大きさ設定ステップ 108 で設定された設定点を
頂点とする多角形の領域をテンプレート画像としている
が、設定点を2つとし、これを対角とする矩形の領域を
テンプレート画像としても良い。この例を図6と図7を
用いて説明する。図6は、設定点を2つとし、これを対
角とする矩形領域をテンプレート画像とする例である。
601 は入力画像、602 は操作マーカ、603 は入力画像 6
01 に写る人型の物体、601aと601b は設定点、604 はテ
ンプレート画像とする領域である。この例では、操作手
段 303 を操作し、設定点 601a 及び設定点 601b を指
定したものであり、テンプレート画像登録ステップ 111
では、この2つの設定点601a、601b に基づいて矩形領
域 604 を算出し、これをテンプレート画像の領域とす
る。
In the above-described first embodiment of the present invention, the polygon area having the set points set in the template size setting step 108 as vertices is used as the template image. A rectangular area having a diagonal line may be used as the template image. This example will be described with reference to FIGS. 6 and 7. FIG. 6 is an example in which there are two set points and a rectangular area having these set diagonally is a template image.
601 is the input image, 602 is the operation marker, 603 is the input image 6
A human-shaped object shown in 01, 601a and 601b are set points, and 604 is a template image area. In this example, the operation means 303 is operated to specify the set points 601a and 601b, and the template image registration step 111
Then, the rectangular area 604 is calculated based on these two set points 601a and 601b, and this is set as the area of the template image.

【0037】次に、図7は、設定点を 12 とし、これを
頂点とする多角形領域をテンプレート画像とする例であ
る。701 は入力画像、702 は操作マーカ、703 は入力画
像 701 に写る人型の物体、701a から 701l は設定点、
704 はテンプレート画像とする領域である。この例で
は、操作手段 303 を操作し、設定点 701a から設定点
701l を指定したものであり、テンプレート画像登録ス
テップ 111 では、この設定点 701aから 701l に基づい
て多角形領域 704 を算出し、これをテンプレート画像
の領域とする。
Next, FIG. 7 shows an example in which a set point is 12 and a polygonal area having the set point as a vertex is used as a template image. 701 is an input image, 702 is an operation marker, 703 is a humanoid object in the input image 701, 701a to 701l are set points,
Reference numeral 704 is an area used as a template image. In this example, the operation means 303 is operated to change the set point from 701a to the set point.
701l is designated, and in the template image registration step 111, a polygonal area 704 is calculated based on the set points 701a to 701l and is set as the area of the template image.

【0038】図6と図7の例では、テンプレート画像の
領域を矩形、12 角形としているが、これ以外の多角形
でも良いし、円(中心点と円周の1点を設定点とす
る)、楕円(2つの焦点と円周上の1点を設定点とす
る)等の任意の形状のでも良いことは言うまでもない。
In the examples of FIGS. 6 and 7, the area of the template image is a rectangle or a dodecagon, but it may be a polygon other than this, or a circle (a center point and one point of the circumference are set points). It goes without saying that any shape such as an ellipse (two focal points and one point on the circumference are set points) may be used.

【0039】本発明の第2の実施例を図1によって説明
する。図1は、本発明の第2の実施例の処理動作の一例
を示すフローチャートである。この第2の実施例は、差
分法によって侵入物体が検出された場合に、操作者(監
視員)が操作手段を操作してこれまでに設定したテンプ
レート画像の大きさの中からテンプレート画像の大きさ
を選択できるようにしたものである。図1は、図2で示
されるフローチャートの操作マーカ表示ステップ 106
とテンプレート大きさ設定ステップ 108 の間に、テン
プレート大きさ候補表示ステップ 107 を挿入し、か
つ、設定終了判定ステップ 109 とテンプレート画像登
録ステップ 111 の間に、大きさ候補登録ステップ 111
を挿入したものである。したがって、ここでは、大きさ
候補表示ステップ 107 と大きさ候補登録ステップ 111
以外の処理動作は、図2と同様なので説明を省略する。
A second embodiment of the present invention will be described with reference to FIG. FIG. 1 is a flow chart showing an example of the processing operation of the second embodiment of the present invention. In the second embodiment, when an intruding object is detected by the difference method, the operator (monitor) operates the operating means and selects the template image size from the template image sizes set so far. This allows the user to select the size. FIG. 1 shows the operation marker display step 106 of the flowchart shown in FIG.
The template size candidate display step 107 is inserted between the template size setting step 108 and the template size setting step 108, and the size candidate registration step 111 is inserted between the setting end determination step 109 and the template image registration step 111.
Is inserted. Therefore, here, the size candidate display step 107 and the size candidate registration step 111 are performed.
Since the other processing operations are the same as those in FIG. 2, the description thereof will be omitted.

【0040】大きさ候補表示ステップ 107 は、ワーク
メモリ 304i に記憶されているこれまでに登録したテン
プレート画像の大きさ候補を表示する。表示例として
は、例えば、図8に示すように、操作マーカ 802 を中
心として、これまでに登録したテンプレート画像の大き
さ候補 803a、803b、803c、803d のいずれか1つを表示
する。表示されるテンプレート画像の大きさ候補は、例
えば、操作手段 303b を押しながら操作手段を操作する
ことによって切り替えられ、切替え操作をする度に、大
きさ候補 803a から大きさ候補 803b 、大きさ候補 803
b から大きさ候補 803c 、大きさ候補 803c から大きさ
候補 803d 、大きさ候補 803d から大きさ候補803a と
切り替わる(この例では登録数の最大が 4 )。操作者
(監視者)は、侵入者の見かけの大きさに適合するテン
プレート画像の大きさ候補を選択し、これをテンプレー
ト画像の大きさとすることができる。なお、図8で示さ
れるようなテンプレート画像の大きさ候補の切替えを行
なわない場合(操作手段 303b を押しながら操作手段を
操作しない)、第1の実施例で説明したように、矩形、
多角形、円、楕円等のテンプレート画像の大きさ設定を
行なうことができる。
In the size candidate display step 107, the size candidates of the template images stored so far in the work memory 304i are displayed. As a display example, for example, as shown in FIG. 8, any one of the template image size candidates 803a, 803b, 803c, and 803d registered so far is displayed around the operation marker 802. The size candidates of the displayed template image are switched, for example, by operating the operating means while pressing the operating means 303b, and each time the switching operation is performed, the size candidate 803a to the size candidate 803b and the size candidate 803 are selected.
Switching from b to size candidate 803c, from size candidate 803c to size candidate 803d, and from size candidate 803d to size candidate 803a (in this example, the maximum number of registrations is 4). The operator (monitor) can select a template image size candidate that matches the intruder's apparent size, and use this as a template image size. When the size candidates of the template image as shown in FIG. 8 are not switched (the operation means 303b is not operated while the operation means 303b is being pressed), the rectangle, as described in the first embodiment,
It is possible to set the size of the template image such as a polygon, a circle, and an ellipse.

【0041】大きさ候補登録ステップ 110 では、操作
マーカ表示ステップ 106 から 設定終了判定ステップ 1
09 の処理によってテンプレート画像の大きさを新たに
設定した場合(テンプレート画像の大きさ候補の中から
テンプレート画像の大きさを選択しなかった場合)、新
たなテンプレート画像の大きさ候補としてワークメモリ
304i に記録する。この時、テンプレート画像の大きさ
候補が所定数(例えば、10 )になった場合、最も古い
大きさ候補をワークメモリ 304i から削除するようにし
ても良い。また、操作者の指定に応じて、登録されてい
たテンプレート画像の大きさ候補と新たなテンプレート
画像の大きさ候補とを置換え(更新)しても良い。以上
の処理ステップによって、カメラ 301 の視野内に写る
侵入物体を自動的に検出し、侵入物体の見かけの大きさ
に応じて必要であれば監視員が操作手段 303 を操作し
てテンプレート画像の大きさ候補の中から適切なテンプ
レート画像の大きさを選択し、侵入物体を追跡させるこ
とができる。
In the size candidate registration step 110, from the operation marker display step 106 to the setting end determination step 1
When the template image size is newly set by the process of 09 (when the template image size is not selected from the template image size candidates), the work memory is used as a new template image size candidate.
Record on 304i. At this time, when the number of template image size candidates reaches a predetermined number (for example, 10), the oldest size candidate may be deleted from the work memory 304i. Further, the size candidate of the registered template image and the size candidate of the new template image may be replaced (updated) according to the designation of the operator. Through the above processing steps, an intruding object in the field of view of the camera 301 is automatically detected, and a monitor operates the operating means 303 if necessary according to the apparent size of the intruding object, and the size of the template image is increased. It is possible to select an appropriate template image size from the candidate and track the intruding object.

【0042】[0042]

【発明の効果】したがって、本発明によれば、複数の侵
入物体が重なって写った場合や、侵入物体の像を構成す
る画素の輝度値と基準背景画像中の背景の像を構成する
画素の輝度値が近い場合でも、適切なテンプレート画像
の大きさを設定できるようにし、さらに、これまでに設
定したテンプレート画像の大きさの中から適切なテンプ
レート画像の大きさを選択できるようにすることで、侵
入物体の追跡性能をさらに一層向上することができ、侵
入物体監視装置の適用範囲を大きく広げることができ
る。
Therefore, according to the present invention, when a plurality of intruding objects are imaged in an overlapping manner, or when the brightness values of the pixels forming the image of the intruding object and the pixels forming the background image in the reference background image are reduced. By making it possible to set an appropriate template image size even when the brightness values are close, and by selecting an appropriate template image size from the template image sizes set so far. The tracking performance of an intruding object can be further improved, and the range of application of the intruding object monitoring device can be greatly expanded.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の一実施例の処理動作の一例を説明す
るためのフローチャート。
FIG. 1 is a flowchart illustrating an example of a processing operation according to an embodiment of the present invention.

【図2】 本発明の一実施例の処理動作の一例を説明す
るためのフローチャート。
FIG. 2 is a flowchart for explaining an example of processing operation according to the embodiment of the present invention.

【図3】 本発明の実施例の構成の一例を示すブロック
図。
FIG. 3 is a block diagram showing an example of a configuration of an exemplary embodiment of the present invention.

【図4】 従来の差分法による物体検出処理プロセスを
説明するための図。
FIG. 4 is a diagram for explaining an object detection processing process by a conventional difference method.

【図5】 従来の物体追跡処理プロセスを説明するため
の図。
FIG. 5 is a diagram for explaining a conventional object tracking processing process.

【図6】 本発明の矩形によるテンプレート画像大きさ
設定の概要を説明するための図。
FIG. 6 is a diagram for explaining an outline of template image size setting using a rectangle according to the present invention.

【図7】 本発明の多角形によるテンプレート画像大き
さ設定の概要を説明するための図。
FIG. 7 is a diagram for explaining an outline of template image size setting based on a polygon of the present invention.

【図8】 本発明のテンプレート画像大きさ候補選択の
概要を説明するための図。
FIG. 8 is a diagram for explaining an outline of template image size candidate selection according to the present invention.

【符号の説明】[Explanation of symbols]

101:画像入力ステップ、 102:差分処理ステップ、
103:二値化処理ステップ、 104:物体存在判定ステッ
プ、 105:操作開始判定ステップ、 106:操作マーカ
表示ステップ、 107:大きさ候補表示ステップ、 10
8:テンプレート大きさ設定ステップ、 109:設定終了
判定ステップ、 110:大きさ候補登録ステップ、 11
1:テンプレート画像登録テップ、 112:画像入力ステ
ップ、113:テンプレートマッチングステップ、 114:
最大一致度判定ステップ、 115:テンプレート更新ス
テップ、 116:警報・モニタ表示ステップ、 301:カ
メラ、 302:カメラ雲台、 303:操作手段、 303a:
操作ボタン、 303b:操作ボタン、 304a:画像入力 I
/F、 304b:雲台制御 I/F、 304c:入力 I/F、304d:
画像メモリ、 304e:画像出力 I/F、 304f:出力 I/
F、 304g:CPU、 304h:プログラムメモリ、 304i:
ワークメモリ、 304j:データバス、305:出力モニ
タ、 306:警告灯、 401:入力画像、 402:基準背
景画像、403:差分画像、 404:二値化画像、 405:
差分処理部、 406:二値化処理部、 407:人型の物
体、 408:差分画像、 409:人型の二値化画像、 41
0:、411:抽出処理部、 412:抽出画像、 413:テン
プレート画像、 509a:テンプレートマッチング処理
部、 509b:テンプレートマッチング処理部、 509c:
テンプレートマッチング処理部、 509d:テンプレート
マッチング処理部、510a:テンプレート画像更新処理
部、 510b:テンプレート画像更新処理部、510c:テン
プレート画像更新処理部、 510d:テンプレート画像更
新処理部、601:入力画像、 602:操作マーカ、 60
4:設定したテンプレート画像の大きさ、 701:入力画
像、 702:操作マーカ、 704:設定したテンプレート
画像の大きさ、 801:入力画像、 802:操作マーカ、
803:設定したテンプレート画像の大きさ。
101: image input step, 102: difference processing step,
103: Binarization processing step, 104: Object existence determination step, 105: Operation start determination step, 106: Operation marker display step, 107: Size candidate display step, 10
8: Template size setting step, 109: Setting end determination step, 110: Size candidate registration step, 11
1: Template image registration step, 112: Image input step, 113: Template matching step, 114:
Maximum matching degree determination step, 115: template updating step, 116: alarm / monitor display step, 301: camera, 302: camera platform, 303: operating means, 303a:
Operation buttons, 303b: Operation buttons, 304a: Image input I
/ F, 304b: Head control I / F, 304c: Input I / F, 304d:
Image memory, 304e: Image output I / F, 304f: Output I / F
F, 304g: CPU, 304h: Program memory, 304i:
Work memory, 304j: Data bus, 305: Output monitor, 306: Warning light, 401: Input image, 402: Reference background image, 403: Difference image, 404: Binary image, 405:
Difference processing unit, 406: Binarization processing unit, 407: Humanoid object, 408: Difference image, 409: Humanoid binary image, 41
0 :, 411: extraction processing unit, 412: extraction image, 413: template image, 509a: template matching processing unit, 509b: template matching processing unit, 509c:
Template matching processing unit, 509d: Template matching processing unit, 510a: Template image updating processing unit, 510b: Template image updating processing unit, 510c: Template image updating processing unit, 510d: Template image updating processing unit, 601: Input image, 602 : Operation marker, 60
4: Set template image size, 701: Input image, 702: Operation marker, 704: Set template image size, 801: Input image, 802: Operation marker,
803: Size of the set template image.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C054 AA05 CA04 CC02 CD01 CE12 CF05 DA08 EB05 FC01 FC05 FC12 GA04 HA18 5C084 AA02 AA07 AA14 AA18 BB06 BB31 CC17 DD12 EE02 EE05 FF03 GG43 GG78 HH08 5L096 AA06 BA02 CA07 DA01 EA35 HA05 JA03 JA09    ─────────────────────────────────────────────────── ─── Continued front page    F term (reference) 5C054 AA05 CA04 CC02 CD01 CE12                       CF05 DA08 EB05 FC01 FC05                       FC12 GA04 HA18                 5C084 AA02 AA07 AA14 AA18 BB06                       BB31 CC17 DD12 EE02 EE05                       FF03 GG43 GG78 HH08                 5L096 AA06 BA02 CA07 DA01 EA35                       HA05 JA03 JA09

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 テンプレート画像をもとにしたテンプレ
ートマッチングによって、撮像視野内を撮像して取得し
た入力画像から該撮像視野内の物体を検出し、該検出し
た物体を追跡する侵入物体追跡方法において、 前記入力画像を表示装置の表示画面上に表示し、 該表示画面上に操作マーカを重畳して表示し、 操作者の指示に応じて該操作マーカを移動し、 該操作マーカの位置に基づいて、前記入力画像の画像領
域の一部を前記テンプレート画像に設定することを特徴
とする侵入物体追跡方法。
1. An intruding object tracking method for detecting an object in an imaging visual field from an input image obtained by imaging the imaging visual field by template matching based on a template image and tracking the detected object. , Displaying the input image on a display screen of a display device, superimposing and displaying an operation marker on the display screen, moving the operation marker according to an instruction from an operator, and based on the position of the operation marker. And a part of the image area of the input image is set in the template image.
【請求項2】 請求項1記載の侵入物体追跡方法におい
て、 前記テンプレート画像は、前記操作マーカの位置を1つ
の頂点とする多角形に相当する前記入力画像の画像領域
の一部を切り取ることを特徴とする侵入物体追跡方法。
2. The method of tracking an intruding object according to claim 1, wherein the template image is a portion of an image area of the input image corresponding to a polygon having the position of the operation marker as one vertex. A characteristic tracking method for intruding objects.
【請求項3】 請求項1または請求項2記載の侵入物体
追跡方法において、 前記テンプレート画像の大きさまたは形状の少なくとも
1つをテンプレート大きさ候補として記憶し、 操作者が、前記入力画像の所望の位置に、前記選択した
テンプレート大きさ候補の1つを指定することによっ
て、前記入力画像の画像領域の一部を前記テンプレート
画像に設定することを特徴とする侵入物体追跡方法。
3. The intruding object tracking method according to claim 1, wherein at least one of the size and shape of the template image is stored as a template size candidate, and the operator desires the input image. A part of the image area of the input image is set to the template image by designating one of the selected template size candidates at the position of the intruding object tracking method.
【請求項4】 請求項3記載の侵入物体追跡方法におい
て、 前記設定された前記テンプレート画像の大きさまたは形
状を、前記テンプレート画像の大きさ候補として追加ま
たは更新することを特徴とする侵入物体追跡方法。
4. The intruding object tracking method according to claim 3, wherein the size or shape of the set template image is added or updated as a size candidate of the template image. Method.
【請求項5】 テンプレート画像をもとにテンプレート
マッチングによって、撮像装置によって撮像した撮像視
野内の物体を検出し、該検出した物体を追跡する装置に
おいて、 前記撮像装置が撮像した映像信号を逐次入力画像に変換
する画像入力インターフェイスと、ユーザからの指示を
入力する操作手段と、前記入力画像を記憶する画像記憶
手段と、前記入力画像を処理する画像処理手段と、前記
入力画像に、処理マーカを重畳して表示する表示装置と
を備え、 前記画像処理手段によって、前記操作手段からの入力信
号に基づいて前記表示装置の画像上に表示された前記操
作マーカを移動し、前記画像処理手段が、前記操作手段
の入力信号と前記操作マーカの位置座標に基づいて前記
テンプレート画像の大きさを設定し、 前記入力画像と、前記操作マーカの位置と、前記テンプ
レート画像の大きさとに基づいて、前記テンプレート画
像を登録する初期テンプレート登録し、 前記テンプレート画像をもとにテンプレートマッチング
によって前記撮像視野内の物体を追跡することを特徴と
する侵入物体監視装置。
5. An apparatus for detecting an object in an imaging field of view imaged by an imaging device and tracking the detected object by template matching based on a template image, successively inputting video signals imaged by the imaging device. An image input interface for converting into an image, an operation means for inputting an instruction from a user, an image storage means for storing the input image, an image processing means for processing the input image, and a processing marker for the input image. A display device for displaying in a superposed manner, the image processing means, by moving the operation marker displayed on the image of the display device based on an input signal from the operation means, the image processing means, The size of the template image is set based on the input signal of the operation means and the position coordinates of the operation marker, and the input image, An initial template registration for registering the template image is performed based on the position of the operation marker and the size of the template image, and an object in the imaging visual field is tracked by template matching based on the template image. Intruder monitoring system.
JP2001184525A 2001-06-19 2001-06-19 Intruder tracking method and intruder monitoring apparatus Expired - Fee Related JP4444529B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001184525A JP4444529B2 (en) 2001-06-19 2001-06-19 Intruder tracking method and intruder monitoring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001184525A JP4444529B2 (en) 2001-06-19 2001-06-19 Intruder tracking method and intruder monitoring apparatus

Publications (2)

Publication Number Publication Date
JP2003006649A true JP2003006649A (en) 2003-01-10
JP4444529B2 JP4444529B2 (en) 2010-03-31

Family

ID=19024274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001184525A Expired - Fee Related JP4444529B2 (en) 2001-06-19 2001-06-19 Intruder tracking method and intruder monitoring apparatus

Country Status (1)

Country Link
JP (1) JP4444529B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2486327A (en) * 2010-12-07 2012-06-13 Elmo Co Ltd Superimposing Information on a Displayed Image
CN111405140A (en) * 2020-03-18 2020-07-10 浙江工业大学 Video anti-shake method based on target tracking
CN111524086A (en) * 2019-02-04 2020-08-11 广赛布托有限公司 Moving object detection device, moving object detection method, and storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2486327A (en) * 2010-12-07 2012-06-13 Elmo Co Ltd Superimposing Information on a Displayed Image
CN111524086A (en) * 2019-02-04 2020-08-11 广赛布托有限公司 Moving object detection device, moving object detection method, and storage medium
CN111524086B (en) * 2019-02-04 2023-10-20 广赛布托有限公司 Moving object detection device, moving object detection method, and storage medium
CN111405140A (en) * 2020-03-18 2020-07-10 浙江工业大学 Video anti-shake method based on target tracking
CN111405140B (en) * 2020-03-18 2022-04-29 浙江工业大学 Video anti-shake method based on target tracking

Also Published As

Publication number Publication date
JP4444529B2 (en) 2010-03-31

Similar Documents

Publication Publication Date Title
JP3279479B2 (en) Video monitoring method and device
JP6016268B2 (en) Field work support device, method and program
JPH07168932A (en) Method for search of human being in video image
JP2011029737A (en) Surveillance image retrieval apparatus and surveillance system
JPH06325180A (en) Automatic tracking device for moving body
JP4373840B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus
CN110929067B (en) Information processing system, method of controlling information processing system, and recording medium
JP6362085B2 (en) Image recognition system, image recognition method and program
US20180144206A1 (en) Setting apparatus, setting method, and storage medium
JP2008108008A (en) Moving pattern specification device, moving pattern specification method, moving pattern specification program, and recording medium that recorded this
JP2017208702A (en) Information processing apparatus, control method of the same, and imaging system
JP2001333422A (en) Monitoring device
JP3857558B2 (en) Object tracking method and apparatus
US20180211445A1 (en) Information processing device, terminal, and remote communication system
JP4444529B2 (en) Intruder tracking method and intruder monitoring apparatus
CN110555471B (en) Mobile terminal and target object searching method
JPH0793558A (en) Image monitoring device
JP2002056371A (en) Information discriminating marker, detecting method thereof, related information gaining system using information discriminating marker and related information gaining method using information discriminating marker
JPH08167022A (en) Image monitor device
KR100452100B1 (en) Method and apparatus for controlling a view field of an image picking-up apparatus and computer program therefor
JP6350331B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
JP6736348B2 (en) Image processing apparatus, image processing method and program
WO2021140844A1 (en) Human body detection device and human body detection method
JP4972013B2 (en) Information presenting apparatus, information presenting method, information presenting program, and recording medium recording the program
KR20170127318A (en) Object Tracking System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100112

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100114

R150 Certificate of patent or registration of utility model

Ref document number: 4444529

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140122

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees