JP2003235035A - Object detecting method, object detecting apparatus employing the same, object tracking method, and object tracking apparatus employing the same - Google Patents

Object detecting method, object detecting apparatus employing the same, object tracking method, and object tracking apparatus employing the same

Info

Publication number
JP2003235035A
JP2003235035A JP2002354224A JP2002354224A JP2003235035A JP 2003235035 A JP2003235035 A JP 2003235035A JP 2002354224 A JP2002354224 A JP 2002354224A JP 2002354224 A JP2002354224 A JP 2002354224A JP 2003235035 A JP2003235035 A JP 2003235035A
Authority
JP
Japan
Prior art keywords
image
template
zoom
recording
zoom mechanism
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002354224A
Other languages
Japanese (ja)
Inventor
Wataru Ito
渡 伊藤
Shinya Ogura
慎矢 小倉
Hirotada Ueda
博唯 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2002354224A priority Critical patent/JP2003235035A/en
Publication of JP2003235035A publication Critical patent/JP2003235035A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object tracking method with high reliability for detecting an image of an object from an input image within an imaging view field acquired from an image pickup device having a zoom lens and tracking the object by template matching processing between the detected image of the object and an template image. <P>SOLUTION: Magnifying or reducing the template image on the basis of a change in a focal distance equalizes the size of an intruded object shown in the template image with the size of the intruded object shown in an input image for carrying out template matching so as to track the object within an imaging view field. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、撮像視野内に侵入
した物体を、撮像装置から入力する映像信号の中から自
動的に検出し、検出した物体の動きを自動的に追跡する
ようにした物体追跡方法と装置に関わる。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is designed to automatically detect an object that has entered the imaging field of view from a video signal input from an imaging device and automatically track the movement of the detected object. Involved in object tracking methods and devices.

【0002】[0002]

【従来の技術】テレビジョンカメラ(以下、TV カメラ
と称する)等の撮像装置を用いた映像監視装置は、従来
から広く用いられている。このような映像監視装置を用
いた監視システムの1つとしては、その監視視野内に入
り込んでくる人間や自動車などの侵入物体の検出及び追
跡を、監視員がモニタに表示される画像を見ながら行な
う有人監視システムがある。しかし、近年、このような
有人監視システムではなく、TV カメラ等の画像入力ユ
ニットから入力される画像から侵入物体を自動的に検出
し、その動きを自動的に追跡するようにして、所定の報
知や警報処置が得られるようにした自動監視システムが
要求されるようになってきている。
2. Description of the Related Art An image monitoring device using an image pickup device such as a television camera (hereinafter referred to as a TV camera) has been widely used. One of the surveillance systems using such a video surveillance device is to detect and track an intruding object such as a human being or a car that comes into the surveillance field of view while watching an image displayed on a monitor. There is a manned monitoring system in place. However, in recent years, instead of such a manned monitoring system, an intruding object is automatically detected from an image input from an image input unit such as a TV camera, and its movement is automatically tracked, so that a predetermined notification is given. There is a growing demand for automatic monitoring systems that can provide alarm measures.

【0003】このような自動監視システムを実現するた
めには、まず、差分法などによって視野内の侵入物体を
検出する。差分法とは、撮像装置より取得した入力画像
と予め作成した基準背景画像(即ち、検出すべき物体の
写っていない画像)とを比較し、画素毎に輝度値の差分
を求め、その差分値の大きい領域を物体として検出する
ものである。このようにして検出された侵入物体の位置
に相当する入力画像の部分画像をテンプレート画像とし
て登録し、逐次入力される画像の中でテンプレート画像
と一致度が最大となる位置を検出する。この方法は、テ
ンプレートマッチングと呼ばれて広く知られている。
In order to realize such an automatic monitoring system, first, an intruding object in the visual field is detected by a difference method or the like. The difference method compares the input image acquired from the image pickup device with a reference background image created in advance (that is, an image in which an object to be detected is not captured), obtains a difference in brightness value for each pixel, and then calculates the difference value. Is detected as an object. The partial image of the input image corresponding to the position of the intruding object detected in this way is registered as a template image, and the position where the degree of coincidence with the template image is the maximum is detected from among the sequentially input images. This method is widely known as template matching.

【0004】通常、テンプレートマッチングを用いて対
象物体(例えば、差分法によって検出された物体)を追
跡する場合、対象物体の姿勢の変化に追従するため、マ
ッチング処理によって検出された対象物体の位置の部分
画像を新たにテンプレート画像として逐次更新する(例
えば、特許文献1参照。)。この処理について、図1〜
図3を参照して説明する。
Usually, when a target object (for example, an object detected by the difference method) is tracked using template matching, the position of the target object detected by the matching process is detected because the change in the posture of the target object is tracked. The partial image is sequentially updated as a new template image (for example, see Patent Document 1). About this processing,
This will be described with reference to FIG.

【0005】図1は、差分法によって撮像装置の視野内
に侵入した物体を検出し、検出した物体をテンプレート
マッチングで使用できるように初期のテンプレート画像
として登録する処理の流れを説明するための図である。
図1において、S01 は入力画像、S02 は基準背景画像、
S03 は入力画像 S01と基準背景画像 S02 の差分画像、S
04 は差分画像 S03 の二値化画像、S05 は差分処理部、
S06 は二値化処理部( Th )、S07 は入力画像 S01 中
に写る人型の物体、S08 は人型の物体 S07 に相当する
差分画像 S03 中の人型の差分画像、S09は人型の差分画
像 S08 に相当する二値化画像 S04 中の人型の物体(人
型の二値化画像)を表す。更に、S10 は検出された人型
の物体 S09 の外接矩形、S11 は入力画像 S01 から指定
された領域を抽出する抽出処理部( CL )、S12 はその
抽出された領域(テンプレート画像)で構成された抽出
画像、S13 はテンプレート画像を表す。
FIG. 1 is a diagram for explaining the flow of processing for detecting an object that has entered the visual field of the image pickup apparatus by the difference method and registering the detected object as an initial template image so that it can be used for template matching. Is.
In FIG. 1, S01 is an input image, S02 is a reference background image,
S03 is the difference image between the input image S01 and the reference background image S02, S
04 is the binarized image of the difference image S03, S05 is the difference processing unit,
S06 is a binarization processing unit (Th), S07 is a human-shaped object in the input image S01, S08 is a human-shaped difference image in the difference image S03 corresponding to the human-shaped object S07, and S09 is a human-shaped object. It represents a human-shaped object (human-shaped binary image) in the binary image S04 corresponding to the difference image S08. Further, S10 is a circumscribed rectangle of the detected humanoid object S09, S11 is an extraction processing unit (CL) for extracting a specified area from the input image S01, and S12 is an extracted area (template image). Extracted image, S13 represents a template image.

【0006】図1において、先ず、TV カメラ E01 から
侵入物体監視装置 E05 に、例えば、320 × 240 画素
( 320 × 240 pix )の入力画像 S01 を入力する。次
に、差分処理部 S05 は、入力画像 S01 と、予め作成し
た基準背景画像 S02 との画素毎の輝度値の差分を計算
し、計算した差分値をそれぞれの画素の輝度値とした差
分画像 S03 を取得する。この時、入力画像 S01 中の人
型の物体 S07 は差分画像 S03 中に、人型の差分画像 S
08 として現れる。次に、二値化処理部 S06 は、差分画
像 S03 の各画素の輝度値が所定のしきい値未満(例え
ば 20 未満)の画素の輝度値を“ 0 ”、しきい値以上
の画素の輝度値を“ 255 ”(本明細書では 1 画素( 1
pix )を 8 ビットとして取り扱って説明する)に置き
換えて、二値化画像 S04 を得る。この時、入力画像 S0
1 に撮像された人型の物体 S07 は、二値化画像 S04 中
の人型の物体 S09 として検出される(差分法による物
体検出処理の概略)。
In FIG. 1, first, an input image S01 of 320 × 240 pixels (320 × 240 pix) is input from the TV camera E01 to the intruding object monitoring device E05. Next, the difference processing unit S05 calculates the difference in the brightness value of each pixel between the input image S01 and the previously created reference background image S02, and sets the calculated difference value as the brightness value of each pixel in the difference image S03. To get. At this time, the humanoid object S07 in the input image S01 is changed to the humanoid difference image S07 in the difference image S03.
Appears as 08. Next, the binarization processing unit S06 sets the brightness value of the pixel of which the brightness value of each pixel of the difference image S03 is less than a predetermined threshold value (for example, less than 20) to “0”, and the brightness value of the pixel of the threshold value or more. Set the value to “255” (1 pixel (1
pix) is treated as 8 bits and explained below) to obtain the binarized image S04. At this time, the input image S0
The humanoid object S07 imaged in 1 is detected as the humanoid object S09 in the binarized image S04 (outline of the object detection processing by the difference method).

【0007】図1において、更に、差分法によって検出
された人型の物体 S09 の外接矩形S10 を検出する。次
に、抽出処理部 S11 は、入力画像 S01 から外接矩形 S
10で表される領域を抽出する。抽出された画像は、抽出
画像 S12 中のテンプレート画像 S13 として登録される
(初期のテンプレート画像登録処理の概略)。
In FIG. 1, the circumscribed rectangle S10 of the humanoid object S09 detected by the difference method is further detected. Next, the extraction processing unit S11 extracts the circumscribed rectangle S from the input image S01.
The area represented by 10 is extracted. The extracted image is registered as the template image S13 in the extracted image S12 (outline of the initial template image registration process).

【0008】図2は、テンプレートマッチングによって
テンプレート画像に登録した侵入物体が入力画像中のど
の位置に存在するか検出する処理の流れの従来例を説明
するための図である。図2(a) に示す M01 は差分法に
よって得られた抽出画像(図1の抽出画像 S12 に対応
する)を表し、図2(b) において、M02 は撮像装置 E01
によって得られた入力画像、M03 はテンプレート画像
を表す。入力画像 M02 中に表した点線の領域の1つで
ある M05 はテンプレート画像 M03 の位置を表し、入力
画像 M02 中に表した点線の領域の1つである M06 はテ
ンプレートマッチングの探索範囲を表す。また、dx、dy
は探索範囲の幅( dxは水平方向、dy は垂直方向)を
表しており、追跡すべき対象物体の見かけ上の動きの量
(画像上での動きの量)に応じて設定する。例えば、dx
= 50 pix 、dy =15 pix に設定する。テンプレートマ
ッチングは、入力画像 M02 の探索範囲 M06 内でテンプ
レート画像 M03 と最も一致度が高い部分を探索する処
理である。この一致度として、例えば以下の数(1) で得
られる正規化相関と呼ばれる指標を用いることができ
る。
FIG. 2 is a diagram for explaining a conventional example of the flow of processing for detecting at which position in the input image the intruding object registered in the template image by template matching exists. M01 shown in FIG. 2 (a) represents the extracted image obtained by the difference method (corresponding to the extracted image S12 in FIG. 1), and in FIG. 2 (b), M02 is the imaging device E01.
The input image obtained by, M03 represents the template image. M05, which is one of the dotted areas shown in the input image M02, represents the position of the template image M03, and M06, which is one of the dotted areas shown in the input image M02, represents the search range for template matching. Also, dx, dy
Represents the width of the search range (dx is the horizontal direction, dy is the vertical direction), and is set according to the amount of apparent movement of the target object to be tracked (the amount of movement on the image). For example, dx
Set it to = 50 pix and dy = 15 pix. The template matching is a process of searching for a portion having the highest degree of coincidence with the template image M03 within the search range M06 of the input image M02. As the degree of coincidence, for example, an index called a normalized correlation obtained by the following equation (1) can be used.

【0009】[0009]

【数1】 [Equation 1]

【0010】数(1) において、f() は入力画像を表し、
g() はテンプレート画像を表す。また、(x,y) は入力画
像の探索領域 M06 内の座標(マッチング対象領域と呼
ぶ)を表し、(u,v) はテンプレート画像 M03 の図中左
上(左最上部)の座標(テンプレート画像登録時の座
標)を表す。ただし、画像は全て図において左上(左最
上部)を原点 (0,0) とする。また、W はテンプレート
画像の幅(水平方向の長さ)を表し、H はテンプレート
画像の高さ(垂直方向の長さ)を表す。数(1) におい
て、数式の上に冠した棒線( ̄)は、それぞれ、その下
の数式の入力画像内のマッチング対象領域、テンプレー
ト画像の平均輝度値を表し、数(2) 、数(3) で表され
る。
In the equation (1), f () represents the input image,
g () represents a template image. Also, (x, y) represents the coordinates in the search area M06 of the input image (called the matching target area), and (u, v) is the coordinates of the upper left (top left) in the figure of the template image M03 (the template image). Represents the coordinates at the time of registration). However, for all images, the upper left (top left) in the figure is the origin (0,0). W represents the width (horizontal length) of the template image, and H represents the height (vertical length) of the template image. In Equation (1), the bars ( ̄) on top of the mathematical formulas represent the matching target area in the input image of the mathematical formulas below and the average brightness value of the template image, respectively. It is represented by 3).

【0011】[0011]

【数2】 [Equation 2]

【数3】 [Equation 3]

【0012】正規化相関 r(x,y,u,v) は、入力画像 f
(x,y) の位置 (x,y) を左上(左最上部)の座標とする
幅 W と高さ H の領域(例えば、図2(b) の M05 )の
輝度値分布と、テンプレート画像 g(u,v) の位置 (u,v)
を左上(左最上部)の座標とする幅 W と高さ H の領
域(例えば、図2(a) のM03 )の輝度値分布との一致度
を表すものである。入力画像 f() とテンプレート画像
g() の対応する各画素の輝度値が全て同じ値であった場
合、一致度は、1.0 となる。テンプレートマッチング
は、入力画像 f() 中でテンプレート画像 g() と最も一
致度が高くなる部分を検出する処理である。即ち、テン
プレート画像 g() の位置 (u,v) を基準として (x,y)
を u-dx ≦x< u+dx 、v-dy ≦ y < v+dy と変化さ
せ、数(1) で表される正規化相関 r(x,y,u,v) が最大と
なる (x,y) を見つける。
The normalized correlation r (x, y, u, v) is the input image f
The brightness value distribution of the area of width W and height H (eg, M05 in Fig. 2 (b)) with the position (x, y) at the position (x, y) as the upper left (top left) coordinate, and the template image position of g (u, v) (u, v)
It represents the degree of coincidence with the brightness value distribution of the area of width W and height H (for example, M03 in FIG. 2 (a)) where is the coordinate of the upper left (top left). Input image f () and template image
If the brightness values of the corresponding pixels of g () are all the same, the degree of coincidence is 1.0. Template matching is a process of detecting a portion of the input image f () that has the highest degree of matching with the template image g (). That is, with reference to the position (u, v) of the template image g (), (x, y)
Is changed to u-dx ≤ x <u + dx, v-dy ≤ y <v + dy, and the normalized correlation r (x, y, u, v) expressed by equation (1) becomes the maximum ( Find x, y).

【0013】なお、正規化相関の他にも、入力画像 f()
の位置 (x,y) を左上(左最上部)の座標とする幅 W
と高さ H の領域と、テンプレート画像 g() の位置 (u,
v) を左上の座標とする幅 W と高さ H の領域との、そ
れぞれ対応する各位置での画素の輝度値の差の絶対値の
平均値を一致度として用いても良い。この場合、入力画
像 f() とテンプレート画像 g() の各画素の輝度値が全
て同じ値であった場合、一致度が 0 となり、入力画像
f() とテンプレート画像 g()の各画素の輝度値の差が大
きくなるほど高い値を取る(一致度は低くなる)。図2
(b) の例では、追跡対象である人型の物体は、M04 の位
置に存在し、テンプレートマッチングによって、領域 M
07 が検出される。この領域 M07 は、テンプレート画像
M03 内に写る人型の物体と、入力画像 M02 の人型の物
体が一致する位置に検出されるため、映像監視装置は検
出すべき人型の物体が、領域 M07に存在すると判断する
ことができる。すなわち、侵入物体は、領域 M05 の位
置から領域 M07 の位置に移動したことが分かる。この
場合、侵入物体の移動量は、例えば、領域 M05 の中心
から領域 M07 の中心を結ぶ矢印 M08 で表すことができ
る。
In addition to the normalized correlation, the input image f ()
Width W with the position (x, y) at the upper left (top left) coordinate
Area of height H and the position (u,
The average value of the absolute values of the differences in the brightness values of the pixels at the respective corresponding positions in the area of width W and height H with v) as the upper left coordinate may be used as the degree of coincidence. In this case, if the brightness values of each pixel of the input image f () and the template image g () are all the same value, the degree of coincidence becomes 0, and the input image
The larger the difference between the brightness value of each pixel of f () and the template image g (), the higher the value (the lower the degree of coincidence). Figure 2
In the example of (b), the humanoid object to be tracked exists at the position of M04, and the region M
07 is detected. This area M07 is a template image
Since the humanoid object captured in M03 and the humanoid object in the input image M02 are detected at the same position, the video monitoring device may determine that the humanoid object to be detected exists in the area M07. it can. That is, it can be seen that the intruding object has moved from the position of the region M05 to the position of the region M07. In this case, the amount of movement of the intruding object can be represented by, for example, an arrow M08 connecting the center of the region M05 with the center of the region M07.

【0014】次に、図3を用いて、図2で説明したテン
プレートマッチングを逐次入力される入力画像に対して
適用し、視野内の侵入物体を追跡する例を説明する。図
3は、従来のテンプレートマッチング法を逐次行なう物
体追跡処理の動作を説明する図である。図3において、
T01a 、T02a 、T03a 、T04a はそれぞれ、時刻 t0-1 、
t0 、t0+1 、t0+2 それぞれにおける抽出画像、T01c 、
T02c 、T03c 、T04c はそれぞれ、時刻 t0-1 、t0 、t0
+1 、t0+2 でそれぞれ得られたテンプレート画像、T01b
、T02b 、T03b 、T04b はそれぞれ、時刻 t0 、t0+1
、t0+2 、t0+3 それぞれにおける入力画像、T05 はテ
ンプレートマッチング処理部( MT )、T06 はテンプレ
ート画像更新部( UD )を表す。ここで、時刻 t0+n と
は、時刻 t0 から nフレームの処理分だけ時間が離れて
いることを表し、1 フレームの処理時間は、例えば 100
msec である。
Next, an example in which the template matching described in FIG. 2 is applied to an input image that is sequentially input to track an intruding object in the visual field will be described with reference to FIG. FIG. 3 is a diagram for explaining the operation of the object tracking process that sequentially performs the conventional template matching method. In FIG.
T01a, T02a, T03a, and T04a are times t0-1 and
Extracted images at t0, t0 + 1, and t0 + 2, T01c,
T02c, T03c, and T04c are times t0-1, t0, and t0, respectively.
Template images obtained at +1 and t0 + 2, T01b
, T02b, T03b, and T04b are times t0 and t0 + 1, respectively.
, T0 + 2, t0 + 3 respectively, T05 is a template matching processing unit (MT), and T06 is a template image updating unit (UD). Here, time t0 + n means that the time is n frames away from time t0, and the processing time for one frame is, for example, 100
It is msec.

【0015】マッチング処理部 T05 は、抽出画像中の
テンプレート画像と入力画像を比較し、入力画像中でテ
ンプレート画像と最も一致度が高くなる部分を検出し、
それにより時刻 t0 、t0+1 、t0+2 、t0+3における追跡
すべき侵入物体の位置 T01e、T02e 、T03e 、T04e をそ
れぞれ得る(テンプレートマッチング処理)。テンプレ
ート画像更新部 T05 は、マッチング処理部 T04 で検出
された最も一致度が高い部分の画像を新たな侵入物体の
位置画像とし、その位置画像を用いて抽出画像及びテン
プレート画像を置き換えることでテンプレート画像の更
新を行なう。
The matching processing unit T05 compares the template image in the extracted image with the input image, detects the portion of the input image that has the highest degree of coincidence with the template image,
As a result, the positions T01e, T02e, T03e, and T04e of the intruding object to be tracked at times t0, t0 + 1, t0 + 2, and t0 + 3 are obtained (template matching processing). The template image update unit T05 uses the image of the portion with the highest degree of matching detected by the matching processing unit T04 as the position image of the new intruding object, and replaces the extracted image and the template image by using the position image. Update.

【0016】図3を用いて、テンプレートマッチング処
理とテンプレート画像更新処理についての説明を、時刻
t0-1、t0、t0+1、t0+2、t0+3 と順を追って説明する。
先ず、時刻 t0-1 において得られたテンプレート画像 T
01c と時刻 t0 に得られた入力画像 T01b を使ってテン
プレートマッチング処理を行なう。ここで、追跡処理の
最初の処理フレームでは、テンプレート画像 T01c は差
分法によって検出された人型の物体 S09 の外接矩形の
位置に相当する入力画像 S01 の部分画像S13 となる。
テンプレートマッチング処理部 T05 は、上記図2(a)
、(b) を用いて説明したテンプレートマッチングによ
って侵入物体 T01d の位置画像 T01e を検出する。テン
プレート画像更新部 T06 は、新しい位置画像(テンプ
レート)T01e を有する入力画像 T01b を抽出画像とし
て用い、抽出画像をT01a からT02a へ更新し、侵入物体
の位置画像 T01e に基づいてテンプレート画像をT01c
から T02c へ更新する。このような処理を同様に時刻 t
0 、t0+1 、t0+2 、t0+3 においてそれぞれ行なうこと
で視野内の侵入物体が位置画像 T01e 、T02e 、T03e 、
T04eに示される順序で移動したことが分かる。
The template matching process and the template image updating process will be described with reference to FIG.
The description will be made in order of t0-1, t0, t0 + 1, t0 + 2, t0 + 3.
First, the template image T obtained at time t0-1
Template matching processing is performed using 01c and the input image T01b obtained at time t0. Here, in the first processing frame of the tracking processing, the template image T01c becomes the partial image S13 of the input image S01 corresponding to the position of the circumscribed rectangle of the humanoid object S09 detected by the difference method.
The template matching processing unit T05 is as shown in FIG.
, The position image T01e of the intruding object T01d is detected by the template matching described using (b). The template image updating unit T06 uses the input image T01b having the new position image (template) T01e as the extraction image, updates the extraction image from T01a to T02a, and based on the position image T01e of the intruding object, the template image T01c.
Update from T02c to This process is also performed at time t
By performing at 0, t0 + 1, t0 + 2, and t0 + 3, respectively, the intruding object in the visual field is located at the position images T01e, T02e, T03e,
It can be seen that they moved in the order shown in T04e.

【0017】[0017]

【特許文献1】特願2001−184525号[Patent Document 1] Japanese Patent Application No. 2001-184525

【0018】[0018]

【発明が解決しようとする課題】前述の従来技術のテン
プレートマッチングは、入力画像中でテンプレート画像
と最も一致度が高くなる部分を検出するという処理であ
るため、テンプレート画像に写る侵入物体と入力画像中
で検出すべき侵入物体の大きさがほぼ等しい必要があ
る。そのため、撮像装置のズームレンズを制御してズー
ム倍率を変えると、テンプレート画像写る侵入物体と入
力画像に写る検出すべき侵入物体の大きさが異なってし
まい、侵入物体の正確な位置検出ができなくなるという
問題がある。また、侵入物体が検出できたかどうかは、
テンプレートマッチングによって得られる最大の一致度
が所定の値以上であるか否かによって判定される。所定
の値とは、正規化相関を使用した場合には、例えば、0.
5 である。また、撮像装置のズーム倍率が変わると、テ
ンプレート画像に写る侵入物体の大きさと入力画像に写
る検出すべき侵入物体の大きさが異なってしまい一致度
が低下する。一致度が所定の値以下に低下した場合、侵
入物体が検出できないと判定されてしまうという問題が
ある。
The above-mentioned conventional template matching is a process of detecting a portion of the input image having the highest degree of coincidence with the template image. Therefore, the intruding object and the input image shown in the template image are detected. It is necessary that the size of the intruding object to be detected therein is almost equal. Therefore, if the zoom lens of the image pickup apparatus is controlled to change the zoom magnification, the size of the intruding object shown in the template image and the size of the intruding object to be detected in the input image are different, and accurate position detection of the intruding object cannot be performed. There is a problem. In addition, whether or not the intruding object can be detected is
It is determined whether or not the maximum degree of matching obtained by template matching is equal to or greater than a predetermined value. When the normalized correlation is used, the predetermined value is, for example, 0.
It is 5. Further, when the zoom magnification of the imaging device changes, the size of the intruding object shown in the template image and the size of the intruding object to be detected in the input image differ, and the degree of coincidence decreases. If the degree of coincidence falls below a predetermined value, there is a problem that it is determined that the intruding object cannot be detected.

【0019】このように、前述の従来技術のテンプレー
トマッチングを用いた物体追跡方法では、ズームレンズ
を制御してズーム倍率を変えると正確な侵入物体の位置
検出が行なえず、更には、侵入物体の検出が行なえなく
なるという欠点がある。本発明の目的は、上記のような
従来技術の欠点を除去しうる物体追跡方法及び装置を提
供することにある。本発明の別の目的は、正確に物体を
検出し、追跡する信頼性の高い物体追跡方法及び装置を
提供することにある。
As described above, in the aforementioned object tracking method using template matching of the prior art, if the zoom lens is controlled to change the zoom magnification, the position of the intruding object cannot be accurately detected, and further, the intruding object's position cannot be detected. It has the drawback that it cannot be detected. It is an object of the present invention to provide an object tracking method and apparatus that can eliminate the above-mentioned drawbacks of the prior art. Another object of the present invention is to provide a highly reliable object tracking method and apparatus for accurately detecting and tracking an object.

【0020】[0020]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明の一面によれば、ズーム機構を有する撮像
装置から取得する入力画像とテンプレート画像とを比較
して物体を検出する物体検出方法において、上記撮像装
置の視野範囲内の第1の画像を上記テンプレート画像と
して記録するステップと、上記ズーム機構の変更された
倍率を記録するステップと、上記撮像装置から検出する
ための第2の画像を取得するステップと、上記ズーム機
構の変更された倍率に基いて、上記テンプレート画像ま
たは上記第2の画像のいずれか1つの大きさを変更する
ステップと、上記テンプレート画像と上記第2の画像と
のテンプレートマッチングを行なうステップを備え、物
体を検出することを特徴とするものである。
In order to achieve the above object, according to one aspect of the present invention, an object which detects an object by comparing an input image acquired from an image pickup device having a zoom mechanism with a template image. In the detection method, a step of recording a first image within the visual field range of the image pickup device as the template image, a step of recording a changed magnification of the zoom mechanism, and a second step for detecting from the image pickup device. Image of the template image, the step of changing the size of any one of the template image or the second image based on the changed magnification of the zoom mechanism, the template image and the second image. The method is characterized by including a step of performing template matching with an image and detecting an object.

【0021】また本発明の物体検出方法の上記ズーム機
構の変更された倍率を記録するステップは、上記テンプ
レート画像が撮像された時に、上記ズーム機構の第1の
焦点距離を記録するステップと、上記第2の画像が撮像
された時に、上記ズーム機構の第2の焦点距離を記録す
るステップとを備えるものである。また本発明の物体検
出方法の上記テンプレート画像として記録するステップ
は、上記物体を含むように所定の大きさを有する領域を
設定するステップと、上記物体が上記領域内に含まれる
ように上記ズーム機構を制御するステップとを備えるも
のである。
The step of recording the changed magnification of the zoom mechanism of the object detecting method of the present invention includes the step of recording the first focal length of the zoom mechanism when the template image is captured, and Recording the second focal length of the zoom mechanism when the second image is captured. The step of recording as the template image of the object detection method of the present invention includes the step of setting an area having a predetermined size so as to include the object, and the zoom mechanism so that the object is included in the area. And a step of controlling

【0022】また本発明の物体検出方法の上記テンプレ
ートマッチングを行なうステップは、上記テンプレート
画像と上記第2の画像との一致度が最大の部分画像の位
置を検出するステップである。また本発明の物体検出方
法は、更に、上記ズーム機構を手動で操作するステップ
と、表示装置の画面上に上記入力画像を表示するステッ
プとを備え、オペレータが上記画面上の上記入力画像を
見ながら上記ズーム機構を操作するものである。また本
発明の物体検出方法の上記ズーム機構は、ズーム制御開
始後予め定められた基準時間からの経過時間を計算する
ものである。また本発明の物体検出方法は、更に、テン
プレートマッチングを行なった結果に基いて新しいテン
プレート画像を上記テンプレート画像として更新するも
のである。
The step of performing the template matching in the object detecting method of the present invention is a step of detecting the position of the partial image in which the degree of coincidence between the template image and the second image is maximum. Further, the object detection method of the present invention further comprises a step of manually operating the zoom mechanism and a step of displaying the input image on the screen of the display device, and the operator views the input image on the screen. While operating the zoom mechanism. Further, the zoom mechanism of the object detection method of the present invention calculates the elapsed time from the predetermined reference time after the start of zoom control. The object detection method of the present invention further updates a new template image as the template image based on the result of template matching.

【0023】また本発明の物体検出装置は、ズーム機構
を有する撮像装置から取得する入力画像とテンプレート
画像とを比較して物体を検出する物体検出装置におい
て、上記撮像装置の視野範囲内の第1の画像を上記テン
プレート画像として記録するテンプレート画像記録部
と、上記ズーム機構の変更された倍率を記録する倍率記
録部と、上記撮像装置から第2の画像を取得する取得手
段と、上記ズーム機構の変更された倍率に基いて、上記
テンプレート画像または上記第2の画像のいずれか1つ
の大きさを変更する制御部と、上記テンプレート画像と
上記第2の画像とのテンプレートマッチングを行なう画
像処理部とを備えたものである。
The object detecting apparatus of the present invention is an object detecting apparatus for detecting an object by comparing an input image acquired from an image pickup apparatus having a zoom mechanism with a template image. Image as a template image recording unit, a magnification recording unit that records the changed magnification of the zoom mechanism, an acquisition unit that acquires a second image from the imaging device, and a zoom mechanism of the zoom mechanism. A control unit that changes the size of any one of the template image or the second image based on the changed magnification, and an image processing unit that performs template matching between the template image and the second image. It is equipped with.

【0024】また本発明の物体検出装置の上記倍率記録
部は、上記テンプレート画像が撮像された時に、上記ズ
ーム機構の第1の焦点距離を記録する第1の焦点距離記
録部と、上記第2の画像が撮像された時に、上記ズーム
機構の第2の焦点距離を記録する第2の焦点距離記録部
とを備えるものである。また本発明の物体検出装置の上
記テンプレート画像は、上記物体を含む所定の大きさを
有する領域であり、上記制御部は、上記物体が上記領域
内に含まれるように上記ズーム機構を制御するものであ
る。また本発明の物体検出装置の上記ズーム機構がズー
ムレンズまたは電子ズームの少なくともいずれか1つで
あることを特徴とするものである。また本発明の物体検
出装置は、上記ズーム機構を手動で変更する手段と、表
示装置の画面上に上記入力画像を表示する手段とを備
え、オペレータが上記画面上の上記入力画像を見ながら
上記ズーム機構を操作するものである。
The magnification recording section of the object detecting apparatus of the present invention includes a first focal length recording section for recording the first focal length of the zoom mechanism when the template image is captured, and the second focal length recording section. And a second focal length recording unit that records the second focal length of the zoom mechanism when the image is captured. Further, the template image of the object detection device of the present invention is an area having a predetermined size including the object, and the control unit controls the zoom mechanism so that the object is included in the area. Is. Further, the object detecting device of the present invention is characterized in that the zoom mechanism is at least one of a zoom lens and an electronic zoom. Further, the object detection device of the present invention comprises means for manually changing the zoom mechanism and means for displaying the input image on the screen of the display device, and the operator can see the input image on the screen while viewing the input image. This is to operate the zoom mechanism.

【0025】また、本発明の物体検追跡方法は、ズーム
機構を有する撮像装置から取得する入力画像とテンプレ
ート画像とを比較して物体を検出、上記ズーム機構を制
御することによって物体を追跡する物体追跡方法におい
て、上記撮像装置の視野範囲内の第1の画像を上記テン
プレート画像として記録するステップと、上記撮像装置
から検出するための第2の画像を取得するステップと、
上記ズーム機構の変更された倍率を記録するステップ
と、上記ズーム機構の変更された倍率に基いて、上記テ
ンプレート画像または上記第2の画像のいずれか1つの
大きさを変更するステップと、上記テンプレート画像と
上記第2の画像とのテンプレートマッチングを行なうス
テップと、上記テンプレートマッチングの結果に応じ
て、上記撮像装置の移動機構を制御するステップとを備
え、上記物体を追跡するものである。
The object inspection / tracking method of the present invention detects an object by comparing an input image acquired from an image pickup device having a zoom mechanism with a template image, and controls the zoom mechanism to track the object. In the tracking method, recording a first image within the visual field range of the image pickup device as the template image, and acquiring a second image for detection from the image pickup device,
Recording the changed magnification of the zoom mechanism, changing the size of any one of the template image or the second image based on the changed magnification of the zoom mechanism, and the template The object tracking process includes the steps of performing template matching between the image and the second image, and controlling the moving mechanism of the imaging device according to the result of the template matching.

【0026】また、本発明の物体追跡方法の上記ズーム
機構の変更された倍率を記録するステップは、上記テン
プレート画像が撮像された時に、上記ズーム機構の第1
の焦点距離を記録するステップと、上記第2の画像が撮
像された時に、上記ズーム機構の第2の焦点距離を記録
するステップとを備えるものである。また、本発明の物
体追跡方法の上記テンプレート画像として記録するステ
ップは、上記物体を含むように所定の大きさを有する領
域を設定するステップと、上記物体が上記領域内に含ま
れるように上記ズーム機構を制御するステップとを備え
るものである。また、本発明の物体追跡方法の上記テン
プレートマッチングを行なうステップは、上記テンプレ
ート画像と上記第2の画像との一致度が最大の部分画像
の位置を検出するステップであることを特徴とするもの
である。また、本発明の物体追跡方法の上記撮像装置の
移動機構を制御するステップは、更に、上記物体が上記
視野範囲内の中心付近の位置になるように、上記移動機
構を制御するステップを備えるものである。
Further, the step of recording the changed magnification of the zoom mechanism of the object tracking method of the present invention includes the first step of the zoom mechanism when the template image is captured.
And a step of recording the second focal length of the zoom mechanism when the second image is captured. The step of recording as the template image of the object tracking method of the present invention includes the step of setting an area having a predetermined size so as to include the object, and the zooming so that the object is included in the area. Controlling the mechanism. Further, the step of performing the template matching of the object tracking method of the present invention is characterized by detecting the position of the partial image where the degree of coincidence between the template image and the second image is the maximum. is there. Further, the step of controlling the moving mechanism of the imaging device of the object tracking method of the present invention further comprises the step of controlling the moving mechanism such that the object is located near the center of the visual field range. Is.

【0027】また、本発明の物体追跡方法の上記ズーム
機構は、ズームレンズまたは電子ズームの少なくともい
ずれか1つであることを特徴とするものである。また、
本発明の物体追跡方法の上記ズーム機構は、ズームレン
ズであり、更に、上記ズームレンズの上記焦点距離を手
動で変更するステップと、表示装置の画面上に上記入力
画像を表示するステップとを備え、オペレータが上記画
面上の上記入力画像を見ながら上記ズームレンズを操作
するものである。また、本発明の物体追跡方法の上記ズ
ーム機構は、上記レンズの焦点距離が、ズーム制御開始
後予め定められた基準時間からの経過時間を計算するこ
とを特徴とするものである。また、本発明の物体追跡方
法は、更に、テンプレートマッチングを行なった結果に
基いて新しいテンプレート画像を上記テンプレート画像
として更新するものである。
Further, the zoom mechanism of the object tracking method of the present invention is characterized in that it is at least one of a zoom lens and an electronic zoom. Also,
The zoom mechanism of the object tracking method of the present invention is a zoom lens, and further comprises a step of manually changing the focal length of the zoom lens and a step of displaying the input image on a screen of a display device. The operator operates the zoom lens while looking at the input image on the screen. Further, the zoom mechanism of the object tracking method of the present invention is characterized in that the focal length of the lens calculates the elapsed time from a predetermined reference time after the start of zoom control. Further, the object tracking method of the present invention further updates a new template image as the template image based on the result of template matching.

【0028】また本発明の物体追跡装置は、ズーム機構
を有する撮像装置から取得する入力画像とテンプレート
画像とを比較して物体を検出する物体追跡装置におい
て、上記撮像装置の視野範囲内の第1の画像を上記テン
プレート画像として記録するテンプレート画像記録部
と、上記撮像装置から第2の画像を取得する取得手段
と、上記ズーム機構の変更された倍率を記録する倍率記
録部と、上記ズーム機構の変更された倍率に基いて、上
記テンプレート画像または上記第2の画像のいずれか1
つの大きさを変更する第1の制御部と、上記テンプレー
ト画像と上記第2の画像とのテンプレートマッチングを
行なう画像処理部と、上記テンプレートマッチングの結
果に応じて、上記物体追跡するように上記撮像装置の移
動機構を制御する第2の制御部を備えたものである。
The object tracking device of the present invention is an object tracking device for detecting an object by comparing an input image acquired from an imaging device having a zoom mechanism with a template image. Image as a template image, a template image recording unit for acquiring a second image from the imaging device, a magnification recording unit for recording the changed magnification of the zoom mechanism, and a zoom mechanism of the zoom mechanism. Either the template image or the second image based on the modified magnification
A first control unit that changes two sizes, an image processing unit that performs template matching between the template image and the second image, and the imaging for tracking the object according to the result of the template matching. A second control unit for controlling the moving mechanism of the apparatus is provided.

【0029】また本発明の物体追跡装置の上記倍率記録
部は、上記テンプレート画像が撮像された時に、上記ズ
ーム機構の第1の焦点距離を記録する第1の焦点距離記
録部と、上記第2の画像が撮像された時に、上記ズーム
機構の第2の焦点距離を記録する第2の焦点距離記録部
とを備えるものである。また本発明の物体追跡装置の上
記テンプレート画像は、上記物体を含む所定の大きさを
有する領域であり、上記第1の制御部は、上記第1の画
像が上記領域内に含まれるように上記ズーム機構を制御
するものである。また本発明の物体追跡装置の上記ズー
ム機構は、ズームレンズまたは電子ズームの少なくとも
いずれか1つであることを特徴とするものである。また
本発明の物体追跡装置の上記ズーム機構は、上記ズーム
機構を手動で変更する手段と、表示装置の画面上に上記
入力画像を表示する手段とを備え、オペレータが上記画
面上の上記入力画像を見ながら上記ズーム機構を操作す
るものである。
The magnification recording section of the object tracking device of the present invention includes a first focal length recording section for recording the first focal length of the zoom mechanism when the template image is captured, and the second focal length recording section. And a second focal length recording unit that records the second focal length of the zoom mechanism when the image is captured. Further, the template image of the object tracking device of the present invention is an area having a predetermined size including the object, and the first control unit is configured to include the first image in the area so that the first image is included in the area. It controls the zoom mechanism. Further, the zoom mechanism of the object tracking device of the present invention is characterized in that it is at least one of a zoom lens and an electronic zoom. Further, the zoom mechanism of the object tracking device of the present invention comprises means for manually changing the zoom mechanism and means for displaying the input image on the screen of the display device, and the operator inputs the input image on the screen. The user operates the zoom mechanism while watching.

【0030】[0030]

【発明の実施の形態】本発明の物体追跡方法では、従来
からのテンプレート画像に写る侵入物体と入力画像中で
検出すべき侵入物体の大きさが異なった場合に、侵入物
体の正確な位置検出ができなくなるという問題や、テン
プレート画像と入力画像の一致度が低下するという問題
を解決するため、ズームレンズの焦点距離の変化に基づ
きテンプレート画像を拡大あるいは縮小することで、テ
ンプレート画像に写る侵入物体と入力画像内に写る侵入
物体の大きさを等しくなるようにし、テンプレートマッ
チングを実行する。
BEST MODE FOR CARRYING OUT THE INVENTION According to the object tracking method of the present invention, when the size of an intruding object shown in a conventional template image and the size of the intruding object to be detected in the input image are different, accurate position detection of the intruding object is performed. In order to solve the problem that the image cannot be captured, and the problem that the degree of matching between the template image and the input image decreases, the template image is enlarged or reduced based on the change in the focal length of the zoom lens. And the size of the intruding object in the input image are made equal, and template matching is executed.

【0031】即ち、本発明は、登録されているテンプレ
ート画像を抽出した入力画像の取得時点での撮像装置の
ズームレンズの焦点距離と、テンプレートマッチングの
対象となる入力画像を取得した時点での撮像装置のズー
ムレンズの焦点距離との比によってテンプレート画像の
拡大あるいは縮小の倍率を算出し、テンプレート画像を
拡大あるいは縮小してテンプレートマッチング処理を行
なうようにして撮像装置の視野範囲内の物体を追跡する
ことで、特に撮像装置のズームレンズのズーム倍率を変
更しながらでも安定に物体の追跡を行なうことができ
る。
That is, according to the present invention, the focal length of the zoom lens of the image pickup apparatus at the time of acquiring the input image obtained by extracting the registered template image and the image pickup at the time of acquiring the input image to be the template matching target. The magnification of the template image is calculated according to the ratio to the focal length of the zoom lens of the device, and the template image is enlarged or reduced to perform the template matching processing, thereby tracking the object within the visual field range of the imaging device. As a result, it is possible to stably track the object even while changing the zoom magnification of the zoom lens of the image pickup apparatus.

【0032】図6を参照して、本発明の一実施例の映像
監視装置の構成を説明する。図6は、本発明の物体追跡
装置の一実施例の構成を示すブロック図である。E01 は
撮像装置(例えば、TV カメラ)、E02 はズームレン
ズ、E03 は電動旋回台(例えば、カメラ雲台)、E04 は
操作部( operation unit )、E04a は操作部 E04 に付
属する第1のボタン、E04b は操作部 E04 に付属する第
2のボタン、E05 は侵入物体監視装置(画像処理部)で
ある。侵入物体監視装置 E05 において、E05a は画像入
力 I/F( I/F:Interface )、E05b は雲台制御 I/F 、
E05c はレンズ制御 I/F、E05d は操作入力 I/F 、E05e
は画像メモリ、E05f は画像出力 I/F 、E05g は警報出
力 I/F 、E05h は CPU( CPU:Central Processing Uni
t )、E05i はプログラムメモリ、E05j はワークメモ
リ、E05k はデータバス、E06 は出力モニタ、E07 は警
告灯、E05 は画像入力 I/F E05a 、雲台制御 I/F E05b
、レンズ制御 I/F E05c 、操作入力 I/F E05d 、画像
メモリE05e 、画像出力 I/F E05f 、警報出力 I/F E05g
、 CPU E05h、プログラムメモリ E05i 、ワークメモリ
E05j、及び、データバス E05k である。なお、画像メ
モリ E05e 、ワークメモリ E05j 及びプログラムメモリ
E05iは単一メモリで構成しても良い。
With reference to FIG. 6, the structure of the video monitoring apparatus according to the embodiment of the present invention will be described. FIG. 6 is a block diagram showing the configuration of an embodiment of the object tracking device of the present invention. E01 is an image pickup device (for example, a TV camera), E02 is a zoom lens, E03 is an electric swivel base (for example, a camera platform), E04 is an operation unit, and E04a is the first button attached to the operation unit E04. , E04b is a second button attached to the operation unit E04, and E05 is an intruding object monitoring device (image processing unit). In the intruder monitoring system E05, E05a is the image input I / F (I / F: Interface), E05b is the platform control I / F,
E05c is the lens control I / F, E05d is the operation input I / F, E05e
Is the image memory, E05f is the image output I / F, E05g is the alarm output I / F, and E05h is the CPU (CPU: Central Processing Uni
t), E05i is program memory, E05j is work memory, E05k is data bus, E06 is output monitor, E07 is warning light, E05 is image input I / F E05a, pan head control I / F E05b
, Lens control I / F E05c, operation input I / F E05d, image memory E05e, image output I / F E05f, alarm output I / F E05g
, CPU E05h, Program memory E05i, Work memory
These are E05j and the data bus E05k. Image memory E05e, work memory E05j and program memory
The E05i may be composed of a single memory.

【0033】図6において、TV カメラ E01 は、画像入
力 I/F E05a に結合され、ズームレンズ E02 はレンズ
制御 I/F E05c に結合され、カメラ雲台 E03 は雲台制
御 I/FE05b に結合され、操作部 E04 は操作入力 I/F E
05d に結合され、出力モニタE06 は画像出力 I/F E05f
に結合され、警告灯 E07 は警報出力 I/F E05g に結合
されている。また、画像入力 I/F E05a 、雲台制御 I/F
E05b 、レンズ制御 I/F E05c 、入力 I/F E05d 、画像
メモリ E05e 、画像出力 I/F E05f 、警報出力I/F E05g
、CPU E05h 、プログラムメモリ E05i 、及び、ワーク
メモリ E05jは、データバス E05k に結合されている。
In FIG. 6, the TV camera E01 is connected to the image input I / F E05a, the zoom lens E02 is connected to the lens control I / F E05c, and the camera platform E03 is connected to the camera platform control I / FE05b. , E04 is the operation input I / FE
The output monitor E06 is connected to 05d and the image output I / F E05f
Warning light E07 is connected to the alarm output I / F E05g. Also, image input I / F E05a, pan head control I / F
E05b, lens control I / F E05c, input I / F E05d, image memory E05e, image output I / F E05f, alarm output I / F E05g
, CPU E05h, program memory E05i, and work memory E05j are coupled to a data bus E05k.

【0034】図6において、TV カメラ E01 は、カメラ
雲台 E03 に搭載され、ズームレンズ E02 を備えてい
る。TV カメラ E01 は、監視対象(監視視野範囲)を撮
像し、映像信号に変換して物体追跡装置 E05 の画像入
力 I/F E05a に出力する。画像入力 I/F E05a は、撮像
された映像信号を物体追跡装置 E05 の処理できる形式
の画像データに変換して、データバス E05k を介して画
像メモリ E05e に出力し、画像メモリ E05e は、入力さ
れた画像を蓄積する。
In FIG. 6, a TV camera E01 is mounted on a camera platform E03 and has a zoom lens E02. The TV camera E01 captures an image of the surveillance target (surveillance field of view range), converts it into a video signal, and outputs it to the image input I / F E05a of the object tracking device E05. The image input I / F E05a converts the captured video signal into image data in a format that can be processed by the object tracking device E05 and outputs it to the image memory E05e via the data bus E05k, and the image memory E05e is input. Accumulate images.

【0035】CPU E05h は、プログラムメモリ E05i に
あらかじめ保存されているプログラムに従って、画像メ
モリ E05e に蓄積された画像を読出して、ワークメモリ
E05j 内で読出した画像の解析処理を行なう。CPU E05h
は、解析処理結果に応じてデータバス E05k から、レ
ンズ制御 I/F E05c を介してズームレンズ E02 を制御
したり、雲台制御 I/F E05b を介してカメラ雲台 E03
を制御して、TV カメラE01 の撮像視野を変えたり、警
報出力 I/F E05g を介して警告灯 E07 を点灯し、画像
出力 I/F E05f を介して監視モニタ E06 に、例えば侵
入物体検出結果画像を表示する。
The CPU E05h reads the image stored in the image memory E05e according to the program stored in the program memory E05i in advance, and reads it out from the work memory.
Performs analysis processing of the image read in E05j. CPU E05h
Depending on the analysis processing result, the data bus E05k controls the zoom lens E02 via the lens control I / F E05c and the camera platform E03 via the camera platform control I / F E05b.
Control the TV camera E01 to change the field of view, turn on the warning light E07 via the alarm output I / F E05g, and display on the monitor E06 via the image output I / F E05f, for example, the intruder detection result. Display an image.

【0036】なお、画像メモリ E05e は、登録されたテ
ンプレート画像を保存しておくためのテンプレート画像
保持部をも備えている。以下に説明する実施例は、上記
図6で説明した物体追跡装置のハードウエア構成を使用
するものとして説明する。
The image memory E05e also includes a template image holding unit for storing the registered template image. The embodiment described below will be described assuming that the hardware configuration of the object tracking device described in FIG. 6 is used.

【0037】本発明の一実施例を図5を参照して説明す
る。 図5は本発明の一実施例の処理プロセスを説明す
るフローチャートである。まず、初期視野移動ステップ
201 では、 ズームレンズ E02 およびカメラ雲台 E03
を所定の初期位置に移動し、TV カメラ E01 が初期視野
範囲(初期監視視野範囲)を撮像するように設定する。
初期視野とは、例えば、重点的に監視する特定の建物の
出入口等を写す視野である。
An embodiment of the present invention will be described with reference to FIG. FIG. 5 is a flow chart for explaining the processing process of one embodiment of the present invention. First, the initial visual field movement step
201, zoom lens E02 and camera platform E03
Move to the specified initial position, and set the TV camera E01 to capture the initial visual field range (initial monitoring visual field range).
The initial field of view is, for example, a field of view of the entrance and exit of a specific building that is to be monitored intensively.

【0038】続くステップ 202 からステップ 206 は、
上記図1で説明した差分法による侵入物体検出とテンプ
レート画像登録までの処理プロセスを表す。 以下、図
1を参照して説明する。まず、画像入力ステップ 202
では、カメラ E01 から、例えば、幅 320 pix、高さ 24
0 pix 、8 bit/pix の入力画像 S01 を取得する。差分
処理ステップ 203 では、画像入力ステップ 202 で得ら
れた入力画像 S01と、予め画像メモリ E05e に記録して
おいた基準背景画像 S02 との画素毎の輝度値の差分を
計算し、差分の値をそれぞれの該当する画素の輝度値と
した差分画像 S03 を得る。
The following steps 202 to 206 are
The process of detecting an intruding object by the difference method described in FIG. 1 and registering a template image is shown. Hereinafter, description will be given with reference to FIG. First, image input step 202
Then, from the camera E01, for example, width 320 pix, height 24
Get the input image S01 of 0 pix and 8 bit / pix. In the difference processing step 203, the difference in luminance value for each pixel between the input image S01 obtained in the image input step 202 and the reference background image S02 previously recorded in the image memory E05e is calculated, and the difference value is calculated. A difference image S03 that is the brightness value of each corresponding pixel is obtained.

【0039】次に、二値化処理ステップ 204 では、差
分処理ステップ 203 で得られた差分画像 S03 の各画素
についてしきい値処理を行ない、画素値がしきい値(例
えば、20 )未満の場合は画素値を“ 0 ”、しきい値以
上の場合は画素値を“ 255”となるようにして二値化画
像 S04 を得る。次に、物体存在判定ステップ 205 で
は、二値化処理ステップ 204 で得られた二値化画像 S0
4 中から、例えば周知のラベリング( labeling )の方
法によって画素値が“ 255 ”の画素のかたまり S09 を
検出して物体が存在するか否かを判定する。 物体が存
在すると判定した場合には、テンプレート画像登録ステ
ップ 206 へ分岐する。一方、物体が存在しなかったと
判定した場合には,画像入力ステップ 202 へ分岐し、
次ぎの最新の(現在撮影された)入力画像を得て、ステ
ップ 203 〜 205 の処理を行なう。
Next, in the binarization processing step 204, threshold processing is performed on each pixel of the difference image S03 obtained in the difference processing step 203, and when the pixel value is less than the threshold value (for example, 20). Obtains a binarized image S04 with a pixel value of "0" and a pixel value of "255" when it is equal to or greater than the threshold value. Next, in the object presence determination step 205, the binarized image S0 obtained in the binarization processing step 204
From among the four, for example, a well-known labeling method is used to detect a cluster S09 of pixels having a pixel value of "255" to determine whether or not an object exists. When it is determined that the object exists, the process branches to the template image registration step 206. On the other hand, when it is determined that the object does not exist, the process branches to the image input step 202,
The next latest (currently photographed) input image is obtained and the processing of steps 203 to 205 is performed.

【0040】テンプレート画像登録ステップ 206 で
は、画像入力ステップ 202 から 物体存在判定ステップ
205 までの処理によって検出された二値化物体 S09 の
外接矩形 S10 を算出して、入力画像 S01 から、外接矩
形 S10 に相当する領域を切り出し、これを初期のテン
プレート画像 S13 として画像メモリ E05e に登録す
る。
In the template image registration step 206, from the image input step 202 to the object presence determination step
The circumscribing rectangle S10 of the binarized object S09 detected by the processes up to 205 is calculated, the area corresponding to the circumscribing rectangle S10 is cut out from the input image S01, and this is registered in the image memory E05e as the initial template image S13. To do.

【0041】ステップ 207 からステップ 216 は、差分
法によって検出された侵入物体 S07をテンプレートマッ
チングによって追跡するプロセスである。画像入力ステ
ップ 207 では、画像入力ステップ 202 と同様に、TV
カメラ E01 から、例えば、幅 320 pix 、高さ 240 pix
、8 bit/pix の最新の(現在撮影された)入力画像(
M02)を取得する。次に、ズーム制御判定ステップ 208
では、追跡中の侵入物体のテンプレート画像 M03 の大
きさが所定の範囲内に収まっていない場合に、ズームレ
ンズの制御が必要だとしてズームレンズ制御ステップ 2
09 へ分岐する。 また、所定の範囲内に収まっている
場合には、ズーム倍率算出ステップへ分岐する。
Steps 207 to 216 are a process of tracking the intruding object S07 detected by the difference method by template matching. In the image input step 207, as in the image input step 202,
From camera E01, for example, width 320 pix, height 240 pix
, 8 bit / pix latest (currently captured) input image (
Get M02). Next, the zoom control determination step 208
Then, if the size of the template image M03 of the intruding object being tracked is not within the predetermined range, it is determined that the zoom lens needs to be controlled.
Branch to 09. If it is within the predetermined range, the process branches to the zoom magnification calculation step.

【0042】ここで、所定の範囲とは、侵入物体の見か
けの大きさが入力画像に対してどの程度占めるかによっ
て設定される。 例えば、侵入物体の見かけの高さ(垂
直(y)方向の長さ:例えば、図2(b) の H )が、入
力画像の全体の高さ(例えば、図2(b) の H0 )の 1/3
から 1/2 の範囲以内に収まるようにする。これは、侵
入物体が縦長に見えるという特徴を利用したもので、侵
入物体の高さが画面内に捉えられれば侵入物体全体を画
像内(画面)に写すことができるためである。従って、
この例では、侵入物体の見かけの高さは 80pix 〜 120
pix の範囲内に設定される。
Here, the predetermined range is set depending on how much the apparent size of the intruding object occupies the input image. For example, the apparent height of an intruding object (length in the vertical (y) direction: for example, H in FIG. 2 (b)) is the height of the entire input image (for example, H0 in FIG. 2 (b)). 1/3
To be within the range of 1/2. This is because the intruding object can be viewed vertically, and if the height of the intruding object is captured in the screen, the entire intruding object can be displayed in the image (screen). Therefore,
In this example, the apparent height of the intruding object is 80pix ~ 120
It is set within the range of pix.

【0043】なお、所定の範囲とはそのような範囲に限
定されず、侵入物体の存在する位置から入力画面の上下
左右端部までの距離が、入力画面の1処理フレーム当り
の侵入物体のみかけの移動距離以上になるように設定す
れば良い。これは、テンプレートマッチングの処理が、
入力画像中から対象とする侵入物体の画像を見つける処
理であるため、テンプレートを更新した次の処理フレー
ムで対象とする侵入物体が入力画像の外に出てしまう
と、原理上テンプレートマッチングによる侵入物体の検
出が行えなくなるためである。従って、例えば、侵入物
体が水平方向にしか移動しない場合には、侵入物体の見
かけの高さは、入力画像の全体の高さの 1/1 の範囲以
内に収まるようにすれば良い(即ち、侵入物体の見かけ
の高さ:入力画像の全体の高さ≒1:1)。
Note that the predetermined range is not limited to such a range, and the distance from the position where the intruding object exists to the upper, lower, left, and right ends of the input screen is such that only the intruding object per processing frame of the input screen appears. The distance may be set to be equal to or greater than the moving distance of. This is the template matching process
Since it is the process of finding the image of the target intruding object from the input image, if the target intruding object goes out of the input image in the next processing frame in which the template is updated, the intruding object by template matching is theoretically used. This is because the detection cannot be performed. Therefore, for example, if the intruding object moves only in the horizontal direction, the apparent height of the intruding object should be set within the range of 1/1 of the total height of the input image (that is, Apparent height of intruding object: Overall height of input image ≈ 1: 1).

【0044】次に、ズームレンズ制御ステップ 209 で
は、入力画像に写る侵入物体の大きさを適切に調整する
ために、テンプレート画像の大きさが上記の所定の範囲
より小さい場合に、レンズ制御 I/F E05c を介して、ズ
ームレンズ E02 をズームアップさせる(焦点距離を長
くする)。また、テンプレート画像の大きさが所定の範
囲より大きい場合に、レンズ制御 I/F E05c を介して、
ズームレンズ E02 をズームアウトさせる(焦点距離を
短くする)。このようにすることによって、侵入物体の
見かけの大きさを所定の範囲に収めるよう、即ち、上記
の設定値になるようにズームレンズ E02 を制御するこ
とができる。 このようなズームレンズ制御は、例え
ば、侵入物体の見かけの大きさに基づき、上記の設定値
になるようにズームレンズ E02 をフィードバック制御
することで実現できる。
Next, in the zoom lens control step 209, in order to appropriately adjust the size of the intruding object appearing in the input image, if the size of the template image is smaller than the above predetermined range, the lens control I / Zoom in on the zoom lens E02 via F E05c (increasing the focal length). Also, if the size of the template image is larger than the specified range, the lens control I / F E05c
Zoom out the zoom lens E02 (shorten the focal length). By doing so, it is possible to control the zoom lens E02 so that the apparent size of the intruding object falls within a predetermined range, that is, the above-mentioned set value. Such zoom lens control can be realized, for example, by performing feedback control of the zoom lens E02 so that the above set value is achieved based on the apparent size of the intruding object.

【0045】次にズーム倍率算出ステップ 210 では、
登録したテンプレート画像 M03 の抽出画像 M01 を取得
した時点(ステップ 206 で登録されたテンプレート画
像を入力した時点、即ち、ステップ 207 での画像入力
時点、または、後述するステップ 215 で更新されたテ
ンプレート画像を入力した時点、即ち、ステップ 207
での画像入力時点)でのズームレンズの焦点距離 ft
と、入力画像 M02を取得した時点(テンプレート画像入
力の1処理フレーム後の、ステップ 207 での画像入力
時点)でのズームレンズの焦点距離 fi との比を計算し
て、ズーム倍率を算出する。 ここで、1処理フレーム
とは、ステップ 202 またはステップ 207 での入力画像
に基づくテンプレートマッチング処理をいう。ズーム倍
率は、例えば、焦点距離が ft = 12 mm 、及び、fi = 1
5 mm であった場合には、15/12 = 1.25 となる。
Next, in the zoom magnification calculation step 210,
When the extracted image M01 of the registered template image M03 is acquired (when the template image registered in step 206 is input, that is, when the image is input in step 207, or the template image updated in step 215 described later is displayed. At the time of input, that is, step 207
Focal length of the zoom lens (at the time of image input)
And the ratio of the focal length fi of the zoom lens at the time of acquiring the input image M02 (at the time of image input in step 207 after one processing frame of template image input) to calculate the zoom magnification. Here, one processing frame refers to the template matching processing based on the input image in step 202 or step 207. The zoom factor is, for example, a focal length of ft = 12 mm and fi = 1
If it is 5 mm, then 15/12 = 1.25.

【0046】さらに、テンプレート拡大・縮小ステップ
211 では、ズーム倍率算出ステップ 210 で得られたズ
ーム倍率に基づき、例えば公知のアフィン変換( affin
e transform )の方法によって、テンプレート画像を拡
大(ズーム倍率が 1.0 より大きい)あるいは縮小(ズ
ーム倍率が 1.0 未満)する。この処理によって、例え
ば、拡大・縮小前のテンプレート画像の大きさが横 3
0、高さ 50 でズーム倍率が 1.25 であった場合、拡大
・縮小後のテンプレート画像の大きさは、横 30× 1.25
= 38 pix 、高さ 50 × 1.25 = 63 pix(共に四捨五
入)となる。ここで、テンプレート画像の拡大・縮小の
代わりに、入力画像の拡大・縮小を電子的、光学的に行
なっても良い。
Further, template enlarging / reducing step
In 211, based on the zoom magnification obtained in the zoom magnification calculation step 210, for example, a known affine transformation (affin
The template image is enlarged (zoom magnification is greater than 1.0) or reduced (zoom magnification is less than 1.0) by the method of (e transform). By this process, for example, the size of the template image before scaling can be reduced
If the zoom magnification is 1.25 and the height is 0 and the height is 50, the size of the template image after enlargement / reduction is 30 × 1.25 horizontal.
= 38 pix, height 50 x 1.25 = 63 pix (both are rounded). Here, instead of enlarging / reducing the template image, enlarging / reducing the input image may be performed electronically or optically.

【0047】テンプレートマッチングステップ 212 で
は、上記図2(a) 、(b) で説明したテンプレートマッチ
ング処理によって入力画像中でテンプレート画像と一致
度が最も高い部分画像を検索し、侵入物体がどの位置に
存在するかを検出する。次に一致度判定ステップ 213
では、ステップ 212でのテンプレートマッチングで得ら
れた最大の一致度が所定の値(例えば、正規化相関を適
用した場合は 0.5 )以上であるか否かを判定する。
最大の一致度が所定の値未満である場合には、侵入物体
が検出されなかった(入力画像中でテンプレート画像と
一致する部分画像が見つからなかった)として初期視野
移動ステップ 201 に分岐し、ステップ 201 〜 212 の
処理を再び行なう。 また、最大の一致度が所定の値以
上であった場合には、侵入物体が検出されたとしてカメ
ラ雲台制御ステップ 214に分岐する。
In the template matching step 212, the partial image having the highest degree of coincidence with the template image in the input image is searched by the template matching processing described with reference to FIGS. 2 (a) and 2 (b) above, and the position of the intruding object is determined. Detect if it exists Next, the matching degree determination step 213
Then, it is determined whether or not the maximum degree of coincidence obtained by the template matching in step 212 is a predetermined value (for example, 0.5 when the normalized correlation is applied) or more.
If the maximum degree of matching is less than the predetermined value, it is determined that an intruding object has not been detected (a partial image matching the template image was not found in the input image), and the process branches to step 201 of moving the initial visual field. Repeat steps 201 to 212. If the maximum degree of coincidence is greater than or equal to the predetermined value, it is determined that an intruding object is detected, and the process branches to the camera platform control step 214.

【0048】カメラ雲台制御ステップ 214 では、検出
した侵入物体の位置に基づきカメラ雲台 E03 を制御す
る。この制御は、例えば、侵入物体の位置(入力画像中
で検出された部分画像の中心位置)が画像中心から右に
位置している場合はカメラ雲台 E03 を右にパンし、画
像中心から左に位置している場合は左にパンし、画像中
心から上に位置している場合は上にチルトし、画像中心
から下に位置している場合は下にチルトする。
In the camera platform control step 214, the camera platform E03 is controlled based on the detected position of the intruding object. This control is, for example, when the position of the intruding object (the center position of the partial image detected in the input image) is located to the right of the image center, the camera platform E03 is panned to the right and left from the image center. When it is located at, the image is panned to the left, when it is located above the image center, it is tilted upward, and when it is located below the image center, it is tilted downward.

【0049】更に、テンプレート更新ステップ 215 で
は、図3を用いて説明したテンプレート画像更新部 T06
と同様の処理を行ない、入力画像 M02 の中でテンプレ
ート画像と最も一致度が高い部分画像 M07 に相当する
領域を切り出し、これを新たなテンプレート画像 M03
として、テンプレート画像を更新する。警報・モニタ表
示ステップ 216 では、警報出力 I/F E05g を介して、
例えば、監視モニタ E06 に対象物体の画像を表示した
り、警告灯 E07 を点灯させたりして、侵入物体が存在
することを表す報知を行なう。
Further, in the template updating step 215, the template image updating unit T06 described with reference to FIG. 3 is used.
By performing the same process as above, the area corresponding to the partial image M07 having the highest matching degree with the template image is cut out from the input image M02, and this is extracted as a new template image M03.
As a result, the template image is updated. In the alarm / monitor display step 216, via the alarm output I / F E05g,
For example, an image of the target object is displayed on the monitor E06 or a warning lamp E07 is turned on to notify the presence of the intruding object.

【0050】上記のステップ 207 からステップ 216 の
処理を繰り返し実行して、テンプレート画像を拡大また
は縮小しながらテンプレートマッチングを行ない、侵入
物体を追跡するプロセスを、図4により説明する。 図
4は、本発明の物体追跡処理の一実施例の動作を説明す
るための図である。 図4に示すように、先ず、時刻T1
-1 で得られた入力画像に基づく抽出画像 Z01a とテン
プレート画像 Z01d を用いて撮像装置の視野範囲内の侵
入物体を追跡する。画像 Z01a 、Z02a 、Z03a はそれぞ
れ、時刻 T1-1 、T1 、T1+1 での力画像に基づき得ら
れたそれぞれの抽出画像である。また、画像 Z01d、Z02
d、Z03d はそれぞれ、時刻 T1-1 、T1 、T1+1 でのそれ
ぞれの入力画像に基づき得られたテンプレート画像であ
り、画像 Z01c 、Z02c 、Z03c はそれぞれ、時刻 T1 、
T1+1、T1+2 の入力画像である。
A process of repeatedly executing the processes of steps 207 to 216 to perform template matching while enlarging or reducing the template image and tracking the intruding object will be described with reference to FIG. FIG. 4 is a diagram for explaining the operation of an embodiment of the object tracking process of the present invention. As shown in FIG. 4, first, time T1
The intruding object within the visual field range of the imaging device is tracked using the extracted image Z01a and the template image Z01d based on the input image obtained in -1. Image Z01a, Z02a, Z03a each time T1-1, respectively of the extracted image obtained based on the input image at T1, T1 + 1. Also images Z01d, Z02
d and Z03d are template images obtained based on the respective input images at times T1-1, T1, and T1 + 1, and images Z01c, Z02c, and Z03c are times T1 and T03, respectively.
Input images of T1 + 1 and T1 + 2.

【0051】時刻 T1-1 において取得された入力画像に
基づくテンプレート画像 Z01d は、拡大・縮小処理部
( ZM ) Z04(ステップ 210 、211 )において、以下
のように処理される。 即ち、抽出画像 Z01a の元にな
る入力画像を TV カメラから取得した時点でのズームレ
ンズの焦点距離と、入力画像 Z01c を TV カメラから取
得した時点のズームレンズの焦点距離の比によって、ズ
ーム倍率を算出し(ステップ 210 )、該算出されたズ
ーム倍率を用いてテンプレート画像 Z01d を拡大あるい
は縮小し、拡大あるいは縮小処理後の抽出画像 Z01b 及
び、テンプレート画像 Z01e を得る。
The template image Z01d based on the input image acquired at time T1-1 is processed in the enlarging / reducing processing unit (ZM) Z04 (steps 210 and 211) as follows. That is, the zoom magnification is determined by the ratio of the focal length of the zoom lens when the input image that is the source of the extracted image Z01a is acquired from the TV camera and the focal length of the zoom lens when the input image Z01c is acquired from the TV camera. It is calculated (step 210), the template image Z01d is enlarged or reduced using the calculated zoom magnification, and the extracted image Z01b after the enlargement or reduction processing and the template image Z01e are obtained.

【0052】ここで、ズームレンズの焦点距離の増加動
作を、図8と図9を用いて説明する。図8は、本発明の
実行によるズームアップ操作時のズームレンズの焦点距
離の増加の一例の様子を表す図である。 図8は、ズー
ムアップ制御時のズームレンズ制御時間 t に対するズ
ームレンズの焦点距離の増加の様子を表している。また
図9は、本発明の実行によるズームアウト操作時のズー
ムレンズの焦点距離の増加の一例の様子を表す図であ
る。図9は、ズームアウト制御時のズームレンズ制御時
間 t に対するズームレンズの焦点距離の減少の様子を
表す。
Here, the operation of increasing the focal length of the zoom lens will be described with reference to FIGS. 8 and 9. FIG. 8 is a diagram showing an example of an increase in the focal length of the zoom lens during a zoom-up operation according to the execution of the present invention. FIG. 8 shows how the focal length of the zoom lens increases with respect to the zoom lens control time t during zoom-up control. FIG. 9 is a diagram showing an example of an increase in the focal length of the zoom lens during the zoom-out operation according to the execution of the present invention. FIG. 9 shows how the focal length of the zoom lens decreases with respect to the zoom lens control time t during zoom-out control.

【0053】図8において、例えば、t = 0 の時刻でズ
ームアップ制御を開始する。この場合、ズームレンズが
駆動を開始するまでに時間 td の遅れ(例えば、0.1 se
c )が生じる。その後、時間 ta の間(例えば 0.5 sec
)加速され、その後一定の増加分 △fmax で焦点距離
が増加し、時刻 ts においてズームレンズ制御を停止し
たとすると、時間 td の遅れがあって、時間 tb の間
(例えば、 0.5sec )減速するという加減速特性 701
を示す。ここで、実際の焦点距離の増加は、加減速特性
701 の台形の面積であり、ts 秒間のズームアップ操作
によって、焦点距離が{( ts − ta + ts + tb )×△
fmax }/ 2( ts ≧ta )、{(fmax / ta + △fmax /
ta )× ts 2 }/ 2( ts < ta )分だけ増加する。
In FIG. 8, for example, zoom-up control is started at time t = 0. In this case, the delay of time td (for example, 0.1 se
c) occurs. After that, for time ta (for example, 0.5 sec
) If the zoom lens control is accelerated, and then the focal length increases by a certain increment Δfmax, and the zoom lens control is stopped at time ts, there is a delay of time td and deceleration takes place during time tb (for example, 0.5 sec). Acceleration / deceleration characteristics 701
Indicates. Here, the increase of the actual focal length is the acceleration / deceleration characteristic.
This is the area of the trapezoid of 701, and the focal length is {(ts − ta + ts + tb) × △ by the zoom-up operation for ts seconds.
fmax} / 2 (ts ≧ ta), {(fmax / ta + △ fmax /
ta) × ts 2} / 2 (ts <ta).

【0054】今、ズームアップ操作前の焦点距離が 10.
0 mm であったとすると、△fmax =2.0 mm/sec とし、t
= 5.0 sec のズームアップ操作によって、焦点距離が 2
0.0mm に増加し、ズームアップ操作前後の入力画像のズ
ーム倍率は 20.0 / 10.0 =2.0 となる。図8のズームア
ウト制御の場合も同様に、ts 秒間のズームアウト操作
によって、焦点距離が{( ts − ta + ts + tb )×△
fmin }/ 2 = 10.0mm( ts ≧ ta )、{(△fmax / t
a + △fmax / ta)× ts 2 }/ 2( ts <ta ) 分だけ
増加する。
Now, the focal length before the zoom-up operation is 10.
If it is 0 mm, then Δfmax = 2.0 mm / sec and t
= 5.0 sec zoom-up operation brings the focal length to 2
It is increased to 0.0mm, and the zoom ratio of the input image before and after zoom-up operation is 20.0 / 10.0 = 2.0. Similarly, in the case of the zoom-out control of FIG. 8, the focal length is {(ts − ta + ts + tb) × Δ by the zoom-out operation for ts seconds.
fmin} / 2 = 10.0mm (ts ≥ ta), {(△ fmax / t
a + Δfmax / ta) × ts 2} / 2 (ts <ta).

【0055】拡大・縮小処理部 Z04 において、このズ
ーム倍率にしたがって、拡大または縮小後の抽出画像 Z
01b およびテンプレート画像 Z01e を得る。次に、テン
プレートマッチング処理部( TM ) Z05(ステップ 212
)において、拡大または縮小したテンプレート画像 Z0
1e を用いて入力画像 Z01c に対してテンプレートマッ
チングを行なうと、一致画像として入力画像 Z01c の部
分画像 Z01g を得ることができる。従って、入力画像 Z
01c 中で侵入物体は、Z01fに存在すると判定される。な
お、拡大・縮小処理部 Z04、テンプレートマッチング処
理部( TM ) Z05、テンプレート画像更新部Z06は、そ
れぞれ、プログラムメモリE05i にあらかじめ保存され
ている、拡大・縮小処理、テンプレートマッチング処
理、テンプレート画像更新処理を行なうプログラムであ
る。次にテンプレート画像更新部Z06(ステップ 215)
では、検出された入力画像Z01c の部分画像 Z01g に基
づき抽出画像とテンプレート画像を更新する、即ち、新
しい抽出画像 Z02a とテンプレート画像 Z02d を得る。
その後、得られた部分画像 Z01gを新しいテンプレート
画像 Z02dとし、これを用いて拡大・縮小処理を行な
い、拡大・縮小処理後のテンプレート画像 Z02eと時刻
t1+1での新しい入力画像とでテンプレートマッチング処
理を行なう。 そして、検出された入力画像 Z02c の部
分画像 Z02g に基づき新しい抽出画像 Z023a とテンプ
レート画像 Z03d を得る。同様な処理を順次行なうこと
で、ズームレンズ E02 を制御しながら時刻 t1+1におい
て侵入物体 Z02f、時刻 t1+2 において侵入物体 Z03f
を得ることができ、従って、入力画像中の侵入物体を追
跡することができる。
In the enlargement / reduction processing unit Z04, the extracted image Z after enlargement or reduction according to this zoom magnification is executed.
Get 01b and template image Z01e. Next, the template matching processing unit (TM) Z05 (step 212
), Enlarged or reduced template image Z0
By performing template matching on the input image Z01c using 1e, a partial image Z01g of the input image Z01c can be obtained as a matching image. Therefore, the input image Z
Intruders in 01c are determined to be present in Z01f. The enlarging / reducing processing unit Z04, the template matching processing unit (TM) Z05, and the template image updating unit Z06 are respectively the enlarging / reducing process, the template matching process, and the template image updating process stored in advance in the program memory E05i. Is a program that does. Next, template image update section Z06 (step 215)
Then, the extraction image and the template image are updated based on the detected partial image Z01g of the input image Z01c, that is, a new extraction image Z02a and a new template image Z02d are obtained.
After that, the obtained partial image Z01g is used as a new template image Z02d, and enlargement / reduction processing is performed using this, and the template image Z02e and the time after the enlargement / reduction processing are performed.
Perform template matching with the new input image at t1 + 1. Then, a new extracted image Z023a and a template image Z03d are obtained based on the detected partial image Z02g of the input image Z02c. By performing similar processing in sequence, the intruding object Z02f at time t1 + 1 and the intruding object Z03f at time t1 + 2 while controlling the zoom lens E02.
Can be obtained, and thus an intruding object in the input image can be tracked.

【0056】上記のように、本発明の実施例によれば、
侵入物体の大きさに基づいてズーム制御判定ステップ 2
08 とズームレンズ制御ステップ 209 によってズームレ
ンズを制御し、そのズーム倍率をズーム倍率算出ステッ
プ 210 によって算出し、テンプレート拡大・縮小ステ
ップ 210 によってズーム倍率に基づいてテンプレート
画像を拡大あるいは縮小する。 従って、ズームレンズ
を操作しながらでもテンプレート画像の位置が対象とす
る侵入物体からずれることがなく、さらには、テンプレ
ートマッチングの際の一致度を低下させることがなく正
確に侵入物体を追跡できる。なお、上記実施例では、ス
テップ 208 、209 によりズームレンズ制御された後の
画像は、ステップ 202 またはステップ 207 で入力され
る。 従って、これらステップ 208 、209 は図7に示
す変形例の様に、例えば、ステップ 214 とステップ 21
5 の間に実行しても良い。 これは後述する第2、第3
の実施例においても同様である。
As described above, according to the embodiment of the present invention,
Zoom control judgment step 2 based on the size of the intruding object
The zoom lens is controlled by 08 and the zoom lens control step 209, the zoom magnification thereof is calculated by the zoom magnification calculation step 210, and the template enlargement / reduction step 210 enlarges or reduces the template image based on the zoom magnification. Therefore, even if the zoom lens is operated, the position of the template image does not deviate from the target intruding object, and further, the intruding object can be accurately tracked without lowering the matching degree at the time of template matching. In the above embodiment, the image that has been subjected to zoom lens control in steps 208 and 209 is input in step 202 or step 207. Therefore, these steps 208 and 209 are, for example, steps 214 and 21 as in the modification shown in FIG.
May be run between 5. This is the second and the third which will be described later.
The same applies to the embodiment.

【0057】本発明の第2の実施例を図10を参照して
説明する。 図10は本発明の第2実施例の処理プロセ
スを説明するフローチャートである。図10は、図5で
説明した処理プロセスにおいて、ズーム制御ステップ 2
08 の替わりにズーム操作ステップ 208′を実行するも
のとし、ズームレンズ制御ステップ 209 の替わりにズ
ームレンズ制御ステップ 209′を実行するようにしたも
のである。 従って、他のステップ 201 〜ステップ 20
7 、及び、ステップ 210 〜ステップ 216は第1の実施
例と同様であるためそれらの処理の説明については省略
する。
The second embodiment of the present invention will be described with reference to FIG. FIG. 10 is a flow chart for explaining the processing process of the second embodiment of the present invention. FIG. 10 shows the zoom control step 2 in the process described in FIG.
The zoom operation step 208 ′ is executed instead of 08, and the zoom lens control step 209 ′ is executed instead of the zoom lens control step 209. Therefore, other steps 201 to 20
7 and steps 210 to 216 are the same as those in the first embodiment, the description of those processes will be omitted.

【0058】ステップ 201 からステップ 207 までの処
理が図5で説明したようになされると、ズーム操作判定
ステップ 208′に進む。ズーム操作判定ステップ 208′
では、オペレータが操作部 E04 を操作したか否かを、
操作部 E04 からの操作入力 I/F E05d を介した出力に
基づき判断する。 オペレータが操作部 E04 を操作し
た場合は、ズームレンズ制御ステップ 209′へ分岐す
る。また、オペレータが操作部を操作していない場合
は、ズーム倍率算出ステップ 210 へ分岐する。
When the processing from step 201 to step 207 is performed as described in FIG. 5, the process proceeds to zoom operation determination step 208 '. Zoom operation determination step 208 ′
Now, let's check if the operator has operated the operation unit E04.
Judgment is based on the operation input from the operation unit E04, the output via the I / F E05d. When the operator operates the operation unit E04, the process branches to the zoom lens control step 209 '. If the operator is not operating the operation unit, the process branches to zoom magnification calculation step 210.

【0059】ズームレンズ制御ステップ 209′では、オ
ペレータが操作部 E04 を使ってズームアップ操作をし
た場合、ズームレンズ E02 の焦点距離を所定の値(例
えば1 mm )増加させる。ここで、ズームアップ操作
は、例えば、操作部 E04 の第1のボタン E04a をオペ
レータが押すことで実行される。 一例として、操作部
E04 の第1のボタン E04a をオペレータが1回押す毎
にズームレンズ E02 の焦点距離を所定の値増加させる
ようにしても良い。また、オペレータが操作部 E04 を
使ってズームアウト操作をした場合、ズームレンズ E02
の焦点距離を所定の値(例えば 1 mm )減少させる。
ここで、ズームアウト操作は、例えば、オペレータが操
作部 E04 の第2のボタン E04b を押すことで実行され
る。一例として、操作部 E04 の第2のボタン E04b を
オペレータが1回押す毎にズームレンズ E02 の焦点距
離を所定の値減少させるようにしても良い。
In the zoom lens control step 209 ', when the operator performs a zoom-up operation using the operation unit E04, the focal length of the zoom lens E02 is increased by a predetermined value (for example, 1 mm). Here, the zoom-up operation is executed by, for example, the operator pressing the first button E04a of the operation unit E04. As an example, the operation unit
The focal length of the zoom lens E02 may be increased by a predetermined value each time the operator presses the first button E04a of E04 once. In addition, when the operator performs zoom-out operation using the operation unit E04, the zoom lens E02
Decrease the focal length of the lens by a predetermined value (eg 1 mm).
Here, the zoom-out operation is executed by, for example, the operator pressing the second button E04b of the operation unit E04. As an example, the focal length of the zoom lens E02 may be decreased by a predetermined value each time the operator presses the second button E04b of the operation unit E04 once.

【0060】なお、オペレータがズームアップ操作とズ
ームアウト操作を行った場合、上記実施例では、操作部
E04 の第1のボタンと第2のボタンを同時に押した場
合は、例えば、ズームレンズ E02 の焦点距離は変化さ
せないようにして良い。 このようにすることで、オペ
レータがズームレンズ E02 を操作することができるよ
うになる。 または、オペレータがズームアップ操作と
ズームアウト操作を同時に行なった場合は、ズームアッ
プ操作とズームアウト操作の一方を実行するようにして
も良い。以下、ステップ 210 以降の処理が実行され
る。このようにすることで、ズームレンズ E02 を操作
しながら時刻 t1+1 において侵入物体 Z02f 、時刻 t1+
2 において侵入物体 Z03f と入力画像中の侵入物体を追
跡することができる。
When the operator performs the zoom-up operation and the zoom-out operation, in the above embodiment, the operation unit
When the first button and the second button of E04 are pressed at the same time, for example, the focal length of the zoom lens E02 may not be changed. By doing so, the operator can operate the zoom lens E02. Alternatively, when the operator simultaneously performs the zoom-up operation and the zoom-out operation, one of the zoom-up operation and the zoom-out operation may be executed. After that, the processing from step 210 onward is executed. By doing so, while operating the zoom lens E02, at time t1 + 1, the intruding object Z02f and time t1 +
In 2 the intruding object Z03f and the intruding object in the input image can be traced.

【0061】上記のように本発明の第2の実施例によれ
ば、オペレータのズーム操作に基づいてズーム操作判定
ステップ 208′、ズームレンズ制御ステップ 209′によ
ってズームレンズを制御し、そのズーム倍率をズーム倍
率算出ステップ 210 によって算出し、テンプレート拡
大・縮小ステップ 211 によってズーム倍率に基づいて
テンプレート画像を拡大あるいは縮小する。 従って、
出力モニタ E06 に写された入力画面を見ながらズーム
レンズを操作して、テンプレート画像の位置が対象とす
る侵入物体からずれることがないよう、さらには、テン
プレートマッチングの際の一致度を低下させることがな
いように、正確に侵入物体を追跡できる。
As described above, according to the second embodiment of the present invention, the zoom lens is controlled by the zoom operation determining step 208 'and the zoom lens controlling step 209' based on the zoom operation of the operator, and the zoom magnification is changed. It is calculated in the zoom magnification calculation step 210, and the template image is enlarged or reduced in the template enlargement / reduction step 211 based on the zoom magnification. Therefore,
Operate the zoom lens while looking at the input screen displayed on the output monitor E06 so that the position of the template image does not deviate from the target intruding object, and further reduce the degree of matching during template matching. You can accurately track the intruding object so that there is no.

【0062】本発明の第3の実施例を図11によって説
明する。 図11は、本発明の一実施例の処理プロセス
を説明するフローチャートである。図11の実施例は、
図10で説明した本発明の第2の実施例において、侵入
物体の大きさに基づいて自動的にズームレンズを制御す
るようにしたものである。 即ち、オペレータのズーム
操作がない場合は、侵入者の見かけの大きさを所定の大
きさに写るように自動的にズームレンズを制御するよう
にしたものである。図11は、図10に示された第2の
実施例において、ズーム制御判定ステップ301 と、ズー
ムレンズ制御ステップ 302 を追加したものである。ス
テップ 201 〜ステップ 207 、ステップ 208′〜ステッ
プ 209′、及び、ステップ 210 〜ステップ 215 までの
処理は、前述の第2の実施例と同様であるので、これら
の処理の説明は省略する。
A third embodiment of the present invention will be described with reference to FIG. FIG. 11 is a flowchart illustrating a processing process according to an embodiment of the present invention. The embodiment of FIG.
In the second embodiment of the present invention described with reference to FIG. 10, the zoom lens is automatically controlled based on the size of the intruding object. That is, when the operator does not perform the zoom operation, the zoom lens is automatically controlled so that the apparent size of the intruder can be displayed in a predetermined size. FIG. 11 is obtained by adding a zoom control determination step 301 and a zoom lens control step 302 to the second embodiment shown in FIG. The processing from step 201 to step 207, step 208 'to step 209', and step 210 to step 215 are the same as those in the second embodiment described above, and therefore the description of these processing is omitted.

【0063】図11において、ズーム制御判定ステップ
301 は、ズーム操作判定ステップ208′において、オペ
レータがズーム操作を行なっていない場合に実行され
る。ズーム制御判定ステップ 301 では、追跡中の侵入
物体のテンプレート画像 M03 の大きさが上記の所定の
範囲内に収まっていない場合は、ズームレンズの制御が
必要だと判断して、ズームレンズ制御ステップ 302 へ
分岐する。 一方、テンプレート画像 M03 の大きさが
上記の所定の範囲内に収まっている場合は、ズーム倍率
算出ステップ 210 へ分岐する。
In FIG. 11, zoom control determination step
301 is executed when the operator has not performed a zoom operation in the zoom operation determination step 208 '. In zoom control determination step 301, if the size of the template image M03 of the intruding object being tracked is not within the predetermined range, it is determined that the zoom lens needs to be controlled, and the zoom lens control step 302 Branch to. On the other hand, when the size of the template image M03 is within the above-mentioned predetermined range, the process proceeds to the zoom magnification calculation step 210.

【0064】上述の本発明の第3の実施例によれば、オ
ペレータの操作に基づいてズーム操作判定ステップ 20
8′、ズームレンズ制御ステップ 209′によってズーム
レンズを制御し、オペレータが操作していない場合は、
ズーム制御判定ステップ 301、ズームレンズ制御ステッ
プ 302 によってズームレンズを制御し、そのズーム倍
率をズーム倍率算出ステップ 210 によって算出し、テ
ンプレート拡大・縮小ステップ 211 によってズーム倍
率に基づいてテンプレート画像を拡大あるいは縮小す
る。従って、ズームレンズを操作しながらでもテンプレ
ート画像の位置が対象とする侵入物体からずれることが
なく、さらには、テンプレートマッチングの際の一致度
を低下させることがなく正確に侵入物体を追跡できる。
According to the above-described third embodiment of the present invention, the zoom operation determining step 20 is performed based on the operation of the operator.
8 ', zoom lens control step 209' controls the zoom lens, if the operator is not operating,
The zoom lens is controlled by the zoom control determination step 301 and the zoom lens control step 302, the zoom magnification thereof is calculated by the zoom magnification calculation step 210, and the template enlargement / reduction step 211 enlarges or reduces the template image based on the zoom magnification. . Therefore, even if the zoom lens is operated, the position of the template image does not deviate from the target intruding object, and further, the intruding object can be accurately tracked without lowering the matching degree at the time of template matching.

【0065】[0065]

【発明の効果】テンプレートマッチングを用いた従来技
術では、ズームレンズを制御するような場合には、テン
プレート画像と対象としている侵入物体の大きさが異な
ってしまい、正確にマッチングしているという保証がで
きず、安定な追跡が行なえないという問題点があった。
しかし、以上のように、本発明によれば、テンプレート
画像取得時の焦点距離と入力画像取得時の焦点距離の比
によってズーム倍率を算出してテンプレート画像を拡大
するようにしたことで、ズームレンズを制御または操作
しながらでも対象とする侵入物体を正確に追跡できる。
従って、本発明によれば、撮像装置のズームレンズ制御
の従来の制限を取り除くことができ、かつ、安定に侵入
物体を追跡することができ、映像監視装置の適用範囲を
大きく広げることができる。
According to the conventional technique using the template matching, when the zoom lens is controlled, the size of the template image and the size of the intruding target object are different, and there is a guarantee that the matching is accurate. There was a problem that it was not possible to do stable tracking.
However, as described above, according to the present invention, the zoom image is magnified by calculating the zoom magnification based on the ratio of the focal length at the time of acquiring the template image and the focal length at the time of acquiring the input image. The target intruding object can be accurately tracked even while controlling or operating.
Therefore, according to the present invention, it is possible to remove the conventional limitation of the zoom lens control of the image pickup apparatus, to stably track the intruding object, and to broaden the range of application of the image monitoring apparatus.

【図面の簡単な説明】[Brief description of drawings]

【図1】 従来の差分法による物体検出処理の動作を説
明するための図。
FIG. 1 is a diagram for explaining an operation of an object detection process by a conventional difference method.

【図2】 従来のテンプレートマッチング法による物体
検出処理の動作を説明するための図。
FIG. 2 is a diagram for explaining an operation of object detection processing by a conventional template matching method.

【図3】 従来のテンプレートマッチング法を逐次行な
う物体追跡処理の動作を説明する図。
FIG. 3 is a diagram illustrating an operation of object tracking processing that sequentially performs a conventional template matching method.

【図4】 本発明の物体追跡処理の一実施例の動作を説
明するための図。
FIG. 4 is a diagram for explaining the operation of an embodiment of the object tracking process of the present invention.

【図5】 本発明の一実施例による処理プロセスを説明
するフローチャート。
FIG. 5 is a flowchart illustrating a processing process according to an embodiment of the present invention.

【図6】 本発明の物体追跡装置の一実施例の構成を示
すブロック図。
FIG. 6 is a block diagram showing the configuration of an embodiment of the object tracking device of the present invention.

【図7】 図5に示す処理プロセスの変形例を示すフロ
ーチャート。
7 is a flowchart showing a modification of the processing process shown in FIG.

【図8】 本発明の実施例におけるズームレンズの焦点
距離の増加動作の一例を表す図。
FIG. 8 is a diagram illustrating an example of an operation of increasing the focal length of the zoom lens according to the embodiment of the present invention.

【図9】 本発明の実施例におけるズームレンズの焦点
距離の増加動作の一例を表す図。
FIG. 9 is a diagram illustrating an example of an operation of increasing the focal length of the zoom lens according to the embodiment of the present invention.

【図10】 本発明の第2の実施例による処理プロセス
を説明するフローチャート。
FIG. 10 is a flowchart illustrating a processing process according to a second embodiment of the present invention.

【図11】 本発明の第3の実施例による処理プロセス
を説明するフローチャート。
FIG. 11 is a flowchart illustrating a processing process according to a third embodiment of the present invention.

【符号の説明】[Explanation of symbols]

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/232 H04N 5/232 C Fターム(参考) 5B057 BA17 CA08 CA12 CA16 CE12 CH18 DA06 DB02 DB09 DC32 5C022 AA01 AB63 AB66 AC27 AC74 5C054 CG02 CG06 EA01 FC12 HA18 HA31 5L096 AA06 BA02 CA04 EA43 FA02 GA13 HA03 JA09 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 5/232 H04N 5/232 CF term (reference) 5B057 BA17 CA08 CA12 CA16 CE12 CH18 DA06 DB02 DB09 DC32 5C022 AA01 AB63 AB66 AC27 AC74 5C054 CG02 CG06 EA01 FC12 HA18 HA31 5L096 AA06 BA02 CA04 EA43 FA02 GA13 HA03 JA09

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 ズーム機構を有する撮像装置から取得す
る入力画像とテンプレート画像とを比較して物体を検出
する物体検出方法において、 上記撮像装置の視野範囲内の第1の画像を上記テンプレ
ート画像として記録するステップと、 上記ズーム機構の変更された倍率を記録するステップ
と、 上記撮像装置から検出するための第2の画像を取得する
ステップと、 上記ズーム機構の変更された倍率に基いて、上記テンプ
レート画像または上記第2の画像のいずれか1つの大き
さを変更するステップと、 上記テンプレート画像と上記第2の画像とのテンプレー
トマッチングを行なうステップを備え、 物体を検出することを特徴とする物体検出方法。
1. An object detection method for detecting an object by comparing an input image acquired from an image pickup apparatus having a zoom mechanism with a template image, wherein a first image within a visual field range of the image pickup apparatus is used as the template image. Based on the changed magnification of the zoom mechanism, a step of recording, a step of recording the changed magnification of the zoom mechanism, a step of acquiring a second image to be detected from the imaging device, An object characterized by detecting an object, comprising the steps of changing the size of one of the template image or the second image and the step of performing template matching between the template image and the second image. Detection method.
【請求項2】 請求項1記載の物体検出方法において、
上記ズーム機構の変更された倍率を記録するステップ
は、 上記テンプレート画像が撮像された時に、上記ズーム機
構の第1の焦点距離を記録するステップと、 上記第2の画像が撮像された時に、上記ズーム機構の第
2の焦点距離を記録するステップとを備えることを特徴
とする物体検出方法。
2. The object detection method according to claim 1, wherein
The step of recording the changed magnification of the zoom mechanism includes the step of recording the first focal length of the zoom mechanism when the template image is captured, and the step of recording the second focal point when the second image is captured. Recording a second focal length of the zoom mechanism.
【請求項3】 請求項1記載の物体検出方法において、 上記テンプレート画像として記録するステップは、上記
物体を含むように所定の大きさを有する領域を設定する
ステップと、上記物体が上記領域内に含まれるように上
記ズーム機構を制御するステップとを備えることを特徴
とする物体検出方法。
3. The object detection method according to claim 1, wherein the step of recording as the template image includes the step of setting an area having a predetermined size so as to include the object, and the object in the area. And a step of controlling the zoom mechanism so as to be included therein.
【請求項4】 請求項1記載の物体検出方法において、
上記テンプレートマッチングを行なうステップは、上記
テンプレート画像と上記第2の画像との一致度が最大の
部分画像の位置を検出するステップであることを特徴と
する物体検出方法。
4. The object detection method according to claim 1, wherein
The object detecting method, wherein the step of performing template matching is a step of detecting a position of a partial image in which the degree of coincidence between the template image and the second image is maximum.
【請求項5】 請求項1記載の物体検出方法において、
上記ズーム機構を手動で操作するステップと、表示装置
の画面上に上記入力画像を表示するステップとを備え、
オペレータが上記画面上の上記入力画像を見ながら上記
ズーム機構を操作することを特徴とする物体検出方法。
5. The object detection method according to claim 1, wherein
A step of manually operating the zoom mechanism, and a step of displaying the input image on the screen of the display device,
An object detecting method, wherein an operator operates the zoom mechanism while looking at the input image on the screen.
【請求項6】 ズーム機構を有する撮像装置から取得す
る入力画像とテンプレート画像とを比較して物体を検出
する物体検出装置において、 上記撮像装置の視野範囲内の第1の画像を上記テンプレ
ート画像として記録するテンプレート画像記録部と、 上記ズーム機構の変更された倍率を記録する倍率記録部
と、 上記撮像装置から第2の画像を取得する取得手段と、 上記ズーム機構の変更された倍率に基いて、上記テンプ
レート画像または上記第2の画像のいずれか1つの大き
さを変更する制御部と、 上記テンプレート画像と上記第2の画像とのテンプレー
トマッチングを行なう画像処理部とを備えたことを特徴
とする物体検出装置。
6. An object detection device for detecting an object by comparing an input image acquired from an image pickup device having a zoom mechanism with a template image, wherein a first image within a visual field range of the image pickup device is used as the template image. Based on the template image recording unit for recording, a magnification recording unit for recording the changed magnification of the zoom mechanism, an acquisition unit for acquiring a second image from the imaging device, and a changed magnification of the zoom mechanism. A control unit for changing the size of any one of the template image or the second image, and an image processing unit for performing template matching between the template image and the second image. Object detection device.
【請求項7】 ズーム機構を有する撮像装置から取得す
る入力画像とテンプレート画像とを比較して物体を検
出、上記ズーム機構を制御することによって物体を追跡
する物体追跡方法において、 上記撮像装置の視野範囲内の第1の画像を上記テンプレ
ート画像として記録するステップと、 上記撮像装置から検出するための第2の画像を取得する
ステップと、 上記ズーム機構の変更された倍率を記録するステップ
と、 上記ズーム機構の変更された倍率に基いて、上記テンプ
レート画像または上記第2の画像のいずれか1つの大き
さを変更するステップと、 上記テンプレート画像と上記第2の画像とのテンプレー
トマッチングを行なうステップと、 上記テンプレートマッチングの結果に応じて、上記撮像
装置の移動機構を制御するステップとを備え、 上記物体を追跡することを特徴とする物体追跡方法。
7. An object tracking method for detecting an object by comparing an input image acquired from an imaging device having a zoom mechanism with a template image, and tracking the object by controlling the zoom mechanism, wherein a field of view of the imaging device is used. Recording a first image within the range as the template image; acquiring a second image for detection from the image pickup device; recording a changed magnification of the zoom mechanism; Changing the size of any one of the template image or the second image based on the changed magnification of the zoom mechanism, and performing template matching between the template image and the second image. Controlling the moving mechanism of the imaging device according to the result of the template matching. An object tracking method comprising: tracking the object.
【請求項8】 ズーム機構を有する撮像装置から取得す
る入力画像とテンプレート画像とを比較して物体を検出
する物体追跡装置において、 上記撮像装置の視野範囲内の第1の画像を上記テンプレ
ート画像として記録するテンプレート画像記録部と、 上記撮像装置から第2の画像を取得する取得手段と、 上記ズーム機構の変更された倍率を記録する倍率記録部
と、 上記ズーム機構の変更された倍率に基いて、上記テンプ
レート画像または上記第2の画像のいずれか1つの大き
さを変更する第1の制御部と、 上記テンプレート画像と上記第2の画像とのテンプレー
トマッチングを行なう画像処理部と、 上記テンプレートマッチングの結果に応じて、上記物体
追跡するように上記撮像装置の移動機構を制御する第2
の制御部を備えたことを特徴とする物体追跡装置。
8. An object tracking device for detecting an object by comparing an input image acquired from an image pickup device having a zoom mechanism with a template image, wherein a first image within a visual field range of the image pickup device is used as the template image. Based on the template image recording unit for recording, an acquisition unit for acquiring the second image from the imaging device, a magnification recording unit for recording the changed magnification of the zoom mechanism, and the changed magnification of the zoom mechanism. A first control unit that changes the size of one of the template image and the second image; an image processing unit that performs template matching between the template image and the second image; A moving mechanism of the imaging device for tracking the object according to the result of
An object tracking device, comprising:
JP2002354224A 2001-12-05 2002-12-05 Object detecting method, object detecting apparatus employing the same, object tracking method, and object tracking apparatus employing the same Pending JP2003235035A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002354224A JP2003235035A (en) 2001-12-05 2002-12-05 Object detecting method, object detecting apparatus employing the same, object tracking method, and object tracking apparatus employing the same

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001371612 2001-12-05
JP2001-371612 2001-12-05
JP2002354224A JP2003235035A (en) 2001-12-05 2002-12-05 Object detecting method, object detecting apparatus employing the same, object tracking method, and object tracking apparatus employing the same

Publications (1)

Publication Number Publication Date
JP2003235035A true JP2003235035A (en) 2003-08-22

Family

ID=27790511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002354224A Pending JP2003235035A (en) 2001-12-05 2002-12-05 Object detecting method, object detecting apparatus employing the same, object tracking method, and object tracking apparatus employing the same

Country Status (1)

Country Link
JP (1) JP2003235035A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004112144A (en) * 2002-09-17 2004-04-08 Nissan Motor Co Ltd Front car tracking system and method for tracking front car
JP2005236508A (en) * 2004-02-18 2005-09-02 Matsushita Electric Ind Co Ltd Automatic tracking device and method
JP2006184742A (en) * 2004-12-28 2006-07-13 Fujinon Corp Autofocus system
JP2006267220A (en) * 2005-03-22 2006-10-05 Fujinon Corp Auto focus system
JP2009156776A (en) * 2007-12-27 2009-07-16 Ihi Corp Human body detection device and method
JP2009166323A (en) * 2008-01-15 2009-07-30 Sigumakkusu Kk Injection molding machine monitor
JP2010034885A (en) * 2008-07-29 2010-02-12 Fujitsu Ltd Imaging apparatus
JP2010050527A (en) * 2008-08-19 2010-03-04 Nikon Corp Image device
WO2011102495A1 (en) * 2010-02-16 2011-08-25 Ricoh Company, Ltd. Imaging device including target tracking function
JP2013054429A (en) * 2011-09-01 2013-03-21 Renesas Electronics Corp Object tracking device
US8625933B2 (en) 2008-10-03 2014-01-07 Canon Kabushiki Kaisha Image processing apparatus and method for the same

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004112144A (en) * 2002-09-17 2004-04-08 Nissan Motor Co Ltd Front car tracking system and method for tracking front car
JP2005236508A (en) * 2004-02-18 2005-09-02 Matsushita Electric Ind Co Ltd Automatic tracking device and method
JP4597543B2 (en) * 2004-02-18 2010-12-15 パナソニック株式会社 Automatic tracking device and automatic tracking method
JP4596246B2 (en) * 2004-12-28 2010-12-08 富士フイルム株式会社 Auto focus system
JP2006184742A (en) * 2004-12-28 2006-07-13 Fujinon Corp Autofocus system
JP2006267220A (en) * 2005-03-22 2006-10-05 Fujinon Corp Auto focus system
JP2009156776A (en) * 2007-12-27 2009-07-16 Ihi Corp Human body detection device and method
JP2009166323A (en) * 2008-01-15 2009-07-30 Sigumakkusu Kk Injection molding machine monitor
JP2010034885A (en) * 2008-07-29 2010-02-12 Fujitsu Ltd Imaging apparatus
JP2010050527A (en) * 2008-08-19 2010-03-04 Nikon Corp Image device
US8625933B2 (en) 2008-10-03 2014-01-07 Canon Kabushiki Kaisha Image processing apparatus and method for the same
WO2011102495A1 (en) * 2010-02-16 2011-08-25 Ricoh Company, Ltd. Imaging device including target tracking function
US9092877B2 (en) 2010-02-16 2015-07-28 Ricoh Company, Ltd. Imaging device including target tracking function
JP2013054429A (en) * 2011-09-01 2013-03-21 Renesas Electronics Corp Object tracking device

Similar Documents

Publication Publication Date Title
KR100470931B1 (en) Object tracking method and apparatus using template matching
KR100606485B1 (en) Object tracking method and object tracking apparatus
JP4699040B2 (en) Automatic tracking control device, automatic tracking control method, program, and automatic tracking system
JP3279479B2 (en) Video monitoring method and device
EP1981278B1 (en) Automatic tracking device and automatic tracking method
EP1635573A2 (en) Imaging system and imaging method
US20050052533A1 (en) Object tracking method and object tracking apparatus
JP2001060269A (en) Object tracking method and device
JP2003235035A (en) Object detecting method, object detecting apparatus employing the same, object tracking method, and object tracking apparatus employing the same
JP4578864B2 (en) Automatic tracking device and automatic tracking method
JP4699056B2 (en) Automatic tracking device and automatic tracking method
JPH1023322A (en) Camera shake correcting method and picture monitoring system
JP2003111063A (en) Intruded object tracing method and intruded object supervisory system
JP4444746B2 (en) Object tracking method and object tracking device
JPH0793558A (en) Image monitoring device
KR102080456B1 (en) method of controlling object tracking of PTZ camera by use of syntax data in compressed video
JP3828096B2 (en) Object tracking device
JP3758511B2 (en) Object detection apparatus and object detection program
JP2001325672A (en) Invader monitoring system
KR100536747B1 (en) The video storing system using a ptz camera and the method there of
JP4597543B2 (en) Automatic tracking device and automatic tracking method
JP2000224457A (en) Monitoring system, control method therefor and storage medium storing program therefor
JP2001175959A (en) Method and device for detecting invasion object
JP3716057B2 (en) Image processing method for human detection
KR20030080283A (en) Motion object photographing method for supervisory system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051102

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061030

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20061218

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070918

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20071130