JPH06274625A - Moving object tracking method for monitor image - Google Patents

Moving object tracking method for monitor image

Info

Publication number
JPH06274625A
JPH06274625A JP5058775A JP5877593A JPH06274625A JP H06274625 A JPH06274625 A JP H06274625A JP 5058775 A JP5058775 A JP 5058775A JP 5877593 A JP5877593 A JP 5877593A JP H06274625 A JPH06274625 A JP H06274625A
Authority
JP
Japan
Prior art keywords
image
area
pattern
moving object
digitized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5058775A
Other languages
Japanese (ja)
Inventor
Keiko Yamagishi
桂子 山岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP5058775A priority Critical patent/JPH06274625A/en
Publication of JPH06274625A publication Critical patent/JPH06274625A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To enable efficient image monitor by tracking a moving object while deciding this moving object as a target object when a change area extracted from a differential binary is in contact with a previously set appearance side area. CONSTITUTION:The differential image is calculated by performing inter-picture element difference arithmetic between an image stored in an image memory 12 and an image fetched before the stored image, and a differential binarizing circuit 13 converts that image to a differential binary image for which the changed picture element is expressed by '1'. After a CPU 15 calculates the change area and judges it as the moving object, it is registered on a person dictionary 16 as a gradation pattern. After the next frame, a predictive window is set for the moving direction of the moving object by referring to a moving picture element table 17 corresponding to the size of the object, matching processing is performed by using a mask pattern previously registered on a mask pattern memory 18, and the moving object is tracked while deciding the object is moved into an area with the highest degree of similarity. Thus, the object inside the monitor picture can be accurately tracked and the performance of deciding whether it is a moving object or not can be improved.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、監視領域内における移
動物体の監視を行なう画像監視装置において、監視画像
内の移動物体を追跡する監視画像の移動物体追跡方法に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a monitoring object moving object tracking method for tracking a moving object in a monitoring image in an image monitoring apparatus for monitoring a moving object in a monitoring area.

【0002】[0002]

【従来の技術】この種の画像監視装置の一例として、た
とえば、図17および図18に示すものがある。図にお
いて、撮像手段としてのITVカメラ1は監視領域2内
の画像を撮像し、電気信号に変換する。このITVカメ
ラ1で撮像された画像は、伝送路3によって処理装置
4、および、画像記録手段としてのビデオテープレコー
ダ(以降、単にVTRと略称する)5に送られる。VT
R5は、ITVカメラ1で撮像された監視画像を連続
的、あるいは移動物体(以降、侵入物体と言うこともあ
る)を検出した場合に記録する。
2. Description of the Related Art An example of this type of image monitoring apparatus is shown in FIGS. 17 and 18, for example. In the figure, an ITV camera 1 as an image pickup means picks up an image in a monitoring area 2 and converts it into an electric signal. The image picked up by the ITV camera 1 is sent to the processing unit 4 and the video tape recorder (hereinafter simply referred to as VTR) 5 as an image recording unit by the transmission line 3. VT
R5 records the monitoring image captured by the ITV camera 1 continuously or when a moving object (hereinafter, also referred to as an intruding object) is detected.

【0003】一方、処理装置4に送られた画像信号は、
サンプリングパルス生成回路10から出力される所定周
期のサンプリングパルスにより、A/D変換器11でデ
ジタル信号に変換され、たとえば、時刻t=tiの画像
データとして画像メモリ12内に格納される。
On the other hand, the image signal sent to the processing device 4 is
The sampling pulse having a predetermined cycle output from the sampling pulse generation circuit 10 is converted into a digital signal by the A / D converter 11, and is stored in the image memory 12 as image data at time t = ti, for example.

【0004】そして、差分2値化回路13において、こ
の時刻t=tiの画像データは、変化領域を抽出するた
めに、後述するように、これよりも前に画像メモリ12
内に取込まれていた時刻t=ti-1の画像データと画素
間差分演算を行なうことにより差分画像が求められ、さ
らに、変化があった画素が”1”で表わされる差分2値
化画像に変換され、差分2値化画像メモリ14に格納さ
れる。
Then, in the differential binarization circuit 13, the image data at the time t = ti is extracted before the image memory 12 in order to extract a change area, as will be described later.
The difference image is obtained by performing the inter-pixel difference calculation with the image data at time t = ti-1 that was captured in the difference binary image in which the changed pixel is represented by "1". And is stored in the differential binarized image memory 14.

【0005】CPU(セントラル・プロセッシング・ユ
ニット)15は、差分2値化画像メモリ14内の差分2
値化画像を用いて変化領域の解析を行ない、変化領域が
移動物体(侵入物体)であると判定した場合には、警報
装置6を鳴らしたり、監視者が表示装置7の画面上で移
動物体が何であるかを確認したり、VTR5が動作して
いなかった場合は動作させて監視画像の記録などを行な
う。もし、移動物体でないと判定した場合には、引続き
画像を取込み、上記処理を繰返す。
A CPU (Central Processing Unit) 15 has a difference 2 in a difference binarized image memory 14.
When the changed area is analyzed using the binarized image and it is determined that the changed area is a moving object (intruding object), the alarm device 6 is sounded, or the supervisor moves the moving object on the screen of the display device 7. Is checked, and if the VTR 5 is not operating, it is operated to record a monitoring image. If it is determined that the object is not a moving object, the image is continuously captured and the above processing is repeated.

【0006】ところで、変化領域の抽出のための画素間
演算としては、一般的に、移動物体が存在しない場合の
背景画像との差分、あるいは、所定時間Δt前の時刻t
=ti-1の画像との時系列差分のどちらかが用いられ
る。背景画像との差分では、移動物体が停止していても
検出できるが、屋外のように、明るさなどの環境が変化
してゆく場合には、背景画像を更新しないと、移動物体
が存在しなくても変化領域を生じるという特徴がある。
By the way, as an inter-pixel calculation for extracting a change area, in general, a difference from a background image when a moving object does not exist, or a time t before a predetermined time Δt.
Either one of the time-series differences from the image of = ti-1 is used. With the difference from the background image, it can be detected even when the moving object is stopped, but when the environment such as the brightness is changing, such as outdoors, the moving object exists unless the background image is updated. There is a feature that a change area is generated even if it is not.

【0007】時系列差分の場合は、一般に、比較的短い
時間間隔での差分を行なうため、環境変化への追従性は
優れているが、移動物体が停止した場合には検出でき
ず、さらに、移動物体が動いても、2画面での差分で
は、移動物体の消失部分と、発生部分の両方が検出され
るという特徴がある。
In the case of the time series difference, since the difference is generally made at a relatively short time interval, the followability to the environmental change is excellent, but it cannot be detected when the moving object stops, and further, Even if the moving object moves, the difference between the two screens is characterized in that both the disappearing portion and the occurring portion of the moving object are detected.

【0008】時系列差分の後者の欠点を取り除くため
に、t=tiとt=ti-1の2画面でなく、さらに、t
=ti+1の連続した3画面を用いて、前の2画面と後ろ
の2画面でそれぞれ差分演算を行ない、得られた2つの
差分画像の論理積により、t=tiの画像での移動物体
を抽出する方法をとる場合もある。
In order to eliminate the latter drawback of the time-series difference, in addition to the two screens of t = ti and t = ti-1,
= Ti + 1 consecutive three screens are used to perform the difference calculation on the front two screens and the rear two screens respectively, and by the logical product of the two difference images obtained, the moving object in the image t = ti In some cases, the method of extracting is taken.

【0009】また、CPU15が、差分2値化画像から
変化領域の解析を行なう際、所定のまとまった領域を求
めるために、画像処理の基本的な手法として、値が”
1”である閉領域にシリアル番号を与え(ラべリン
グ)、それぞれの部分領域の面積や、距離などを求めて
まとまった領域を抽出し、この領域内で形状や値が”
1”である面積などを計算して解析する場合が多いが、
全画像領域でこの操作を行なうと、非常に時間がかか
る。
In addition, when the CPU 15 analyzes a change area from a binary difference image, the value is "as a basic method of image processing in order to obtain a predetermined grouped area.
A serial number is given (labeling) to the closed area that is 1 ", and the area and distance of each partial area are calculated to extract a grouped area.
In many cases, the area such as 1 "is calculated and analyzed.
Performing this operation over the entire image area is very time consuming.

【0010】そこで、たとえば、特開昭62-147891 号公
報に開示されているように、差分2値化画像から変化の
あった領域を粗く区分けする方法が提案されている。こ
れは、差分2値化画像において、図19に示すように、
X,Y軸方向に射影ヒストグラムを求めて、得られたヒ
ストグラムのうち、所定値Xth、Yth以上の高さが所定
幅Xw ,Yw 以上であるような区分領域を求め、この内
部を解析するような手法である。
Therefore, for example, as disclosed in Japanese Patent Laid-Open No. 62-147891, a method has been proposed in which a changed area is roughly divided from a difference binary image. This is as shown in FIG. 19 in the difference binarized image.
The projection histogram is obtained in the X and Y axis directions, and in the obtained histogram, a segmented area whose height of the predetermined value Xth or Yth or more is equal to or more than the predetermined width Xw or Yw is obtained, and the inside is analyzed. Is a technique.

【0011】すなわち、図19に示す区分領域A11〜A
22のみを調べて、変化領域が移動物体であるか否かとい
った解析を行なう。変化領域の解析時には、前述のよう
に、ラベリングを行なった解析も行なえるし、図19の
区分領域A11,A22のように、区分領域が移動物体の外
接四角形になる場合が多いことから、この区分領域が所
定の大きさの場合には、ラベリングなどの処理を行なわ
ずに、直接、その形状を検査したり、値が”1”である
部分の面積を求めるといった方法によって解析すること
もある。
That is, the divided areas A11 to A shown in FIG.
Only 22 is examined to analyze whether the change area is a moving object or not. At the time of analyzing the change area, as described above, the analysis with labeling can be performed, and as in the case of the divided areas A11 and A22 in FIG. 19, the divided areas are often circumscribed rectangles of the moving object. When the divided area has a predetermined size, it may be analyzed by a method such as directly inspecting its shape or obtaining the area of a portion whose value is "1" without performing processing such as labeling. .

【0012】以上、画像の差分の手法と移動物体の解析
方法について述べたが、取込んだ画像はノイズ成分を含
むために、空間フィルタリングや論理フィルタリングの
処理を施すことが一般的である。
The method of image difference and the method of analyzing a moving object have been described above. However, since the captured image contains a noise component, it is common to perform spatial filtering or logical filtering processing.

【0013】[0013]

【発明が解決しようとする課題】従来の画像監視装置で
は、変化領域が移動物体であると判定して警報を鳴らす
とか、VTRに録画するなどした後、監視者が全ての移
動物体について、その移動物体がどこからどのように移
動したかで怪しい人物か否かを判定するものである。し
たがって、常に表示装置の画面を見て監視者が移動物体
を見つけ出すような、初期の画像監視装置と比較する
と、作業の軽減になるが、後処理で監視者が判断する際
にかなりの時間と労力を費やす。
In the conventional image monitoring apparatus, after the change area is determined to be a moving object, an alarm is sounded, or a video recording is performed on the VTR, and the like. It is determined whether or not the moving object moves from where and how it is a suspicious person. Therefore, compared with the initial image monitoring device in which the monitor always looks at the screen of the display device to find the moving object, the work is reduced, but it takes a considerable time for the monitor to make a judgment in the post-processing. Spend labor.

【0014】そのため、単に移動物体の検出というだけ
でなく、移動物体の追跡を行なって本当に怪しい人物の
みに対して警報を鳴らすように改良することで、さらに
作業の軽減が期待できる。
Therefore, not only the detection of the moving object but also the improvement of tracking the moving object and sounding the alarm only to a truly suspicious person can be expected to further reduce the work.

【0015】そこで、最近、移動物体か否かの判定の性
能向上を目的として、時系列フレーム間で移動物体の追
跡を行なう方法が考えられている。その移動物体追跡方
法の一例として、濃淡パターンを用いた方法がある。こ
の移動物体追跡方法は、差分画像から移動物体を求め、
さらに、移動物体の原画像の濃淡パターンを人物辞書と
して登録しておき、次フレームであらかじめ設定した予
測窓の範囲内で原画像と上記濃淡パターンの辞書とのマ
ッチング処理をして、類似度の高い領域を上記移動物体
と判定することで追跡を行なうものである。また、濃淡
パターン辞書を毎フレーム更新することで、移動物体の
形状の変化や遠近によるサイズの変化に対応するように
している。
Therefore, recently, a method of tracking a moving object between time-series frames has been considered for the purpose of improving the performance of determining whether or not the object is a moving object. As an example of the moving object tracking method, there is a method using a grayscale pattern. This moving object tracking method obtains a moving object from the difference image,
Further, the grayscale pattern of the original image of the moving object is registered as a person dictionary, and the matching process between the original image and the grayscale pattern dictionary is performed within the range of the prediction window set in advance in the next frame to determine the similarity. Tracking is performed by determining a high area as the moving object. In addition, the grayscale pattern dictionary is updated every frame so as to cope with the change in shape of the moving object and the change in size due to perspective.

【0016】しかし、移動物体の濃淡パターン辞書と原
画像とを照合する際に、対象が例えば人間の場合には、
手や足を動かして移動しているため、辞書を作成した次
のフレームでは移動物体の形状が変化する。そのため、
照合時には前フレームの濃淡パターン辞書とは多少変形
していることを考慮する必要がある。
However, when the grayscale pattern dictionary of a moving object is compared with the original image, if the target is a human, for example,
The shape of the moving object changes in the next frame in which the dictionary is created because the user is moving by moving his hand or foot. for that reason,
At the time of matching, it is necessary to consider that the grayscale pattern dictionary of the previous frame is slightly modified.

【0017】また、人の存在する遠近の差によって取込
み画像の物体サイズは変化する。同じ人間が同じ速度で
移動していても、抽出物体のサイズや移動画素は変わっ
てしまい、物体サイズが大きく、移動画素も大きいと照
合時間がかかってしまうという問題がある。
Further, the object size of the captured image changes depending on the difference in perspective where a person exists. Even if the same person is moving at the same speed, the size of the extracted object and the moving pixels change, and there is a problem that matching time is required if the object size is large and the moving pixels are large.

【0018】また、移動画素は、監視カメラの仕様や設
置する高さ、角度によって異なるため、正確に移動画素
を求めようとすると、設置場所に応じ、前記条件を全て
入力し、移動画素を計算によって求める必要がある。
Further, since the moving pixel varies depending on the specifications of the surveillance camera, the height and the angle at which it is installed, when trying to accurately obtain the moving pixel, all the above conditions are input according to the installation location, and the moving pixel is calculated. Need to ask by.

【0019】また、濃淡パターン辞書を毎フレーム更新
することにより、移動物体の形状の変化や遠近によるサ
イズの変化への対応には効果的であるが、複数の移動物
体が監視領域内に存在して、移動物体が見かけ上重なっ
て見えたときににも、辞書の更新を行なってしまうと、
下側の辞書に上側の人の情報が入ってしまって、本来の
追跡物の濃淡情報が消えてしまい、別の移動物体を追跡
してしまうことにもなる。
Also, updating the grayscale pattern dictionary for each frame is effective in dealing with changes in the shape of moving objects and changes in size due to perspective, but there are multiple moving objects within the monitoring area. Then, even if moving objects seem to overlap, if you update the dictionary,
Since the information of the person on the upper side is included in the dictionary on the lower side, the grayscale information of the original tracking object disappears, and another moving object may be tracked.

【0020】さらに、所定の取込み間隔で画像を取込
み、その取込み画像で毎フレーム移動物体の抽出と追跡
を行なった場合、移動物体の抽出をよくするために、取
込み間隔を長くすると、移動距離が増えて照合時間が長
くなり、照合時間を短くするために、取込み間隔を短く
すると、移動物体の抽出性能が悪くなるといった矛盾が
あった。
Further, when images are captured at a predetermined capture interval, and moving objects are extracted and tracked in each captured image, if the capture interval is lengthened in order to improve the extraction of moving objects, the moving distance is reduced. There is a contradiction that the extraction performance of the moving object is deteriorated when the capturing interval is shortened in order to increase the matching time and lengthen the matching time.

【0021】一方、監視領域が屋外の場合は、抽出した
変化領域の全てが目的の移動物体ではなく、風による木
々の揺れや、煙、小動物であったり、天候の変化により
濃淡情報が変化した場合などが考えられ、変化領域が目
的の移動物体であるか否かの判定を行なう必要がある。
On the other hand, when the monitoring area is outdoors, all the extracted change areas are not moving objects of interest, but shaking of trees due to the wind, smoke, small animals, or changes in the shade information due to changes in the weather. In some cases, it is necessary to determine whether the change area is the target moving object.

【0022】また、侵入物体などを追跡する場合、侵入
物体が出現する場所は、取込み画像のフレームや、建物
の端や入り口など、ある程度予測できるので、監視領域
内全ての領域変化の検出を行なっていたのでは、侵入物
体が出現するはずのない無駄な領域まで見ていることに
なる。
Further, when tracking an intruding object or the like, the place where the intruding object appears can be predicted to some extent, such as the frame of the captured image, the edge or the entrance of the building, so that all area changes in the monitoring area are detected. If so, it means that he is looking at a useless area where an intruding object should not appear.

【0023】そこで、本発明は、監視画像内の移動物体
を精度よく追跡でき、移動物体か否かの判定性能の向上
が図れ、しかも、移動物体の誤検知を防止して、移動物
体の検知時間も短縮可能となり、効率のよい画像監視が
可能となる監視画像の移動物体追跡方法を提供すること
を目的とする。
Therefore, according to the present invention, it is possible to accurately track a moving object in a surveillance image, improve the performance of determining whether or not the object is a moving object, and prevent erroneous detection of the moving object to detect the moving object. It is an object of the present invention to provide a method of tracking a moving object in a monitoring image, which enables time reduction and efficient image monitoring.

【0024】[0024]

【課題を解決するための手段】本発明の監視画像の移動
物体追跡方法は、監視領域内の画像を撮像手段で撮像し
て入力し、この入力された監視領域内の画像を所定の時
間間隔で連続的に取込んでデジタル化し、このデジタル
化された複数の画像を演算することによって、前記監視
領域内での移動物体の監視を行なう画像監視装置におい
て、デジタル化された画像の差分画像を算出し、この算
出した差分画像を2値化して差分2値化画像を生成し、
この生成した差分2値化画像から変化領域を抽出し、こ
の抽出した変化領域が、あらかじめ設定される移動物体
の出現する可能性のある出現予測領域と接していたと
き、該移動物体が目的とする対象物であると判定して追
跡することを特徴とする。
According to the method of tracking a moving object in a surveillance image of the present invention, an image in the surveillance area is picked up by an image pickup means and inputted, and the inputted image in the surveillance area is set at predetermined time intervals. In the image monitoring apparatus for monitoring a moving object in the monitoring area, a differential image of the digitized image is obtained by continuously capturing and digitizing the digitized image and calculating a plurality of the digitized images. Then, the calculated difference image is binarized to generate a difference binarized image,
A change area is extracted from the generated difference binarized image, and when the extracted change area is in contact with a preset appearance prediction area in which a moving object may appear, the moving object is regarded as an object. It is characterized in that the object is determined to be an object to be traced and is tracked.

【0025】また、本発明の監視画像の移動物体追跡方
法は、監視領域内の画像を撮像手段で撮像して入力し、
この入力された監視領域内の画像を所定の時間間隔で連
続的に取込んでデジタル化し、このデジタル化された複
数の画像を演算することによって、前記監視領域内での
移動物体の監視を行なう画像監視装置において、デジタ
ル化された画像の差分画像を算出し、この算出した差分
画像を2値化して差分2値化画像を生成し、この生成し
た差分2値化画像から変化領域を抽出する変化領域抽出
手段と、この変化領域抽出手段で抽出された変化領域と
前記撮像手段から入力してデジタル化された原画像から
変化領域部分の濃淡パターンを抽出する濃淡パターン抽
出手段と、この濃淡パターン抽出手段で抽出された濃淡
パターンのうちあらかじめ決められた範囲をマスクする
ためのパターンを発生するマスクパターン発生手段と、
このマスクパターン発生手段の出力と前記濃淡パターン
抽出手段の出力とから基準となる濃淡パターンを求める
基準パターン発生手段と、この基準パターン発生手段か
ら得られる基準パターンと前記デジタル化された原画像
とを比較することにより、その原画像内で基準パターン
と類似度の高い領域を求める類似度計算手段とを具備
し、所定時間ごとに監視領域内の画像を取込み、前記変
化領域抽出手段によって変化領域を抽出した際、前記基
準パターン発生手段によって変化領域に対応する基準パ
ターンを求め、以後、画像を取込むごとに前記類似度計
算手段で前記基準パターンを用いて取込み画像内で類似
度の高い領域を求めて所定時間経過後の移動物体の位置
を判定し、さらに前記類似度の高い領域と前記マスクパ
ターンを用いて前記基準パターン発生手段で前記基準パ
ターンを更新することにより、監視画像内で移動物体を
追跡することを特徴とする。
Further, in the method of tracking a moving object of a surveillance image according to the present invention, the image in the surveillance area is picked up by the image pickup means and inputted,
The input image within the monitoring area is continuously captured at a predetermined time interval and digitized, and a plurality of digitized images are calculated to monitor a moving object within the monitoring area. In the image monitoring device, a differential image of the digitized image is calculated, the calculated differential image is binarized to generate a differential binarized image, and a change area is extracted from the generated differential binarized image. Change area extracting means, change area extracted by the change area extracting means, and a light and shade pattern extracting means for extracting a light and shade pattern of the change area from the original image digitized by the image pickup means, and the light and shade pattern Mask pattern generating means for generating a pattern for masking a predetermined range of the grayscale pattern extracted by the extracting means,
A reference pattern generating means for obtaining a reference light and shade pattern from the output of the mask pattern generating means and the output of the light and shade pattern extracting means, a reference pattern obtained from the reference pattern generating means, and the digitized original image By providing a similarity calculation unit that obtains a region having a high similarity with the reference pattern in the original image by comparing, the image in the monitoring region is taken in every predetermined time, and the change region is extracted by the change region extraction unit. At the time of extraction, a reference pattern corresponding to the changed area is obtained by the reference pattern generating means, and thereafter, each time an image is captured, the similarity calculation means uses the reference pattern to determine an area having a high degree of similarity in the captured image. The position of the moving object after a predetermined time has been obtained is determined, and the position of the moving object is further determined using the high similarity region and the mask pattern. By updating the reference pattern in a quasi-pattern generating means and to track moving objects within the monitored image.

【0026】また、本発明の監視画像の移動物体追跡方
法は、監視領域内の画像を撮像手段で撮像して入力し、
この入力された監視領域内の画像を所定の時間間隔で連
続的に取込んでデジタル化し、このデジタル化された複
数の画像を演算することによって、前記監視領域内での
移動物体の監視を行なう画像監視装置において、所定の
時間間隔t1 で取込んだデジタル化された画像の差分画
像を算出し、この算出した差分画像を2値化して差分2
値化画像を生成し、この生成した差分2値化画像から変
化領域を抽出する変化領域抽出手段と、この変化領域抽
出手段で抽出された変化領域と前記撮像手段から入力し
てデジタル化された原画像から変化領域部分の濃淡パタ
ーンを抽出する濃淡パターン抽出手段と、この濃淡パタ
ーン抽出手段で抽出された濃淡パターンのうちあらかじ
め決められた範囲をマスクするためのパターンを発生す
るマスクパターン発生手段と、このマスクパターン発生
手段の出力と前記濃淡パターン抽出手段の出力とから基
準となる濃淡パターンを求める基準パターン発生手段
と、この基準パターン発生手段から得られる基準パター
ンと前記時間間隔t1 よりも短い所定の時間間隔t2 で
取込んだデジタル化された原画像とを比較することによ
り、その原画像内で基準パターンと類似度の高い領域を
求める類似度計算手段とを具備し、所定時間ごとに監視
領域内の画像を取込み、前記変化領域抽出手段によって
変化領域を抽出した際、前記基準パターン発生手段によ
って変化領域に対応する基準パターンを求め、以後、画
像を取込むごとに前記類似度計算手段で前記基準パター
ンを用いて取込み画像内で類似度の高い領域を求めて所
定時間経過後の移動物体の位置を判定し、さらに前記類
似度の高い領域と前記マスクパターンを用いて前記基準
パターン発生手段で前記基準パターンを更新することに
より、監視画像内で移動物体を追跡することを特徴とす
る。
Further, in the method of tracking a moving object of a surveillance image of the present invention, an image in the surveillance area is picked up by an image pickup means and inputted,
The input image within the monitoring area is continuously captured at a predetermined time interval and digitized, and a plurality of digitized images are calculated to monitor a moving object within the monitoring area. In the image monitoring device, a difference image of the digitized images captured at a predetermined time interval t1 is calculated, and the calculated difference image is binarized to obtain a difference 2
A changed area extracting means for generating a binarized image and extracting a changed area from the generated difference binarized image, a changed area extracted by the changed area extracting means, and input from the image pickup means and digitized. A light and shade pattern extracting means for extracting a light and shade pattern of the changed region from the original image, and a mask pattern generating means for generating a pattern for masking a predetermined range of the light and shade patterns extracted by the light and shade pattern extracting means. A reference pattern generating means for obtaining a reference light and shade pattern from the output of the mask pattern generating means and the output of the light and shade pattern extracting means, a reference pattern obtained from the reference pattern generating means, and a predetermined time shorter than the time interval t1. By comparing the original digitized image captured at time interval t2 of A quasi-pattern and a similarity calculation means for obtaining an area having a high degree of similarity, the image in the monitoring area is taken in every predetermined time, and when the change area is extracted by the change area extraction means, the reference pattern generation means is used. The reference pattern corresponding to the change area is obtained, and thereafter, every time an image is captured, the similarity calculation means uses the reference pattern to obtain a highly similar area in the captured image, and the moving object after a predetermined time elapses. It is characterized in that the moving object is tracked in the monitoring image by determining the position and further updating the reference pattern by the reference pattern generating means using the area having high similarity and the mask pattern.

【0027】さらに、本発明の監視画像の移動物体追跡
方法は、監視領域内の画像を撮像手段で撮像して入力
し、この入力された監視領域内の画像を所定の時間間隔
で連続的に取込んでデジタル化し、このデジタル化され
た複数の画像を演算することによって、前記監視領域内
での移動物体の監視を行なう画像監視装置において、デ
ジタル化された画像の差分画像を算出し、この算出した
差分画像を2値化して差分2値化画像を生成し、この生
成した差分2値化画像から変化領域を抽出する変化領域
抽出手段と、この変化領域抽出手段で抽出された変化領
域と前記撮像手段から入力してデジタル化された原画像
から変化領域部分の濃淡パターンを抽出する濃淡パター
ン抽出手段と、この濃淡パターン抽出手段で抽出された
濃淡パターンのうちあらかじめ決められた範囲をマスク
するためのパターンを発生するマスクパターン発生手段
と、このマスクパターン発生手段の出力と前記濃淡パタ
ーン抽出手段の出力とから基準となる濃淡パターンを求
める基準パターン発生手段と、この基準パターン発生手
段から得られる基準パターンと前記デジタル化された原
画像とを比較することにより、その原画像内で基準パタ
ーンと類似度の高い領域を求める類似度計算手段と、こ
の類似度計算手段で類似度の高い領域を求めた後、前記
マスクパターンの内部または外部の濃淡パターンの変化
を調べ、その変化の大小により移動物体が目的とする対
象物体であるか否かを判定する判定手段とを具備し、所
定時間ごとに監視領域内の画像を取込み、前記変化領域
抽出手段によって変化領域を抽出した際、前記基準パタ
ーン発生手段によって変化領域に対応する基準パターン
を求め、以後、画像を取込むごとに前記類似度計算手段
で前記基準パターンを用いて取込み画像内で類似度の高
い領域を求めて所定時間経過後の移動物体の位置を判定
し、さらに前記類似度の高い領域と前記マスクパターン
を用いて前記基準パターン発生手段で前記基準パターン
を更新することにより監視画像内で移動物体を追跡し、
この追跡された移動物体の濃淡パターンの変化により目
的とする対象物体であるか否かを判定することを特徴と
する。
Further, in the method of tracking a moving object of a surveillance image according to the present invention, an image in the surveillance area is picked up by an image pickup means and inputted, and the inputted image in the surveillance area is continuously taken at predetermined time intervals. In the image monitoring device that monitors a moving object in the monitoring area by calculating a digitized image by calculating the difference image of the digitized image, A difference area extracting unit that binarizes the calculated difference image to generate a difference binarized image, and extracts a change area from the generated difference binarized image; and a change area extracted by the change area extracting unit. Of the grayscale patterns extracted by the grayscale pattern extraction means, the grayscale pattern extraction means for extracting the grayscale pattern of the change region portion from the original image input from the image pickup means and digitized. Mask pattern generating means for generating a pattern for masking a predetermined range, and reference pattern generating means for obtaining a reference light and shade pattern from the output of the mask pattern generating means and the output of the light and shade pattern extracting means. And a similarity calculation means for obtaining a region having a high similarity with the reference pattern in the original image by comparing the reference pattern obtained from the reference pattern generating means with the digitized original image, and the similarity calculation means. After obtaining a region having a high degree of similarity by the degree calculation means, the change in the shading pattern inside or outside the mask pattern is examined, and it is determined whether the moving object is a target object according to the magnitude of the change. A change area is extracted by the change area extraction means by capturing an image in the monitoring area at predetermined time intervals. , A reference pattern corresponding to the changed area is obtained by the reference pattern generating means, and thereafter, every time an image is captured, the similarity calculation means uses the reference pattern to obtain a highly similar area in the captured image, and the predetermined area is determined. The position of the moving object after a lapse of time is determined, and the moving object is tracked in the monitoring image by updating the reference pattern by the reference pattern generating means using the high similarity region and the mask pattern,
It is characterized in that whether or not the object is a target object is determined by the change in the grayscale pattern of the tracked moving object.

【0028】[0028]

【作用】本発明によれば、監視装置で移動物体を追跡す
る場合、差分画像で領域を抽出して、動き情報の影響を
受けにくいマスクパターンを用いて、濃淡パターンの辞
書と予測窓内で原画像とを照合して追跡を行なうこと
で、移動物体の出現場所や目的地がわかり、どこから現
われてどの方向に向かっているかで、本当の移動物体か
否かの判定を精度よく行なうことが可能となり、移動物
体か否かの判定性能の向上が図れる。また、濃淡パター
ンを用いて追跡を行なっているので、複数の移動物体が
交差して移動した場合や、多数の移動物体が分離したり
併合したりして移動している場合にも対応でき、たとえ
方向を変えて移動した場合にも原画像とのマッチングで
同一物体と判定することができる。そして、その原画像
とのマッチングでは、移動物体の速度と方向に応じた予
測窓を設けて範囲を限定してマッチングを行なうこと
で、移動物体の誤検知を防止して、移動物体の検知時間
の短縮が可能となる。
According to the present invention, when a moving object is tracked by a monitoring device, a region is extracted from a difference image and a mask pattern that is not easily influenced by motion information is used to generate a gray pattern in a dictionary and a prediction window. By tracking by matching with the original image, the appearance location and destination of the moving object can be known, and it can be accurately determined whether it is a true moving object or not depending on where it appears and in which direction. It is possible to improve the performance of determining whether or not the object is a moving object. In addition, since the tracking is performed using a grayscale pattern, it is possible to handle multiple moving objects that intersect and move, and many moving objects that move while separating or merging. Even if they move in different directions, they can be determined to be the same object by matching with the original image. In the matching with the original image, a prediction window corresponding to the speed and direction of the moving object is provided to perform matching by limiting the range, thereby preventing erroneous detection of the moving object and detecting the moving object. Can be shortened.

【0029】[0029]

【実施例】以下、本発明の一実施例について図面を参照
して説明する。まず、具体的な説明を行なう前に本発明
の概要について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. First, an outline of the present invention will be described before giving a specific description.

【0030】移動物体の動きを解析するには、ある時刻
t=tiの画像で移動物体を抽出し、それ以降の時刻の
画像で、その移動物体の対応する領域を抽出することで
あると考えられる。すなわち、「追跡」というのは、移
動物体の抽出と対応部分の抽出(以下、追跡処理と呼
ぶ)の2つのステップに分けることができる。ここで、
第1ステップである移動物体の抽出処理は、従来例に述
べた方法で実現できる。第1ステップに、本発明で述べ
る第2のステップの追跡処理を追加することにより、従
来例と比べ、より効果的な画像監視装置を実現すること
ができる。
In order to analyze the movement of a moving object, it is considered that the moving object is extracted from an image at a certain time t = ti, and the corresponding region of the moving object is extracted from the images at the subsequent times. To be That is, the “tracking” can be divided into two steps: extraction of a moving object and extraction of a corresponding portion (hereinafter referred to as tracking processing). here,
The moving object extraction processing, which is the first step, can be realized by the method described in the conventional example. By adding the tracking process of the second step described in the present invention to the first step, a more effective image monitoring device can be realized as compared with the conventional example.

【0031】前述したように、移動物体の追跡を行なう
ためには、異なる時間で取込んだ画像で移動物体の対応
をとる必要がある。この対応をとるために、時刻t=t
iでの移動物体が時刻t=ti+1で移動したと考えられ
る画像内の領域(以下、予測窓と呼ぶ)を設定し、その
予測窓内で時刻t=tiでの移動物体に対応する領域を
抽出すればよい。移動物体の追跡は、主に人間を追跡す
る場合が多く、人は手や足を動かして移動するため、対
応部の抽出時に前フレームの全ての辞書として次フレー
ムの原画像と比較したのでは、手や足など動きのある部
分では一致しない場所がでてくる。
As described above, in order to track a moving object, it is necessary to correspond to the moving object with images captured at different times. In order to take this correspondence, time t = t
An area (hereinafter referred to as a prediction window) in the image in which the moving object at i is considered to have moved at time t = ti + 1 is set, and corresponds to the moving object at time t = ti within the prediction window. The area may be extracted. Tracking a moving object is often done by tracking a human, and the person moves by moving their hands or feet.Therefore, when comparing corresponding parts, all dictionaries of the previous frame are compared with the original image of the next frame. , There are places that do not match in moving parts such as hands and feet.

【0032】そこで、あらかじめ複数の人物パターンか
ら動きの影響を受けにくいマスクパターンを作成してお
き、それを照合時に用いることで、誤りが起こりにくく
なり、追跡の性能が向上する(本発明の第1,2ポイン
ト)。たとえば、図2(a)に示すように手を下げてい
る人が、図2(b)に示すように手を上げた場合や、足
の開き方が変化したときは、辞書と図2(c)に示すよ
うなマスクパターン31の共通部分で原画と比較照合す
ることで、動きの影響を受けることなく照合を行なうこ
とができる。
Therefore, by preparing a mask pattern from a plurality of person patterns that is not easily affected by movement and using it for matching, an error is less likely to occur and the tracking performance is improved (the first aspect of the present invention). (1, 2 points). For example, when a person who holds his / her hand down as shown in FIG. 2 (a) raises his / her hand as shown in FIG. By comparing and collating with the original image at the common portion of the mask pattern 31 as shown in c), the collation can be performed without being affected by the movement.

【0033】次に、マスクパターンの作成方法について
説明する。第1の方法は、時系列画像から特定の人の人
物の濃淡パターンを抽出し、大きさを補正した上で各点
の分散値を求める。その分散値が所定のしきい値よりも
小さい点の集合は、動きの影響を受けにくい点と考えら
れるから、複数の人物で前記の分散値が所定のしきい値
よりも小さい点を抽出して、その共通部分を選択してマ
スクパターンとすることで、動きの影響を受けにくいマ
スクパターンを作成することができる(本発明の第3の
ポイント)。また、縦歩き、横歩きでは動きの形状が異
なるため、マスクパターンを別にすることで効果的な照
合結果が得られる。
Next, a method of creating a mask pattern will be described. The first method extracts a grayscale pattern of a person of a specific person from the time-series image, corrects the size thereof, and then obtains a variance value of each point. A set of points whose variance value is smaller than a predetermined threshold value is considered to be less likely to be affected by movements.Therefore, a point whose variance value is smaller than the predetermined threshold value is extracted from a plurality of persons. Then, by selecting the common part and using it as a mask pattern, it is possible to create a mask pattern that is not easily affected by movement (the third point of the present invention). In addition, since the shape of the movement is different between the vertical walking and the horizontal walking, an effective matching result can be obtained by using different mask patterns.

【0034】第2の方法は、複数の2値化後の人物パタ
ーンをサイズ補正した上で重ね合わせ、個数分布を作成
する。分布が多い点は、動きの影響を受けにくい点と考
えられるから、個数分布が所定のしきい値よりも大きい
点の集合をマスクパターンとすることで、動きの影響を
受けにくいマスクパターンを作成することができる(本
発明の第4ポイント)。
In the second method, a plurality of binarized human patterns are size-corrected and then overlapped to create a number distribution. Since points with a large distribution are considered to be less susceptible to movement, a mask pattern is created by using a set of points with a number distribution greater than a predetermined threshold as a mask pattern. It is possible (the 4th point of the present invention).

【0035】マスクパターンは、照合に用いるか用いな
いかの情報を持つ、あらかじめ定めた矩形サイズのパタ
ーンで、実際の照合時には抽出矩形サイズに応じて拡大
・縮小して用いる。また、メモリに登録時には、照合に
用いる画素の横方向のスターと位置とその長さで登録す
ることで、効率良く照合可能である(本発明の第5ポイ
ント)。
The mask pattern is a pattern of a predetermined rectangular size which has information as to whether or not it is used for matching, and is used by enlarging / reducing according to the extracted rectangular size at the time of actual matching. Further, at the time of registration in the memory, it is possible to efficiently perform the matching by registering the horizontal star and position of the pixel used for the matching and the length thereof (the fifth point of the present invention).

【0036】図6に、たとえば、65個の人物辞書から
求めた矩形サイズ「16×37」の個数分布の一例を示
す。図7は、個数が「50」以上の点を選択して作成し
たマスクパターンの一例であり、図8は、図7のマスク
パターンをメモリ上に登録した一例である。
FIG. 6 shows an example of the number distribution of the rectangular size “16 × 37” obtained from, for example, 65 person dictionaries. FIG. 7 is an example of a mask pattern created by selecting points whose number is “50” or more, and FIG. 8 is an example of registering the mask pattern of FIG. 7 on a memory.

【0037】実際には、濃淡パターンの辞書登録時に大
きさを補正したマスクパターンと、原画像の共通部分の
濃淡パターンを辞書として登録しておき、辞書と原画像
との照合時に辞書の濃淡パターンを大きさ補正して原画
像とマッチングする方法と、辞書登録時には差分から得
られた移動領域の濃淡パターン全てを辞書として登録し
ておき、照合時に大きさ補正したマスクパターンと辞書
の濃淡パターンとの共通部分と原画像とを照合する方法
が考えられる。
In practice, the mask pattern of which the size is corrected at the time of registering the light and shade pattern and the light and shade pattern of the common portion of the original image are registered as a dictionary, and the light and shade pattern of the dictionary is checked at the time of matching the dictionary and the original image. And the method of matching the original image with the size correction, and all the light and shade patterns of the moving area obtained from the difference at the time of dictionary registration are registered as a dictionary, and the size-corrected mask pattern and the light and shade pattern of the dictionary at the time of matching are registered. A method of matching the common part of the image with the original image can be considered.

【0038】また、カメラの設置場所にもよるが、図9
に示すように、物体がカメラの近くに存在するときと遠
くに存在するときでは、取込み画像内では見かけ上、物
体サイズが変わってしまう。物体の存在する遠近の差に
より、同一画像内で同じ人間が数倍大きく見えることが
ある。このため、同じ人物でも辞書点全てを照合の対象
にすると、カメラの近くにいるほど辞書サイズも予測窓
も大きくなり、照合時間がかなりかかることになる。
Also, depending on the installation location of the camera, FIG.
As shown in, the object size apparently changes in the captured image depending on whether the object is near or far from the camera. The same person may appear several times larger in the same image due to the difference in perspective where an object exists. For this reason, if all the dictionary points of the same person are targeted for collation, the closer to the camera, the larger the dictionary size and the prediction window, and the collation time is considerably long.

【0039】遠くにいても近くにいても、その人物の濃
淡パターンの特徴を失わなければ、辞書点全てを照合に
用いる必要はないから、あらかじめ定めた辞書サイズに
辞書を縮小するのと同じように、辞書点を間引いて照合
することで、照合の計算時間を短縮することができる
(本発明の第6ポイント)。
It is not necessary to use all the dictionary points for collation, regardless of whether the person is distant or near, unless the characteristics of the shade pattern of the person are lost. Therefore, it is similar to reducing the dictionary to a predetermined dictionary size. In addition, by thinning out the dictionary points and performing the matching, it is possible to shorten the matching calculation time (sixth point of the present invention).

【0040】人物の濃淡パターンの特徴を失わないよう
な辞書サイズは、あらかじめ実験的に求めておき、あら
かじめ定めた辞書サイズよりも大きく移動物体が抽出さ
れたときには、辞書点を間引き、あらかじめ定めた辞書
サイズよりも小さく移動物体が抽出されたときには、抽
出された物体サイズで、マスクパターンを用いて濃淡パ
ターンと原画像とを照合することで、時間短縮ができ、
効率よく追跡を行なうことができる。
The dictionary size that does not lose the characteristics of the shade pattern of a person is experimentally obtained in advance, and when a moving object is extracted larger than the predetermined dictionary size, the dictionary points are thinned out and the dictionary size is determined in advance. When a moving object smaller than the dictionary size is extracted, the time can be shortened by matching the grayscale pattern with the original image using the mask pattern with the extracted object size,
Tracking can be done efficiently.

【0041】また、図9に示すように、遠近により物体
サイズが異なれば、移動物体の移動速度が同じでも見か
け上、移動物体の移動画素は異なる。予測窓のサイズ
は、移動物体の移動画素に依存し、移動画素は移動物体
の実際の速度がわかれば、カメラの仕様と設置条件から
計算で求められる。しかし、カメラを設置するごとに設
置条件を入力して、人物の移動画素を計算するのでは操
作性が良くないので、人物のY方向のサイズに対応した
速度をパラメータとして持つ移動画素(X方向、Y方
向)のテーブルをあらかじめ作成しておき、移動物体の
初期抽出後に、その移動画素テーブルを引いて移動画素
を求めることで、簡単に予測窓を設定することができる
(本発明の第7ポイント)。
Further, as shown in FIG. 9, if the object size is different depending on the distance, the moving pixels of the moving object are apparently different even if the moving speed of the moving object is the same. The size of the prediction window depends on the moving pixel of the moving object, and the moving pixel can be calculated from the specifications and installation conditions of the camera if the actual speed of the moving object is known. However, since the operability is not good if the installation condition is input every time the camera is installed and the moving pixel of the person is calculated, the moving pixel having the speed corresponding to the size of the person in the Y direction as a parameter (X direction). , Y direction) table is created in advance, and after the initial extraction of the moving object, the moving pixel table is drawn to obtain the moving pixel, whereby the prediction window can be set easily (seventh aspect of the present invention). point).

【0042】その後、追跡処理中は方向ベクトルに応じ
予測窓を決定するが、方向ベクトルの値が小さいときに
は上述の移動画素テーブルを用いて予測窓を決定する。
図10に人物の速度を80m/minと考えて作成した
Y方向のサイズと移動画素のテーブルを示す。初めて移
動物体を抽出したときには、その移動物体を人間と仮定
して、Y方向のサイズから図10の移動画素テーブルを
引いて移動画素を求める。
After that, the prediction window is determined according to the direction vector during the tracking process, but when the value of the direction vector is small, the prediction window is determined using the moving pixel table described above.
FIG. 10 shows a table of the size and moving pixels in the Y direction created by considering the speed of a person as 80 m / min. When the moving object is extracted for the first time, the moving object is assumed to be a human, and the moving pixel table of FIG. 10 is subtracted from the size in the Y direction to obtain the moving pixel.

【0043】図11に示すように、たとえば、抽出物体
91のYサイズが60画素で、照合画像の取込み間隔が
0.1secの場合、抽出枠の左右に5画素、上下に1
画素加えた大きさに、多少変動を考えて拡大した大きさ
の予測窓92を設定する。それ以降のフレームでは、動
きの方向と移動画素(移動ベクトル)が求められるた
め、その方向ベクトルを用いてベクトルの方向に大き
く、それ以外の方向には小さく予測窓92を決定すれば
よいが、方向ベクトルが小さい場合は、予測される速度
(通常の歩く速度)に応じた移動画素テーブルから移動
画素を求めて予測窓92を設定して照合し、見つからな
かった場合には、さらに大きく(たとえば、走る速度に
応じた大きさ)予測窓92を再設定して照合すること
で、有効な検索を行なうことができる。
As shown in FIG. 11, for example, when the Y size of the extracted object 91 is 60 pixels and the capturing interval of the collation image is 0.1 sec, 5 pixels are arranged on the left and right sides of the extraction frame, and 1 is arranged on the upper and lower sides.
A prediction window 92 having an enlarged size is set to the size of the added pixels in consideration of some variation. In the subsequent frames, since the direction of motion and the moving pixel (moving vector) are obtained, it is sufficient to determine the prediction window 92 that is large in the vector direction and small in the other directions using the direction vector. When the direction vector is small, the moving pixel is obtained from the moving pixel table corresponding to the predicted speed (normal walking speed), the prediction window 92 is set and the result is collated. , Size corresponding to running speed) By resetting and comparing the prediction window 92, an effective search can be performed.

【0044】なお、上記Y方向の移動画素は、X方向に
比べると、カメラの高さ、俯角によりかなり変動がある
ため、あらゆる設置条件に対応するためには、移動画素
テーブルを大きめに設定しておく必要がある。
Since the moving pixels in the Y direction vary considerably depending on the height and depression angle of the camera as compared with the X direction, the moving pixel table should be set to a large size in order to cope with all installation conditions. Need to be kept.

【0045】また、移動物体の追跡時に、濃淡パターン
の辞書は原画像と照合後に随時更新する訳だが、領域内
に複数の移動物体が存在した場合、見かけ上、移動物体
が重なって見える可能性がある。移動物体が重なってい
るときに濃淡パターン辞書を更新してしまうと、裏側の
移動物体の濃淡パターンの辞書に表側の移動物体の濃淡
パターンが混在してしまう。2人がピタリと重なってい
る場合に双方の辞書を更新すると、裏側も表側も同じ濃
淡パターンの辞書になってしまい、その辞書で追跡を行
なうと両方とも同一人物を追跡することになってしま
う。
Further, when tracking a moving object, the grayscale pattern dictionary is updated as needed after matching with the original image. However, when there are a plurality of moving objects in the area, there is a possibility that the moving objects will appear to overlap. There is. If the grayscale pattern dictionary is updated when the moving objects overlap each other, the grayscale patterns of the moving objects on the front side are mixed in the dictionary of the grayscale patterns of the moving objects on the back side. If two people update both dictionaries when they overlap exactly, both the back side and the front side will have the same light and shade pattern, and if you follow that dictionary, both will track the same person. .

【0046】移動物体が重なっているかどうかは、差分
画像を用いるなどにより、追跡中の移動物体の位置と大
きさ情報で判定できるから、移動物体が他の移動物体と
重なっていると判定された時には、濃淡パターンの辞書
を更新しないようにするとよい(本発明の第8ポイン
ト)。ここに、移動物体が重なっているか否かの判定
は、たとえば、2つの矩形の対角線上の角が他の矩形内
に含まれるかどうかで判定することができる。
Whether or not the moving object overlaps can be determined from the position and size information of the moving object being tracked by using a difference image or the like. Therefore, it is determined that the moving object overlaps another moving object. At times, it is preferable not to update the gradation pattern dictionary (the eighth point of the present invention). Here, the determination as to whether or not the moving objects overlap can be made by determining, for example, whether the diagonal corners of the two rectangles are included in another rectangle.

【0047】また、本発明のように、所定時間間隔で取
込んだ画像から差分を用いて変化領域を抽出することに
より、濃淡パターンの辞書を作成し、所定時間後に原画
像と濃淡パターンの辞書との照合を行なって移動物体を
追跡する場合、変化領域を抽出するための画像の取込み
間隔は、ある程度長い方が抽出の性能はよい。特に、図
12(a)に示すように、縦歩きの場合、取込み間隔が
短いと、差分をとったときに変化領域として人物矩形が
抽出されずに一部分しか抽出されないことがある(図1
2b参照)。
Further, as in the present invention, a grayscale pattern dictionary is created by extracting a change area from an image captured at a predetermined time interval using a difference, and after a predetermined time, the original image and the grayscale pattern dictionary are created. When a moving object is tracked by collating with, the extraction performance is better if the image capturing interval for extracting the change region is longer to some extent. In particular, as shown in FIG. 12A, in the case of vertical walking, if the capture interval is short, the person rectangle may not be extracted as the change region when the difference is taken, and only a part may be extracted (FIG. 1).
2b).

【0048】一方、原画像と濃淡パターンの辞書との照
合を行うときは、動きや遠近による大きさの差の影響が
少なくなるため、画像の取込み間隔は短い方がよいこと
は明白である。そのため、カメラ1から時間間隔t0で
画像を取込み、変化領域検出のための差分画像の生成に
は(t0×m)時間間隔の取込み画像を用い、原画像と
濃淡パターンの辞書との照合には(t0×k)時間間隔
(m>k≧1)の取込み画像を用いることで、有効な追
跡が実現できる(本発明の第9ポイント)。
On the other hand, when the original image is compared with the grayscale pattern dictionary, the influence of the difference in size due to movement or perspective is reduced, so it is clear that the image capturing interval should be short. Therefore, an image is captured from the camera 1 at a time interval t0, a captured image at a time interval (t0 × m) is used to generate a difference image for detecting a changed region, and an original image is compared with a grayscale pattern dictionary. Effective tracking can be realized by using captured images at (t0 × k) time intervals (m> k ≧ 1) (ninth point of the present invention).

【0049】たとえば、図3ないし図5のフローチャー
トに示すように、0.1sec間隔で画像を取込み、変
化領域の抽出には0.5sec間隔の画像を用い、照合
には0.1sec間隔の画像を用いる。
For example, as shown in the flow charts of FIGS. 3 to 5, images are taken in at intervals of 0.1 sec, images at intervals of 0.5 sec are used to extract change regions, and images at intervals of 0.1 sec are used for collation. To use.

【0050】マスクパターンを作成する際、たとえば、
人間を追跡対象とする場合には複数の人間をサンプルと
して手や足などを除いた動きの少ない部分を抽出する。
換言すれば、マスクパターン内の領域では動きの変動が
小さく、マスクパターン以外の領域では動きの変動が大
きいと言え、マスクパターン内外の濃淡情報の変動を調
べることで、その移動物体が人間であるか否かを判定す
ることができる。すなわち、マスクパターンの外部の濃
淡パターンの変化を調べて変化がない、または、小さい
場合は、移動物体が人間でないと判定する(本発明の第
10,11ポイント)。
When creating a mask pattern, for example,
When humans are to be tracked, a plurality of humans are sampled to extract a part having little movement except hands and feet.
In other words, it can be said that the variation of the movement is small in the area inside the mask pattern and the variation of the movement is large in the area other than the mask pattern. By examining the variation in the grayscale information inside and outside the mask pattern, the moving object is a human. It can be determined whether or not. That is, the change of the light and shade pattern outside the mask pattern is examined, and if there is no change or a small change, it is determined that the moving object is not a human (10th and 11th points of the present invention).

【0051】また、マスクパターンの内部の濃淡パター
ンの変化を調べて変化が大きい場合は、移動物体が人間
でないと判定する(本発明の第12ポイント)。たとえ
ば、人の形に似た濃度が等しい1枚の板が移動した場合
には、マスクパターンの外部の濃淡パターンの変動は小
さくなるから、人でないと判定することができる。
If the change in the shading pattern inside the mask pattern is examined and the change is large, it is determined that the moving object is not a human (the twelfth point of the present invention). For example, when one plate having a density similar to a human figure moves, the variation of the light and shade pattern outside the mask pattern becomes small, so that it can be determined that the person is not a person.

【0052】また、変化領域を抽出時に所定時間間隔で
取込んだ画像の差分を用いるが、特に監視領域が屋外の
場合には、監視領域全域で変化領域を抽出すると、煙や
木々の揺れや天候の変化などの影響で実際の移動物体以
外を移動物体として抽出することがある。検出領域の形
状で人でないと判定できる場合はよいが、人と似た形状
で検出された場合には誤検出となる。
Further, the difference between the images captured at a predetermined time interval is used when extracting the change area. Especially, when the monitor area is outdoors, if the change area is extracted over the entire monitor area, smoke or swaying of trees may occur. In some cases, an object other than the actual moving object may be extracted as a moving object due to changes in the weather. It is good if it can be determined that the shape of the detection area is not a person, but if the shape is similar to that of a person, the detection is erroneous.

【0053】人が出現する領域はおおよそ限定でき、図
11のように取込み画像の外枠の他に建物や物陰などが
想定でき、物陰もなにもない領域に人が突然出現するこ
とは考えられない。そのため、監視領域からあらかじめ
侵入物体の出現予測領域93,94を設定しておき、差
分画像で変化領域を抽出した後、その変化領域と前記出
現予測領域93,94が接していたら、前記変化領域は
侵入物体であると判断して追跡することで、誤検出を防
ぐことができる(本発明の第13ポイント)。勿論、大
きさの判定を付け加えることで、性能はより向上する。
また、変化領域の抽出を出現予測領域の周辺だけで行な
うことで、処理時間が短縮できる。次に、本発明の一実
施例について具体的に説明する。
The area in which a person appears can be roughly limited. As shown in FIG. 11, in addition to the outer frame of the captured image, a building or a shadow can be assumed, and it is considered that a person suddenly appears in an area with no shadow. I can't. Therefore, the appearance prediction areas 93 and 94 of the intruding object are set in advance from the monitoring area, the change area is extracted from the difference image, and if the change area and the appearance prediction areas 93 and 94 are in contact with each other, the change area is detected. Can be prevented from being erroneously detected by determining that the object is an intruding object and tracking the object (13th point of the present invention). Of course, the performance is further improved by adding the size judgment.
Further, the processing time can be shortened by extracting the change area only around the appearance prediction area. Next, one embodiment of the present invention will be specifically described.

【0054】図1は、本発明を実施する場合の画像監視
装置の構成を示すものである。本発明方法で従来方法と
異なるのは、画像メモリ12に格納されているt=ti
の画像と、それよりも前に取込まれていた画像との画素
間差分演算を行なって差分画像を求め、差分2値化回路
13で変化のあった画素が”1”で表わせる差分2値化
画像に変換し、CPU15で変化領域を求めて移動物体
であると判断した後、その移動物体を濃淡パターンで人
物辞書(記憶手段)16に登録(記憶)しておき、次フ
レーム以降では上記移動物体の移動方向に物体のY方向
のサイズに応じた移動画素テーブル17を参照して予測
窓を設定して、上記移動物体の辞書と予測窓内の原画像
とを、マスクパターンメモリ18にあらかじめ登録され
ている動き情報の影響を受けにくいマスクパターンを用
いてマッチング処理を行ない、その類似度の最も高い領
域に上記移動物体が移動したと判定して、移動物体の追
跡を行なうことである。
FIG. 1 shows the configuration of an image monitoring apparatus for carrying out the present invention. The difference between the method of the present invention and the conventional method is that t = ti stored in the image memory 12.
Difference image is obtained by performing the difference calculation between the pixels of the image of No. 1 and the image captured before that, and the difference 2 which can be represented by "1" for the changed pixel in the difference binarization circuit 13. After converting to a binarized image, the CPU 15 obtains a change area and determines that the moving object is a moving object, the moving object is registered (stored) in the person dictionary (storage means) 16 in a light and shade pattern, and in the next frame and thereafter. A prediction window is set by referring to the moving pixel table 17 according to the size of the moving object in the Y direction in the moving direction of the moving object, and the dictionary of the moving object and the original image in the prediction window are set to the mask pattern memory 18 By performing matching processing using a mask pattern that is not easily affected by motion information registered in advance, it is determined that the moving object has moved to the area with the highest degree of similarity, and tracking of the moving object is performed. That.

【0055】マスクパターンは、前述のように複数の人
物辞書を解析して作成したものをマスクパターンメモリ
18にあらかじめ登録しておく。また、各フレームでの
移動物体の位置および予測窓の大きさなどは、追跡テー
ブル19に格納しておく。単に移動物体の検出だけでな
く、その移動物体の履歴を求めることにより、移動物体
の出現場所や目的地がわかり、また、複数人が交差して
歩いた場合などにも両者を追跡することが可能となる。
The mask pattern created by analyzing a plurality of person dictionaries as described above is registered in the mask pattern memory 18 in advance. Further, the position of the moving object and the size of the prediction window in each frame are stored in the tracking table 19. Not only the detection of a moving object, but the history of the moving object is obtained so that the appearance location and the destination of the moving object can be known, and even when two or more people cross each other, they can be tracked. It will be possible.

【0056】次に、図3ないし図5に示すフローチヤー
トを参照して、移動物体の追跡処理手順について説明す
る。処理は、大別して新物体抽出処理と追跡処理とに分
かれる。まず、おおまかな流れを図3のフローチヤート
によって説明すると、たとえば、0.1secごとに画
像を入力して(S1)、差分2値化回路13で時系列差
分あるいは背景差分方式を用いて差分2値化画像を生成
する(S2)。前フレームで追跡物体があれば(S
3)、濃淡パターンの辞書と原画との照合による移動物
体の追跡処理を行なう(S4)。
Next, the procedure for tracking a moving object will be described with reference to the flow charts shown in FIGS. The processing is roughly divided into new object extraction processing and tracking processing. First, a rough flow will be described with reference to the flow chart of FIG. 3. For example, an image is input every 0.1 sec (S1), and the difference binarization circuit 13 uses the time series difference or the background difference method to obtain the difference 2 A binarized image is generated (S2). If there is a tracking object in the previous frame (S
3) The tracking process of the moving object is performed by collating the grayscale pattern dictionary with the original image (S4).

【0057】次に、新物体抽出処理を行なうのだが、前
述のように新物体の抽出は取込み間隔がある程度長いほ
うがよいので、この場合は5フレームごとに(0.5s
ec間隔で)新物体の抽出処理を行ない(S5,S
6)、後処理を行ない(S7)、終了する(S8)。な
お、後処理では、追跡失敗の人物が新物体として抽出さ
れた場合、追跡は成功したが別人として判定されていた
場合などを追跡テーブル19に保存されている情報を用
いてチェックし、結果を修正する。ここで、追跡テーブ
ル19の例を図13に示す。
Next, a new object extraction process is performed. As described above, it is better that the new object is extracted at a relatively long capture interval. In this case, every 5 frames (0.5 s).
A new object is extracted (at ec intervals) (S5, S
6), post-processing is performed (S7), and the process ends (S8). In the post-processing, the information stored in the tracking table 19 is used to check whether a person who has failed in tracking is extracted as a new object, a case where tracking is successful, but a case where it is determined as another person, and the result is checked. Fix it. Here, an example of the tracking table 19 is shown in FIG.

【0058】まず、新物体抽出処理を図4のフローチヤ
ートによって説明する。ステップS2で生成された差分
二値化画像を用いて、X,Y方向への射影あるいは閉領
域の抽出などにより、移動物体を抽出する(S11)。
新しい移動物体があれば(S12)、前述のあらかじめ
監視領域に応じて設定してあるフレームのエッジ、また
は、物陰などの出現予測領域と、その新物体が接してい
るか否かをチェックし(S13)、前述したように抽出
された移動領域の濃淡パターンの人物辞書パターンを生
成して人物辞書16に登録する(S14)。
First, the new object extracting process will be described with reference to the flow chart of FIG. A moving object is extracted by projecting in the X and Y directions or extracting a closed region using the difference binarized image generated in step S2 (S11).
If there is a new moving object (S12), it is checked whether the new object is in contact with the edge of the frame set in advance according to the monitoring area or the appearance prediction area such as the shadow (S13). ), The person dictionary pattern of the shade pattern of the moving area extracted as described above is generated and registered in the person dictionary 16 (S14).

【0059】抽出された移動物体は、出現場所によって
次に移動する方向を予測することが可能であるため、そ
の移動予測方向に照合範囲である予測窓を、前述のよう
に移動画素テーブル17を引いて移動画素を求めること
により設定し、次フレーム以降で追跡を行なうための新
物体抽出フラグ、位置情報とともに追跡テーブル19に
保存しておく(S15)。
Since it is possible to predict the next moving direction of the extracted moving object depending on the appearance location, the moving window table 17 is used to set the prediction window which is the collation range in the moving predicted direction. It is set by subtracting and obtaining the moving pixel, and is stored in the tracking table 19 together with a new object extraction flag and position information for tracking in the next frame and later (S15).

【0060】移動予測方向は、フレーム内に建物などの
物陰がない場合を考えると、上下左右の4つの(もしく
は右上など2つのエッジにまたがる)フレームエッジか
ら人物の出現が予想されるため、上下左右それぞれに
(0,−1)、(0,1)、(1,0)、(−1,0)
((X,Y):X方向、Y方向)の移動予測方向を設定
しておく(右上の場合は(−1,−1))。
Considering the case where there is no shadow of a building or the like in the frame, the predicted movement direction is that the person is expected to appear from four frame edges (or two edges such as the upper right) on the upper, lower, left and right sides. (0, -1), (0, 1), (1, 0), (-1, 0) on the left and right respectively
A movement prediction direction of ((X, Y): X direction, Y direction) is set ((-1, -1) in the case of upper right).

【0061】図14では、移動物体122は、フレーム
121の下部から出現したので、移動予測方向123
(0,1)が与えられ、予測窓124が設定される。予
測窓124の大きさは、前述した通り初期抽出では移動
物体のY方向サイズから移動画素テーブル17を引いて
求める。
In FIG. 14, since the moving object 122 has emerged from the lower part of the frame 121, the predicted moving direction 123
(0, 1) is given and the prediction window 124 is set. As described above, the size of the prediction window 124 is obtained by subtracting the moving pixel table 17 from the size of the moving object in the Y direction in the initial extraction.

【0062】また、次フレームで移動物体が追跡された
場合の移動予測方向は、前フレームの位置から次フレー
ムの位置への方向ベクトルを用いる。たとえば、図14
の移動物体122が次フレームで図15の131の位置
に移動したとすると、移動予測方向は矢印133とな
る。また、前述したように出現可能なエッジは限定でき
るため、フレーム内の全領域で変化領域を求めるのでは
なく、出現可能なエッジの周辺に限定して変化領域の抽
出を行なうことで、処理時間が短縮される。
The direction vector from the position of the previous frame to the position of the next frame is used as the predicted movement direction when the moving object is tracked in the next frame. For example, in FIG.
If the moving object 122 of No. moves to the position of 131 in FIG. 15 in the next frame, the predicted movement direction is an arrow 133. Further, since the edges that can appear can be limited as described above, instead of obtaining the changed areas in all the areas in the frame, the changed areas are extracted only around the edges that can appear, thereby reducing the processing time. Is shortened.

【0063】次に、追跡処理を図5のフローチャートに
よって説明する。前記追跡テーブル19に保存されてい
るフラグ(新物体抽出、または追跡成功)をチェックし
て、追跡物体があった場合(S3)、以下の方法で追跡
処理を行なう。
Next, the tracking process will be described with reference to the flowchart of FIG. The flag (new object extraction or tracking success) stored in the tracking table 19 is checked, and if there is a tracking object (S3), tracking processing is performed by the following method.

【0064】まず、全フレームで設定した予測窓132
内の濃淡パターンと、人物辞書16に登録されている濃
淡パターン(図14の122の部分)とを、マスクパタ
ーンメモリ18に登録されている動きの影響を受けにく
いマスクパターンを用いて照合範囲を限定して比較する
(S21、第1のマッチング処理)。ここでは、たとえ
ば、テンプレートマッチング法を用いて、予測窓132
内で人物辞書16に登録されている濃淡パターンと最も
類似度の高い領域を抽出する。
First, the prediction window 132 set for all frames
The grayscale pattern in the inside and the grayscale pattern registered in the person dictionary 16 (the portion 122 in FIG. 14) are used to determine the matching range using a mask pattern registered in the mask pattern memory 18 that is not easily affected by movement. The comparison is limited (S21, first matching process). Here, for example, using the template matching method, the prediction window 132
A region having the highest degree of similarity with the grayscale pattern registered in the person dictionary 16 is extracted.

【0065】しかし、移動物体の移動に伴い形状や濃度
が異なったり、カメラ1からの遠近の差により大きさが
多少変化することが考えられるため、類似度の高い領域
が必ずしも移動物体(人物)とはならない。そのため、
抽出された領域が移動物体であるか否かを判定する方法
として、前述のように差分2値化画像での抽出領域と予
測窓内で原画像を用いて抽出した人物と思われる領域の
位置などを比較することなどにより判定を行なう(S2
2)。
However, since the shape and density of the moving object may change as the moving object moves, or the size may change slightly due to the difference in distance from the camera 1, a region having a high degree of similarity does not necessarily mean a moving object (person). Does not mean for that reason,
As a method for determining whether or not the extracted area is a moving object, the position of the extracted area in the difference binarized image and the area that is considered to be a person extracted using the original image in the prediction window as described above. The determination is made by comparing the above (S2
2).

【0066】また、前述の差分2値化画像を用いた判定
の外に、その移動物体のそれまでの移動方向(図14の
123)と、前フレームの位置から現在抽出された位置
への方向ベクトル(図15の133)を比較して判定の
参考にすることも考えられるが、移動物体が必ずしも同
じ方向に同じ速度で移動するとは限らないので、他に候
補があったら同方向を優先する程度の利用法がよい。し
かし、この方向を用いた判定は、同じような人物が反対
方向から移動してきて、交差してすれちがった場合など
に有効である。
In addition to the determination using the above-described difference binary image, the moving direction of the moving object up to that point (123 in FIG. 14) and the direction from the position of the previous frame to the currently extracted position It may be possible to compare the vectors (133 in FIG. 15) for reference, but since the moving object does not always move in the same direction at the same speed, if there are other candidates, the same direction is prioritized. The usage of the degree is good. However, the determination using this direction is effective when a similar person moves from the opposite direction and crosses and passes.

【0067】第1のマッチング処理(S21)では、差
分領域のライン抜けと移動領域の割合と方向ベクトルの
違いによって比較結果を判定している。もし、マッチン
グに失敗した場合は、予測窓の大きさを変更する(S2
3)。通常、予測窓は小さいほど照合の計算時間が短縮
されるため、前フレームの方向ベクトルを参考にして、
特に移動方向を重視しているが、さらに、照合範囲を広
げて予測窓を大きく設定し(図15の134)、再度、
差分領域の原画像でマッチング処理を行なう(S24、
第2のマッチング処理)。
In the first matching process (S21), the comparison result is determined based on the difference between the line omission in the differential area, the ratio of the moving area, and the direction vector. If the matching fails, the size of the prediction window is changed (S2).
3). Normally, the smaller the prediction window, the shorter the calculation time for matching, so referencing the direction vector of the previous frame,
Although the movement direction is particularly emphasized, the collation range is further widened and the prediction window is set to be large (134 in FIG. 15).
Matching processing is performed on the original image in the difference area (S24,
Second matching process).

【0068】第2のマッチング処理の評価方法も、第1
のマッチング処理と同様であり、第2のマッチング処理
でも失敗した場合は、また別の範囲で検索することも可
能だが、ここでは追跡打切りとする。追跡を失敗した移
動物体は、後に行なう前記新物体抽出処理(S11以
降)で新移動物体として抽出されるはずで、後処理(S
7)で追跡失敗物体と新物体との対応づけを行なうこと
で、追跡を続けることができる。
The evaluation method of the second matching processing is also the first
Similar to the matching process of No. 2, and if the second matching process also fails, it is possible to search in another range, but here, the tracking is terminated. The moving object that has failed to be tracked should be extracted as a new moving object in the new object extracting process (S11 and subsequent steps) to be performed later, and the post-processing (S
Tracking can be continued by associating the tracking failure object with the new object in 7).

【0069】以上述べてきたように、マスクパターンを
用いて辞書パターンとのマッチングに成功し、移動物体
の追跡を行なうことができたならば、他の移動物体との
重なりをチェックして(S25)、他の移動物体と重な
っていなければ、辞書パターンを更新して(S26)、
人物辞書16に登録し、次フレームで用いる予測窓およ
び追跡成功フラグを設定して(S27)、追跡テーブル
19に保存する。一方、辞書パターンとのマッチングに
失敗した場合は、追跡失敗フラグを設定して追跡テーブ
ル19に保存する(S28)。
As described above, if the matching with the dictionary pattern is successful using the mask pattern and the moving object can be traced, the overlapping with other moving objects is checked (S25). ), If it does not overlap with another moving object, the dictionary pattern is updated (S26),
It is registered in the person dictionary 16, the prediction window and the tracking success flag used in the next frame are set (S27), and the result is stored in the tracking table 19. On the other hand, if the matching with the dictionary pattern fails, a tracking failure flag is set and stored in the tracking table 19 (S28).

【0070】前記追跡処理が終了した後、前記差分2値
化画像から前記追跡処理で抽出した追跡物体を削除した
画像で、さらに新移動物体を抽出する(S6)。図16
(a)にtiフレームの差分2値化画像、図16(b)
に(ti+1)フレームにおける差分二値化画像、およ
び、図16(c)に[(ti+1)フレームの差分2値化
画像−追跡物体]の一例を示す。削除する追跡物体の範
囲は、背景を除く人物形や人物を含む矩形などが考えら
れるが、ここでは人物を含む矩形を用いている。その後
の[(ti+1)フレームの差分2値化画像−追跡物体]
の画像で行なう新物体抽出処理は前述した通りである。
After the tracking processing is completed, a new moving object is further extracted from the image obtained by deleting the tracking object extracted by the tracking processing from the difference binary image (S6). FIG.
FIG. 16B shows a difference binarized image of a ti frame in FIG.
An example of the difference binarized image in the (ti + 1) frame is shown in FIG. 16C, and an example of [the difference binarized image in the ((ti + 1) frame-tracking object] is shown in FIG. 16C. The range of the tracking object to be deleted may be a person shape excluding the background or a rectangle including a person. Here, a rectangle including a person is used. After that [differential binary image of (ti + 1) frame-tracking object]
The new object extraction process performed on the image is as described above.

【0071】以上、追跡処理を説明したが、単に移動物
体であるだけでなく、上記方法で移動物体を追跡するこ
とにより、危険区域や不許可区域に向かっている侵入物
体(侵入者)、あるいは、不審な動きをしている侵入物
体の検出が可能で、上記怪しい侵入物体を検出した場合
に警報を鳴らすことで、有効な監視を行なうことができ
る。また、フレーム内に複数人の侵入者が交差して歩い
て入る場合も、原画像を用いてマッチング処理している
ため追跡可能である。
The tracking processing has been described above. However, not only a moving object but also an intruding object (intruder) heading for a dangerous area or an unauthorized area by tracking the moving object by the above method, or It is possible to detect an suspicious intruding object and sound an alarm when the suspicious intruding object is detected, so that effective monitoring can be performed. Further, even when a plurality of intruders cross each other in a frame and walk in, it can be tracked because the matching process is performed using the original image.

【0072】以上説明したように、上記実施例によれ
ば、画像監視装置で移動物体を追跡する場合、差分画像
で領域を抽出して、動き情報の影響を受けにくいマスク
パターンを用いて、濃淡パターンの辞書と予測窓内で原
画像とを照合して追跡を行なうことで、移動物体がどこ
に移動したかがわかる。濃淡パターンの辞書を持つこと
で、複数個の移動物体があった場合にも、その対応付け
が可能で、たとえ方向を変えて移動した場合にも、原画
像とのマッチングで同一物体と判定することができる。
その原画像とのマッチングでは、移動物体の速度と方向
に応じた予測窓を設けて範囲を限定してマッチング処理
を行なうことで、検索時間の短縮が可能となる。
As described above, according to the above-described embodiment, when the moving object is tracked by the image monitoring apparatus, the area is extracted from the difference image and the gray level is changed by using the mask pattern which is not easily influenced by the motion information. By tracking the pattern dictionary against the original image in the prediction window, it is possible to know where the moving object has moved. By having a gradation pattern dictionary, even if there are multiple moving objects, they can be associated, and even if they move in different directions, they are judged to be the same object by matching with the original image. be able to.
In matching with the original image, a search window can be shortened by providing a prediction window corresponding to the speed and direction of the moving object and limiting the range to perform matching processing.

【0073】マスクパターンは、あらかじめ複数の人物
辞書を分析して時系列で分散の小さい点を選択して生成
したり、個数分布を求めて分布の大きい点を選択して生
成することで、濃淡パターンの辞書と原画像を照合する
ときに、動きの影響を受けにくく、良好な追跡が実現可
能である。また、マスクパターンをあらかじめ定めた矩
形サイズで横方向のスタート位置とスタート位置からの
長さで表現して登録することで、メモリを節約でき、照
合の効率もよくなる。
A mask pattern is generated by analyzing a plurality of person dictionaries in advance and selecting points with a small variance in time series, or by generating a number distribution by selecting points with a large distribution, and When matching the dictionary of patterns with the original image, it is less affected by movement and good tracking can be realized. In addition, the mask pattern can be saved by expressing the mask pattern in a predetermined rectangular size with the horizontal start position and the length from the start position and registering the mask pattern, and the collation efficiency can be improved.

【0074】また、マスクパターンは追跡対象物の動き
の影響を受けにくい領域を選択して生成するため、濃淡
パターンの辞書と原画像とを照合する際、マスクパター
ンの内外の濃淡情報の変動を調べて、マスクパターンの
外部の濃淡情報の変動が小さい、あるいは、マスクパタ
ーンの内部の濃淡情報の変動が大きい場合は、移動物体
が目的の対象物でないと判定することが可能であり、人
間を対象物体とした場合、木々の揺れや小動物、天候の
変動などで濃淡情報が変動したことによる誤検知を防ぐ
ことができる。
Further, since the mask pattern is generated by selecting an area which is not easily affected by the movement of the tracking object, when the dictionary of the gradation pattern is collated with the original image, the fluctuation of the gradation information inside and outside the mask pattern is changed. If the variation in the grayscale information outside the mask pattern is small or if the variation in the grayscale information inside the mask pattern is large, it is possible to determine that the moving object is not the target object, and When the target object is used, it is possible to prevent erroneous detection due to fluctuations in the grayscale information due to swaying of trees, small animals, changes in the weather, or the like.

【0075】また、遠近による人物サイズの変化に対応
するために、あらかじめ人物の特徴を落とさないような
照合用の辞書サイズを設定しておき、移動物体が近い位
置に存在して人物サイズが大きい場合には、濃淡パター
ン辞書と原画像とを照合する際に、照合点を間引いて照
合することで照合時間が短縮される。また、移動物体を
初めて検出したときは、その移動物体の速度が分からな
いため、移動物体のY方向サイズと移動画素(X方向、
Y方向)のテーブルをあらかじめ作成しておき、予測窓
を設定するときに、その移動画素テーブルを用いてサイ
ズを決定することで、効果的な予測窓を設定することが
可能である。
Further, in order to deal with the change in the person size due to the distance, a collation dictionary size is set in advance so as not to reduce the characteristics of the person, and the moving object exists at a close position and the person size is large. In this case, when the grayscale pattern dictionary and the original image are collated, the collation time is reduced by thinning out the collation points. Also, when a moving object is detected for the first time, the speed of the moving object is unknown, so the size of the moving object in the Y direction and the moving pixel (X direction,
It is possible to set an effective prediction window by creating a table (Y direction) in advance and determining the size using the moving pixel table when setting the prediction window.

【0076】また、移動物体が複数存在し、その位置と
大きさ情報から移動物体が他の移動物体と重なっている
かどうかチェックし、重なっていると判定されたときに
は、辞書更新を行なわないようにすることで、誤追跡を
防ぐことができる。もし、誤って別人を追跡してしまっ
ても、差分画像とそれまでの追跡情報を保存したテーブ
ル内の方向ベクトルなどを用いて修正することが可能で
ある。
Further, there are a plurality of moving objects, and it is checked from the position and size information whether or not the moving object overlaps with other moving objects. If it is determined that they overlap, the dictionary is not updated. By doing so, false tracking can be prevented. Even if another person is mistakenly tracked, it is possible to correct it by using the difference image and the direction vector in the table storing the tracking information up to that point.

【0077】一方、照合時間を考えて実現可能ななるべ
く短い間隔で取込んだ画像を照合に用い、その何枚かお
きの画像を検出に用いることで、検出と照合のための有
効な画像が得られる。さらに、移動物体の検出時に、あ
らかじめ設定した出現予測領域を参照して移動物体の検
出を行なうことで、誤検知を防止でき、移動物体の検知
時間も短縮可能となる。
On the other hand, an image captured at the shortest possible interval in consideration of the matching time is used for matching, and every other several images are used for detection, so that an effective image for detection and matching can be obtained. can get. Further, when a moving object is detected, the moving object is detected by referring to a preset appearance prediction region, which can prevent erroneous detection and shorten the moving object detection time.

【0078】以上のことから、従来のように移動物体を
検知することを目的とする装置に比べ、本発明のように
移動物体を追跡することで、効率の良い画像監視装置を
実現することができる。
From the above, it is possible to realize an efficient image monitoring apparatus by tracking a moving object as in the present invention as compared with the conventional apparatus for detecting a moving object. it can.

【0079】[0079]

【発明の効果】以上詳述したように本発明によれば、監
視画像内の移動物体を精度よく追跡でき、移動物体か否
かの判定性能の向上が図れ、しかも、移動物体の誤検知
を防止して、移動物体の検知時間も短縮可能となり、効
率のよい画像監視が可能となる監視画像の移動物体追跡
方法を提供できる。
As described above in detail, according to the present invention, it is possible to accurately track a moving object in a surveillance image, improve the performance of determining whether or not the object is a moving object, and, moreover, detect an erroneous detection of the moving object. It is possible to provide a method of tracking a moving object of a monitoring image, which can prevent the detection time of the moving object and shorten the detection time of the moving object, thereby enabling efficient image monitoring.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例が適用される画像監視装置の
構成を示すブロック図。
FIG. 1 is a block diagram showing a configuration of an image monitoring apparatus to which an embodiment of the present invention is applied.

【図2】人の動きを説明する図。FIG. 2 is a diagram illustrating the movement of a person.

【図3】全体的な処理を概略的に説明するフローチャー
ト。
FIG. 3 is a flowchart schematically illustrating an overall process.

【図4】新物体抽出処理を説明するフローチャート。FIG. 4 is a flowchart illustrating a new object extraction process.

【図5】追跡処理を説明するフローチャート。FIG. 5 is a flowchart illustrating a tracking process.

【図6】マスクパターン作成時の人物辞書の個数分布の
一例を示す図。
FIG. 6 is a diagram showing an example of the number distribution of a person dictionary when creating a mask pattern.

【図7】マスクパターンの一例を示す図。FIG. 7 is a diagram showing an example of a mask pattern.

【図8】マスクパターンを登録した一例を示す図。FIG. 8 is a diagram showing an example in which a mask pattern is registered.

【図9】遠近による物体サイズの違いを示す図。FIG. 9 is a diagram showing a difference in object size depending on perspective.

【図10】物体サイズと移動画素の一例を示す図。FIG. 10 is a diagram showing an example of an object size and moving pixels.

【図11】予測窓の設定方法の一例を示す図。FIG. 11 is a diagram showing an example of a setting method of a prediction window.

【図12】差分画像で一部分しか抽出されない例を説明
する図。
FIG. 12 is a diagram illustrating an example in which only a part is extracted from a difference image.

【図13】追跡処理における追跡テーブルの一例を示す
図。
FIG. 13 is a diagram showing an example of a tracking table in tracking processing.

【図14】追跡処理におけるtiフレームの画像の一例
を示す図。
FIG. 14 is a diagram showing an example of a ti frame image in a tracking process.

【図15】追跡処理における(ti+1)フレームの画像
の一例を示す図。
FIG. 15 is a diagram showing an example of an image of a (ti + 1) frame in tracking processing.

【図16】追跡処理における新物体の抽出処理を説明す
る図。
FIG. 16 is a diagram for explaining a new object extraction process in the tracking process.

【図17】画像監視装置の一例を示す構成図。FIG. 17 is a configuration diagram showing an example of an image monitoring device.

【図18】従来の画像監視装置の構成を示すブロック
図。
FIG. 18 is a block diagram showing a configuration of a conventional image monitoring device.

【図19】射影を用いた領域抽出方法を説明する図。FIG. 19 is a diagram illustrating a region extraction method using projection.

【符号の説明】 1……ITVカメラ、2……監視領域、3……伝送路、
4……処理装置、5……VTR、6……警報装置、7…
…表示装置、10……サンプリングパルス生成回路、1
1……A/D変換器、12……画像メモリ、13……差
分2値化回路、14……差分2値化画像メモリ、15…
…CPU、16……人物辞書、17……移動画素テーブ
ル、18……マスクパターンメモリ、19……追跡テー
ブル。
[Explanation of Codes] 1 ... ITV camera, 2 ... monitoring area, 3 ... transmission path,
4 ... Processing device, 5 ... VTR, 6 ... Alarm device, 7 ...
Display device, 10 sampling pulse generation circuit, 1
1 ... A / D converter, 12 ... Image memory, 13 ... Difference binarization circuit, 14 ... Difference binarized image memory, 15 ...
... CPU, 16 ... person dictionary, 17 ... moving pixel table, 18 ... mask pattern memory, 19 ... tracking table.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 監視領域内の画像を撮像手段で撮像して
入力し、この入力された監視領域内の画像を所定の時間
間隔で連続的に取込んでデジタル化し、このデジタル化
された複数の画像を演算することによって、前記監視領
域内での移動物体の監視を行なう画像監視装置におい
て、 デジタル化された画像の差分画像を算出し、この算出し
た差分画像を2値化して差分2値化画像を生成し、この
生成した差分2値化画像から変化領域を抽出し、この抽
出した変化領域が、あらかじめ設定される移動物体の出
現する可能性のある出現予測領域と接していたとき、該
移動物体が目的とする対象物であると判定して追跡する
ことを特徴とする監視画像の移動物体追跡方法。
1. An image in a surveillance area is picked up by an image pickup means and inputted, and the inputted image in the surveillance area is continuously taken in at a predetermined time interval and digitized, and the digitized plurality of images are obtained. In the image monitoring apparatus that monitors the moving object in the monitoring area by calculating the image of the difference image, the difference image of the digitized image is calculated, and the calculated difference image is binarized to obtain the difference binary value. When a changed image is generated, a change area is extracted from the generated difference binarized image, and the extracted change area is in contact with a preset appearance prediction area in which a moving object may appear, A method of tracking a moving object in a surveillance image, wherein the moving object is determined to be a target object and is tracked.
【請求項2】 監視領域内の画像を撮像手段で撮像して
入力し、この入力された監視領域内の画像を所定の時間
間隔で連続的に取込んでデジタル化し、このデジタル化
された複数の画像を演算することによって、前記監視領
域内での移動物体の監視を行なう画像監視装置におい
て、 デジタル化された画像の差分画像を算出し、この算出し
た差分画像を2値化して差分2値化画像を生成し、この
生成した差分2値化画像から変化領域を抽出する変化領
域抽出手段と、 この変化領域抽出手段で抽出された変化領域と前記撮像
手段から入力してデジタル化された原画像から変化領域
部分の濃淡パターンを抽出する濃淡パターン抽出手段
と、 この濃淡パターン抽出手段で抽出された濃淡パターンの
うちあらかじめ決められた範囲をマスクするためのパタ
ーンを発生するマスクパターン発生手段と、 このマスクパターン発生手段の出力と前記濃淡パターン
抽出手段の出力とから基準となる濃淡パターンを求める
基準パターン発生手段と、 この基準パターン発生手段から得られる基準パターンと
前記デジタル化された原画像とを比較することにより、
その原画像内で基準パターンと類似度の高い領域を求め
る類似度計算手段とを具備し、 所定時間ごとに監視領域内の画像を取込み、前記変化領
域抽出手段によって変化領域を抽出した際、前記基準パ
ターン発生手段によって変化領域に対応する基準パター
ンを求め、以後、画像を取込むごとに前記類似度計算手
段で前記基準パターンを用いて取込み画像内で類似度の
高い領域を求めて所定時間経過後の移動物体の位置を判
定し、さらに前記類似度の高い領域と前記マスクパター
ンを用いて前記基準パターン発生手段で前記基準パター
ンを更新することにより、監視画像内で移動物体を追跡
することを特徴とする監視画像の移動物体追跡方法。
2. An image in the surveillance area is picked up by an image pickup means and inputted, the inputted image in the surveillance area is continuously taken in at a predetermined time interval to be digitized, and the digitized plurality of images are obtained. In the image monitoring apparatus that monitors the moving object in the monitoring area by calculating the image of the difference image, the difference image of the digitized image is calculated, and the calculated difference image is binarized to obtain the difference binary value. A changed area extracting unit that generates a changed image and extracts a changed area from the generated difference binary image, a changed area extracted by the changed area extracting unit, and an original digitized by input from the image pickup unit. A light / dark pattern extracting means for extracting a light / dark pattern of the change area portion from the image, and a pattern for masking a predetermined range of the light / dark pattern extracted by the light / dark pattern extracting means. A mask pattern generating means for generating a turn, a reference pattern generating means for obtaining a reference light and shade pattern from an output of the mask pattern generating means and an output of the light and shade pattern extracting means, and a reference pattern obtained from the reference pattern generating means. And by comparing the digitized original image with
And a similarity calculation unit that obtains a region having a high similarity with the reference pattern in the original image, captures an image in the monitoring region at predetermined time intervals, and extracts the change region by the change region extraction unit, A reference pattern corresponding to the changed area is obtained by the reference pattern generation means, and thereafter, every time an image is captured, the similarity calculation means uses the reference pattern to obtain a highly similar area in the captured image and a predetermined time elapses. It is possible to track the moving object in the monitoring image by determining the position of the moving object after that, and updating the reference pattern by the reference pattern generating means using the high similarity area and the mask pattern. A method for tracking a moving object in a characteristic surveillance image.
【請求項3】 監視領域内の画像を撮像手段で撮像して
入力し、この入力された監視領域内の画像を所定の時間
間隔で連続的に取込んでデジタル化し、このデジタル化
された複数の画像を演算することによって、前記監視領
域内での移動物体の監視を行なう画像監視装置におい
て、 所定の時間間隔t1 で取込んだデジタル化された画像の
差分画像を算出し、この算出した差分画像を2値化して
差分2値化画像を生成し、この生成した差分2値化画像
から変化領域を抽出する変化領域抽出手段と、 この変化領域抽出手段で抽出された変化領域と前記撮像
手段から入力してデジタル化された原画像から変化領域
部分の濃淡パターンを抽出する濃淡パターン抽出手段
と、 この濃淡パターン抽出手段で抽出された濃淡パターンの
うちあらかじめ決められた範囲をマスクするためのパタ
ーンを発生するマスクパターン発生手段と、 このマスクパターン発生手段の出力と前記濃淡パターン
抽出手段の出力とから基準となる濃淡パターンを求める
基準パターン発生手段と、 この基準パターン発生手段から得られる基準パターンと
前記時間間隔t1 よりも短い所定の時間間隔t2 で取込
んだデジタル化された原画像とを比較することにより、
その原画像内で基準パターンと類似度の高い領域を求め
る類似度計算手段とを具備し、 所定時間ごとに監視領域内の画像を取込み、前記変化領
域抽出手段によって変化領域を抽出した際、前記基準パ
ターン発生手段によって変化領域に対応する基準パター
ンを求め、以後、画像を取込むごとに前記類似度計算手
段で前記基準パターンを用いて取込み画像内で類似度の
高い領域を求めて所定時間経過後の移動物体の位置を判
定し、さらに前記類似度の高い領域と前記マスクパター
ンを用いて前記基準パターン発生手段で前記基準パター
ンを更新することにより、監視画像内で移動物体を追跡
することを特徴とする監視画像の移動物体追跡方法。
3. An image in the surveillance area is picked up by an image pickup means and inputted, the inputted image in the surveillance area is continuously taken in at a predetermined time interval to be digitized, and the digitized plurality of images are obtained. In the image monitoring apparatus for monitoring the moving object in the monitoring area by calculating the image of the above, the difference image of the digitized images captured at the predetermined time interval t1 is calculated, and the calculated difference is calculated. The image is binarized to generate a differential binarized image, and a changing region extracting unit that extracts a changing region from the generated differential binarizing image, a changing region extracted by the changing region extracting unit, and the imaging unit. The grayscale pattern extraction means for extracting the grayscale pattern of the changed region from the original image digitized by inputting the grayscale pattern and the grayscale pattern extracted by the grayscale pattern extraction means are predetermined. Mask pattern generating means for generating a pattern for masking the range, reference pattern generating means for obtaining a reference light and shade pattern from the output of the mask pattern generating means and the output of the light and shade pattern extracting means, and the reference pattern By comparing the reference pattern obtained from the generating means with the digitized original image captured at a predetermined time interval t2 shorter than the time interval t1,
And a similarity calculation unit that obtains a region having a high similarity with the reference pattern in the original image, captures an image in the monitoring region at predetermined time intervals, and extracts the change region by the change region extraction unit, A reference pattern corresponding to the changed area is obtained by the reference pattern generation means, and thereafter, every time an image is captured, the similarity calculation means uses the reference pattern to obtain a highly similar area in the captured image and a predetermined time elapses. It is possible to track the moving object in the monitoring image by determining the position of the moving object after that, and further updating the reference pattern by the reference pattern generating means using the high similarity area and the mask pattern. A method for tracking a moving object in a characteristic surveillance image.
【請求項4】 監視領域内の画像を撮像手段で撮像して
入力し、この入力された監視領域内の画像を所定の時間
間隔で連続的に取込んでデジタル化し、このデジタル化
された複数の画像を演算することによって、前記監視領
域内での移動物体の監視を行なう画像監視装置におい
て、 デジタル化された画像の差分画像を算出し、この算出し
た差分画像を2値化して差分2値化画像を生成し、この
生成した差分2値化画像から変化領域を抽出する変化領
域抽出手段と、 この変化領域抽出手段で抽出された変化領域と前記撮像
手段から入力してデジタル化された原画像から変化領域
部分の濃淡パターンを抽出する濃淡パターン抽出手段
と、 この濃淡パターン抽出手段で抽出された濃淡パターンの
うちあらかじめ決められた範囲をマスクするためのパタ
ーンを発生するマスクパターン発生手段と、 このマスクパターン発生手段の出力と前記濃淡パターン
抽出手段の出力とから基準となる濃淡パターンを求める
基準パターン発生手段と、 この基準パターン発生手段から得られる基準パターンと
前記デジタル化された原画像とを比較することにより、
その原画像内で基準パターンと類似度の高い領域を求め
る類似度計算手段と、 この類似度計算手段で類似度の高い領域を求めた後、前
記マスクパターンの内部または外部の濃淡パターンの変
化を調べ、その変化の大小により移動物体が目的とする
対象物体であるか否かを判定する判定手段とを具備し、 所定時間ごとに監視領域内の画像を取込み、前記変化領
域抽出手段によって変化領域を抽出した際、前記基準パ
ターン発生手段によって変化領域に対応する基準パター
ンを求め、以後、画像を取込むごとに前記類似度計算手
段で前記基準パターンを用いて取込み画像内で類似度の
高い領域を求めて所定時間経過後の移動物体の位置を判
定し、さらに前記類似度の高い領域と前記マスクパター
ンを用いて前記基準パターン発生手段で前記基準パター
ンを更新することにより監視画像内で移動物体を追跡
し、この追跡された移動物体の濃淡パターンの変化によ
り目的とする対象物体であるか否かを判定することを特
徴とする監視画像の移動物体追跡方法。
4. An image in the surveillance area is picked up by an image pickup means and inputted, the inputted image in the surveillance area is continuously taken in at a predetermined time interval and digitized, and the digitized plurality of images are obtained. In the image monitoring apparatus that monitors the moving object in the monitoring area by calculating the image of the difference image, the difference image of the digitized image is calculated, and the calculated difference image is binarized to obtain the difference binary value. A changed area extracting unit that generates a changed image and extracts a changed area from the generated difference binary image, a changed area extracted by the changed area extracting unit, and an original digitized by input from the image pickup unit. A light / dark pattern extracting means for extracting a light / dark pattern of the change area portion from the image, and a pattern for masking a predetermined range of the light / dark pattern extracted by the light / dark pattern extracting means. A mask pattern generating means for generating a turn, a reference pattern generating means for obtaining a reference light and shade pattern from an output of the mask pattern generating means and an output of the light and shade pattern extracting means, and a reference pattern obtained from the reference pattern generating means. And by comparing the digitized original image with
Similarity calculating means for obtaining an area having a high degree of similarity with the reference pattern in the original image, and after obtaining an area having a high degree of similarity with this similarity calculating means, the change of the shading pattern inside or outside the mask pattern is calculated. And a determination unit that determines whether or not the moving object is a target object that is a target based on the magnitude of the change, captures an image in the monitoring area at predetermined time intervals, and the change area is extracted by the change area extraction unit. When extracting the reference pattern corresponding to the change area by the reference pattern generating means, thereafter, the similarity calculation means uses the reference pattern every time the image is captured, the area having a high degree of similarity in the captured image. To determine the position of the moving object after a lapse of a predetermined time, and further, by using the high similarity area and the mask pattern, the reference pattern generation means Movement of the monitoring image characterized by tracking the moving object in the monitoring image by updating the turn, and determining whether or not the target object is the target based on the change in the gradation pattern of the tracked moving object. Object tracking method.
JP5058775A 1993-03-18 1993-03-18 Moving object tracking method for monitor image Pending JPH06274625A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5058775A JPH06274625A (en) 1993-03-18 1993-03-18 Moving object tracking method for monitor image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5058775A JPH06274625A (en) 1993-03-18 1993-03-18 Moving object tracking method for monitor image

Publications (1)

Publication Number Publication Date
JPH06274625A true JPH06274625A (en) 1994-09-30

Family

ID=13093932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5058775A Pending JPH06274625A (en) 1993-03-18 1993-03-18 Moving object tracking method for monitor image

Country Status (1)

Country Link
JP (1) JPH06274625A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000082145A (en) * 1998-01-07 2000-03-21 Toshiba Corp Object extraction device
JP2001325672A (en) * 2000-05-16 2001-11-22 Mega Chips Corp Invader monitoring system
JP2004355665A (en) * 1998-01-07 2004-12-16 Toshiba Corp Object extracting apparatus
JP2008104705A (en) * 2006-10-26 2008-05-08 Aloka Co Ltd Ultrasonic diagnostic equipment
WO2010018669A1 (en) * 2008-08-11 2010-02-18 オムロン株式会社 Detection information registration device, object detection device, electronic device, method for controlling detection information registration device, method for controlling object detection device, program for controlling detection information registration device, and program for controlling object detection device
JP2013535047A (en) * 2010-05-28 2013-09-09 クゥアルコム・インコーポレイテッド Creating a data set to track targets with dynamically changing parts
WO2014157058A1 (en) * 2013-03-28 2014-10-02 日本電気株式会社 Bird detection device, bird detection system, bird detection method, and program
JP2015179438A (en) * 2014-03-19 2015-10-08 オムロン株式会社 Image processing device, movement velocity determination method and movement velocity determination program
CN111462174A (en) * 2020-03-06 2020-07-28 北京百度网讯科技有限公司 Multi-target tracking method and device and electronic equipment

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000082145A (en) * 1998-01-07 2000-03-21 Toshiba Corp Object extraction device
JP2004355665A (en) * 1998-01-07 2004-12-16 Toshiba Corp Object extracting apparatus
JP2001325672A (en) * 2000-05-16 2001-11-22 Mega Chips Corp Invader monitoring system
JP2008104705A (en) * 2006-10-26 2008-05-08 Aloka Co Ltd Ultrasonic diagnostic equipment
US8774456B2 (en) 2008-08-11 2014-07-08 Omron Corporation Detective information registration device and target object detection device for detecting an object in an image
JP2010044516A (en) * 2008-08-11 2010-02-25 Omron Corp Detection information registration device, electronic device, method for controlling detection information registration device, method for controlling electronic device, program for controlling detection information device, and program for controlling electronic device
CN102105904A (en) * 2008-08-11 2011-06-22 欧姆龙株式会社 Detection information registration device, object detection device, electronic device, method for controlling detection information registration device, method for controlling object detection device, program for controlling detection information registration device
WO2010018669A1 (en) * 2008-08-11 2010-02-18 オムロン株式会社 Detection information registration device, object detection device, electronic device, method for controlling detection information registration device, method for controlling object detection device, program for controlling detection information registration device, and program for controlling object detection device
JP2013535047A (en) * 2010-05-28 2013-09-09 クゥアルコム・インコーポレイテッド Creating a data set to track targets with dynamically changing parts
US9256956B2 (en) 2010-05-28 2016-02-09 Qualcomm Incorporated Dataset creation for tracking targets with dynamically changing portions
US9785836B2 (en) 2010-05-28 2017-10-10 Qualcomm Incorporated Dataset creation for tracking targets with dynamically changing portions
WO2014157058A1 (en) * 2013-03-28 2014-10-02 日本電気株式会社 Bird detection device, bird detection system, bird detection method, and program
JPWO2014157058A1 (en) * 2013-03-28 2017-02-16 日本電気株式会社 Bird detection device, bird detection system, bird detection method and program
US10007836B2 (en) 2013-03-28 2018-06-26 Nec Corporation Bird detection device, bird detection system, bird detection method, and program extracting a difference between the corrected images
JP2015179438A (en) * 2014-03-19 2015-10-08 オムロン株式会社 Image processing device, movement velocity determination method and movement velocity determination program
CN111462174A (en) * 2020-03-06 2020-07-28 北京百度网讯科技有限公司 Multi-target tracking method and device and electronic equipment
CN111462174B (en) * 2020-03-06 2023-10-31 北京百度网讯科技有限公司 Multi-target tracking method and device and electronic equipment

Similar Documents

Publication Publication Date Title
US10346688B2 (en) Congestion-state-monitoring system
CA2692424C (en) System and process for detecting, tracking and counting human objects of interest
US7995843B2 (en) Monitoring device which monitors moving objects
US7646401B2 (en) Video-based passback event detection
US8189049B2 (en) Intrusion alarm video-processing device
US6542621B1 (en) Method of dealing with occlusion when tracking multiple objects and people in video sequences
US5554983A (en) Object recognition system and abnormality detection system using image processing
JPH09330415A (en) Picture monitoring method and system therefor
US20040141633A1 (en) Intruding object detection device using background difference method
JPH10285581A (en) Automatic monitoring device
JP2007209008A (en) Surveillance device
JPH06231252A (en) Method for tracking moving object on monitoring picture
JP2007180933A (en) Image sensor
US8923552B2 (en) Object detection apparatus and object detection method
JP3910626B2 (en) Monitoring device
JPWO2008035411A1 (en) Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program
JPH06274625A (en) Moving object tracking method for monitor image
Snidaro et al. Quality-based fusion of multiple video sensors for video surveillance
JP4578864B2 (en) Automatic tracking device and automatic tracking method
JP4728795B2 (en) Person object determination apparatus and person object determination program
JP3721071B2 (en) Intruder detection system
KR20060003321A (en) The method or device for the object recognition in the security system
US20050128298A1 (en) Method for following at least one object in a scene
JPH0514891A (en) Image monitor device
JPH08167022A (en) Image monitor device