JP2001325672A - Invader monitoring system - Google Patents

Invader monitoring system

Info

Publication number
JP2001325672A
JP2001325672A JP2000143551A JP2000143551A JP2001325672A JP 2001325672 A JP2001325672 A JP 2001325672A JP 2000143551 A JP2000143551 A JP 2000143551A JP 2000143551 A JP2000143551 A JP 2000143551A JP 2001325672 A JP2001325672 A JP 2001325672A
Authority
JP
Japan
Prior art keywords
frame
moving object
intruder
difference
current frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000143551A
Other languages
Japanese (ja)
Other versions
JP4789223B2 (en
Inventor
Reiko Sawa
礼子 澤
Takashi Tsuchiya
隆 土谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2000143551A priority Critical patent/JP4789223B2/en
Publication of JP2001325672A publication Critical patent/JP2001325672A/en
Application granted granted Critical
Publication of JP4789223B2 publication Critical patent/JP4789223B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve a problem that the luminance of an invader and a background is not fixed all the time in extracting processing of a moving object area, the optimal moving object area can not be acquired when a threshold is fixed or suitable mapping can not be performed when the form of the moving object area includes a large quantity of ruggedness or holes in a method for mutually mapping the moving object areas within a short distance. SOLUTION: Concerning the system for monitoring an invader into a spatial range photographed by a photographing means, this system is provided with a means for calculating a frame difference, which is the difference of image information between a reference frame to become a reference and a current frame to be successively updated, a means for determining a threshold for mask extraction corresponding to the difference of the image information between the reference frame and the current frame each time the current frame is updated, a moving object area deciding means for deciding an area, where the frame difference exceeds the threshold for mask extraction, as a moving object area and an invader deciding means for deciding the invader on the basis of the information of the moving object area.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、監視カメラ等によ
り取得した撮影画像から、画像を解析し、侵入者(物)
を検知することを可能とする侵入者監視システムの構成
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for analyzing an image captured by a surveillance camera or the like and analyzing the image to obtain an intruder.
The present invention relates to a configuration of an intruder monitoring system capable of detecting an intruder.

【0002】[0002]

【従来の技術】侵入者監視システムは、一般にビルの室
内や廊下、ホール等において設置された監視カメラから
画像を取得し、デジタル解析処理を行うことで、侵入者
(移動物体)の検知を可能とするものである。
2. Description of the Related Art An intruder monitoring system generally detects an intruder (moving object) by acquiring an image from a monitoring camera installed in a room, a corridor, a hall, etc. of a building and performing digital analysis processing. It is assumed that.

【0003】解析処理の処理手順は、まず、侵入者のい
ない通常状態の撮影画像をリファレンスフレームとし、
これに対して、逐次撮影され取得される画像をカレント
フレームとし、このリファレンスフレームとカレントフ
レームの差分データを抽出する。この抽出された差分デ
ータは画像情報に変化が生じていることを意味するもの
であり、抽出された差分データに対して、予め与えられ
た固定しきい値により比較処理を行い、抽出された差分
データの中から移動物体領域を取得する。
The analysis procedure is as follows. First, a photographed image in a normal state without an intruder is used as a reference frame.
On the other hand, an image sequentially captured and acquired is set as a current frame, and difference data between the reference frame and the current frame is extracted. The extracted difference data means that a change has occurred in the image information. The extracted difference data is compared with a predetermined fixed threshold value, and the extracted difference data is compared. Acquire the moving object area from the data.

【0004】次に、連続するフレーム間において移動物
体領域のマッピングを行う。マッピングは距離の近い移
動物体領域を同一の対象物として関連づけることによ
り、移動物体領域の動作の解析を行うための前提処理で
あり、この関連付けられた移動物体領域が連続的に出現
しているか否かを解析することで、侵入者の判定を行う
ようにしている。
[0004] Next, mapping of a moving object area is performed between consecutive frames. Mapping is a prerequisite process for analyzing the motion of a moving object region by associating moving object regions that are close to each other as the same target object, and determines whether or not the associated moving object region appears continuously. By analyzing the information, the intruder is determined.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記移
動物体領域の抽出処理において、侵入者と背景の輝度は
必ずしも一定とは限らないので、しきい値を固定値とし
ている場合には、最適な移動物体領域の取得が行えない
という問題がある。
However, the brightness of the intruder and the background are not always constant in the above-described moving object region extraction processing. There is a problem that an object area cannot be obtained.

【0006】また、距離の近い移動物体領域同士をマッ
ピングする方法では、移動物体領域の形状に凹凸や穴を
多く含む場合には、適切なマッピングが行えないといっ
た問題もある。
Further, in the method of mapping moving object regions that are close to each other, if the shape of the moving object region includes many irregularities or holes, there is a problem that appropriate mapping cannot be performed.

【0007】また、移動物体領域として抽出された画像
データ(対象物)が、連続的(連続時間)に出現してい
るかどうかのみを判定する処理であれば、植物やカーテ
ンの揺れ等を誤検知する傾向がある。
[0007] In addition, if the processing is to determine only whether or not the image data (object) extracted as the moving object area appears continuously (continuous time), erroneous detection of plant or curtain shaking or the like is performed. Tend to.

【0008】そこで、本発明は上記問題点に鑑み、移動
物体領域の最適な取得と、精度の高い侵入者判定を可能
とした侵入者監視システムを提供することを目的とす
る。
In view of the above problems, an object of the present invention is to provide an intruder monitoring system that enables optimal acquisition of a moving object area and highly accurate intruder determination.

【0009】[0009]

【課題を解決するための手段】上記課題を解決するた
め、請求項1記載の発明は、撮像手段によってフレーム
単位で得られた画像に基づいて、前記撮像手段で撮像し
た空間範囲への侵入者を監視するシステムであって、前
記撮像手段による撮像結果のうち、基準となるリファレ
ンスフレームと、逐次更新されるカレントフレームとの
画像情報の差分であるフレーム差分を算出するフレーム
差分検出手段と、前記カレントフレームの更新毎に、前
記リファレンスフレームと前記カレントフレームとの画
像情報の差分に応じてマスク抽出用しきい値を決定する
しきい値決定手段と、前記フレーム差分が前記マスク抽
出用しきい値を越える領域を移動物体領域と判定する移
動物体判定手段と、前記移動物体領域の情報に基づいて
侵入者の判定を行う侵入者判定手段と、を備えることを
特徴とする。
According to a first aspect of the present invention, an intruder enters a space range imaged by the image pickup means based on an image obtained by the image pickup means on a frame-by-frame basis. A frame difference detection unit that calculates a frame difference that is a difference between image information of a reference frame serving as a reference and a current frame that is sequentially updated, among the imaging results of the imaging unit, Threshold value determining means for determining a mask extraction threshold value in accordance with a difference in image information between the reference frame and the current frame every time the current frame is updated; and Moving object determining means for determining a region exceeding the moving object region as a moving object region, and determining an intruder based on information on the moving object region Characterized in that it comprises a subscriber determination means.

【0010】また、請求項2記載の発明は、請求項1記
載の侵入者監視システムにおいて、前記フレーム差分検
出手段が、前記リファレンスフレームと前記カレントフ
レームとのそれぞれについて背景領域を検出する背景検
出手段と、前記リファレンスフレームと前記カレントフ
レームとのそれぞれについて、それぞれの局所的画像情
報を前記背景領域の画像情報の平均値を用いて正規化
し、それによって正規化リファレンスフレームと正規化
カレントフレームとを得る正規化手段と、前記正規化リ
ファレンスフレームと前記正規化カレントフレームとの
差分として前記差分フレームを得る手段と、を備えるこ
とを特徴とする。
According to a second aspect of the present invention, in the intruder monitoring system according to the first aspect, the frame difference detecting means detects a background area for each of the reference frame and the current frame. And, for each of the reference frame and the current frame, normalize respective local image information using an average value of the image information of the background area, thereby obtaining a normalized reference frame and a normalized current frame. A normalization unit; and a unit for obtaining the difference frame as a difference between the normalized reference frame and the normalized current frame.

【0011】また、請求項3記載の発明は、請求項1記
載の侵入者監視システムにおいて、前記侵入者判定手段
が、前記リファレンスフレームにおける第1の移動物体
領域と、前記カレントフレームにおける第2の移動物体
領域とについて所定の種類の特性量を算出する特性量算
出手段と、前記第1と第2の移動物体領域のそれぞれに
ついての前記特性量の相互関係に基づいて、前記第1と
第2の移動物体領域の対応関係を判定する対応関係判定
手段とを備え、前記特性量が、前記第1と第2の移動物
体領域の相対距離のほかに、少なくとも、前記第1と第
2の移動物体領域のそれぞれの空間サイズの相対関係
と、前記第1と第2の移動物体領域の光学的性質の相対
関係とのうちの一方を含むことを特徴とする。
According to a third aspect of the present invention, in the intruder monitoring system according to the first aspect, the intruder determining means includes a first moving object area in the reference frame and a second moving object area in the current frame. A characteristic amount calculating unit configured to calculate a predetermined type of characteristic amount with respect to the moving object region; and the first and second characteristic amounts based on a correlation between the characteristic amounts with respect to each of the first and second moving object regions. Correspondence determination means for determining the correspondence between the moving object regions, wherein the characteristic amount is at least the first and second movements in addition to the relative distance between the first and second moving object regions. It is characterized by including one of a relative relationship between the space sizes of the object regions and a relative relationship between the optical properties of the first and second moving object regions.

【0012】また、請求項4記載の発明は、請求項3記
載の侵入者監視システムにおいて、前記侵入者判定手段
が、さらに、前記対応関係判定手段によって、各移動物
体領域の時間的連鎖を特定する連鎖特定手段と、前記時
間的連鎖において、前記移動物体領域の移動の連続性と
直進性とをパラメータとして、当該時間的連鎖が侵入者
に相当するものであるか否かを判定するマルチパラメー
タ型判定手段とを備えることを特徴とする。
According to a fourth aspect of the present invention, in the intruder monitoring system according to the third aspect, the intruder determining means further specifies a time sequence of each moving object area by the correspondence determining means. And a multi-parameter for determining whether or not the temporal sequence is equivalent to an intruder by using the continuity and straightness of movement of the moving object area as parameters in the temporal sequence. And a type determining means.

【0013】また、請求項5記載の発明は、請求項1な
いし請求項4のいずれかに記載の侵入者監視システムに
おいて、さらに、過去の複数の連続フレームにおける共
通の背景領域を抽出する手段と、前記複数の連続フレー
ムに共通の背景領域以外の局所的画像情報を、各フレー
ムにおける前記共通背景領域の画像情報を用いて正規化
する手段と、前記正規化された共通の背景領域以外の画
像情報の分散が所定の値より下回る場合に、前記カレン
トフレームを新たなリファレンスフレームとして更新す
ることを特徴とする。
According to a fifth aspect of the present invention, there is provided the intruder monitoring system according to any one of the first to fourth aspects, further comprising means for extracting a common background area in a plurality of past consecutive frames. Means for normalizing local image information other than the background area common to the plurality of continuous frames using the image information of the common background area in each frame; and means for normalizing the image other than the normalized common background area. When the variance of the information is lower than a predetermined value, the current frame is updated as a new reference frame.

【0014】[0014]

【発明の実施の形態】以下、図面を参照しつつ本発明の
実施の形態について説明する。この実施の形態のシステ
ムは、屋内に取り付けられた固定監視カメラによってそ
の屋内の状況を監視し、監視カメラで得られた画像デー
タをデジタル処理することによって、侵入者などが発見
されると、警報を出すシステムとして構成されている。
なお、以下の説明においては、本発明に係る画像監視シ
ステムの処理手順を(1)移動物体領域の抽出処理、
(2)移動物体領域のマッピング処理、(3)侵入判定
処理、(4)リファレンス更新処理の4つの処理に分け
て説明する。
Embodiments of the present invention will be described below with reference to the drawings. The system according to the present embodiment monitors an indoor situation by a fixed surveillance camera attached indoors, and digitally processes image data obtained by the surveillance camera. It is configured as a system that issues
In the following description, the processing procedure of the image monitoring system according to the present invention is described as (1) a moving object area extraction process,
A description will be given of four processes: (2) a moving object region mapping process, (3) an intrusion determination process, and (4) a reference update process.

【0015】図19を用いて侵入者監視システムの全体
概略構成について説明する。監視カメラ1によって撮影
された画像(デジタル)情報は、インターフェース(I
/F)を介して画像処理装置2(PC等で構成される)
に取り込まれ、逐次メモリ4(ディスク)内に保存され
る。このうち侵入者がいないと判断されている状態の画
像情報をリファレンスフレームとし、時々刻々取得され
る最新の画像情報をカレントフレームとする。各フレー
ムの各部における局所的画像情報は、マトリクス配列さ
れたそれぞれの画素における検出輝度を所定のデータ長
のデジタル情報として保持している。また、リファレン
スフレームの初期画像情報は既にメモリ4に記憶されて
いるとして以下の説明を行う。そして、画像処理装置2
はMPU3を具備しており、取り込まれた画像情報を解
析し、通信I/F6・7を介して警報装置8に対して警
報命令を発するよう構成している。
The overall schematic configuration of the intruder monitoring system will be described with reference to FIG. Image (digital) information captured by the surveillance camera 1 is transmitted to an interface (I
/ F) via the image processing apparatus 2 (comprising a PC or the like)
And sequentially stored in the memory 4 (disk). Among these, the image information in the state where it is determined that there is no intruder is set as a reference frame, and the latest image information acquired every moment is set as a current frame. The local image information in each part of each frame holds the detected luminance of each pixel arranged in a matrix as digital information having a predetermined data length. Further, the following description will be made on the assumption that the initial image information of the reference frame is already stored in the memory 4. And the image processing device 2
Is equipped with an MPU 3, which is configured to analyze captured image information and issue an alarm command to the alarm device 8 via the communication I / F 6.7.

【0016】図1の全体フローチャートで示すように、
まず、ステップs1において、メモリ4から初期リファ
レンスフレームy0(図17(a)に示す)の読み込み
を行うと共に、前処理を行う。前処理は、一般の画像処
理において行われる画像平滑化操作であり、各フレーム
を複数のブロックに分割し、各ブロックに属する画素の
輝度を当該ブロックに属する画素の輝度平均値で置き換
えるなどの平滑化を行って雑音を除去する処理や、フレ
ーム端の無効領域を省く等の処理である。このようにし
てブロック単位で前処理されたリファレンスフレームy
0をリファレンスフレームy0Bとする(図17(c)
に示す)。
As shown in the overall flowchart of FIG.
First, in step s1, an initial reference frame y0 (shown in FIG. 17A) is read from the memory 4 and preprocessing is performed. The preprocessing is an image smoothing operation performed in general image processing. The preprocessing is performed by dividing each frame into a plurality of blocks and replacing the luminance of pixels belonging to each block with the average luminance value of the pixels belonging to the block. This is a process for removing noise by performing image conversion, and a process for omitting an invalid area at a frame end. The reference frame y preprocessed in block units in this manner
0 is a reference frame y0B (FIG. 17C)
Shown).

【0017】なお、このようなブロック化を行った後に
おいても、各ブロックはフレームの各部の局所的画像情
報を表現しており、局所エリアが画素単位から画素ブロ
ック単位に変わっているだけである。
Note that, even after such blocking, each block expresses local image information of each part of the frame, and the local area is merely changed from a pixel unit to a pixel block unit. .

【0018】次に逐次更新されるカレントフレーム毎の
ループ処理を開始する。ループ処理内では、まず、ステ
ップs2において、カレントフレームy1(図17
(b)に示す)を監視カメラ1またはその撮像出力をバ
ッファするメモリ領域から読込むとともに、同様の平滑
化を含む前処理を行う。そして、このようにしてブロッ
ク単位で前処理されたカレントフレームy1をカレント
フレームy1Bとする(図17(d)に示す)。この時
点で前処理されたリファレンスフレームy0Bとカレン
トフレームy1Bが取得される。そして、次にステップ
s3を行う。
Next, a loop process for each current frame that is sequentially updated is started. In the loop processing, first, in step s2, the current frame y1 (FIG. 17)
(Shown in (b)) is read from the monitoring camera 1 or a memory area for buffering the imaging output thereof, and the same preprocessing including smoothing is performed. Then, the current frame y1 preprocessed in the block unit in this manner is set as a current frame y1B (shown in FIG. 17D). At this point, the pre-processed reference frame y0B and current frame y1B are obtained. Then, step s3 is performed.

【0019】(1)移動物体領域の抽出処理 図2乃至図4を参照しながらステップs3について説明
する。ステップs3は移動物体領域の抽出処理であり、
図2に示すようにs31〜s34よりなる処理であり、
まず、ステップs31(=処理手順sA)において背景
領域を求める。処理手順sAは背景領域抽出フローであ
り、図3に示すように、まず、リファレンスフレームy
0の画素(ピクセル)毎に、輝度が0であるかどうか
(y0==0であるかどうか)の判定を行う(ステップ
sA1)。y0==0である場合には、指標値Dyに
1.0をセットし(ステップsA2)、y0==0でな
い場合には、y1/y0より求まる値を指標値Dyにセ
ットする(ステップsA3)。したがって、この指標値
Dyは、同じ画素について、リファレンスフレームの画
素値y0に対するカレントフレームの画素値y1の相対
値を表現している。したがって、仮にカレントフレーム
の画素値y1とリファレンスフレームの画素値y0が同
一であれば指標値Dyは基準値「1」であり、指標値D
yの基準値「1」からのずれが、当該画素につき、リフ
ァレンスフレームの輝度からのカレントフレームの輝度
の統計的変動を表現していることになる。
(1) Moving Object Area Extraction Processing Step s3 will be described with reference to FIGS. Step s3 is a moving object region extraction process.
As shown in FIG. 2, the process includes s31 to s34,
First, in step s31 (= processing procedure sA), a background area is obtained. The processing procedure sA is a background area extraction flow, and as shown in FIG.
It is determined whether or not the luminance is 0 (whether y0 == 0) for each pixel of 0 (step sA1). If y0 == 0, the index value Dy is set to 1.0 (step sA2). If y0 == 0, the value obtained from y1 / y0 is set to the index value Dy (step sA3). ). Therefore, the index value Dy represents the relative value of the pixel value y1 of the current frame with respect to the pixel value y0 of the reference frame for the same pixel. Therefore, if the pixel value y1 of the current frame and the pixel value y0 of the reference frame are the same, the index value Dy is the reference value “1” and the index value D
The deviation of y from the reference value “1” represents the statistical variation of the luminance of the current frame from the luminance of the reference frame for the pixel.

【0020】次に、ステップsA4において、ブロック
毎(例えば16×16ピクセル等)に指標値Dyの標準
偏差SDを求める。標準偏差SDは各ブロック内の指標
値Dyのばらつき度合いを示すものであるので、標準偏
差SDの小さいブロックはリファレンスフレームy0に
対してカレントフレームy1の画像情報の変化(輝度の
変化)が小さいことを意味する。
Next, in step sA4, the standard deviation SD of the index value Dy is obtained for each block (for example, 16 × 16 pixels). Since the standard deviation SD indicates the degree of dispersion of the index value Dy in each block, the change in the image information (change in luminance) of the current frame y1 is smaller in the block having the smaller standard deviation SD than in the reference frame y0. Means

【0021】次に別の指標値SBに刻み値(本実施例に
おいては0.005)をセットし(ステップsA5)、
標準偏差SDのヒストグラムを指標値SB刻みに0.0
1から1.0まで作成し(ステップsA6)、ヒストグ
ラムの累積頻度を求める(ステップsA7)。累積頻度
が小さい方から例えば70%を越えるインデックスを臨
界インデックスidxにセットし(ステップsA8)、
臨界インデックスidxに指標値SB(0.005)を
乗算し、しきい値STを取得する(ステップsA9)。
これはフレームの全面積の70%程度までが背景領域と
考えられる経験に基づくもので、累積頻度が何%を越え
るまでを背景領域と設定するかは環境により適宜変更す
ればよい。
Next, a step value (0.005 in this embodiment) is set to another index value SB (step sA5),
The histogram of the standard deviation SD is set to 0.0 every index value SB.
From 1 to 1.0 (step sA6), the cumulative frequency of the histogram is obtained (step sA7). An index exceeding 70%, for example, from the one with the smaller cumulative frequency is set as a critical index idx (step sA8),
The threshold value ST is obtained by multiplying the critical index idx by the index value SB (0.005) (step sA9).
This is based on the experience that up to about 70% of the entire area of the frame is considered to be a background area, and what percentage of the cumulative frequency exceeds the background area may be appropriately changed depending on the environment.

【0022】そして、全てのブロックに対するループ処
理において、ブロックの標準偏差SDと,しきい値ST
との比較処理を行い(ステップsA10)、標準偏差S
Dがしきい値STを下回る場合には、当該ブロックを背
景領域と判断し、bkフラグに1をセットする(ステッ
プsA11)。標準偏差SDがしきい値STを上回る場
合には、当該ブロックが背景領域でないと判断し、bk
フラグに0をセットする(ステップsA12)。以上の
処理によりカレントフレームy1におけるブロック単位
での背景領域が決定される。
Then, in the loop processing for all the blocks, the standard deviation SD of the block and the threshold value ST
(Step sA10), and the standard deviation S
If D is less than the threshold value ST, the block is determined to be a background area, and the bk flag is set to 1 (step sA11). If the standard deviation SD exceeds the threshold ST, it is determined that the block is not a background area, and bk
The flag is set to 0 (step sA12). With the above processing, the background area in the block unit in the current frame y1 is determined.

【0023】再び処理手順s3(図2)において、前記
リファレンスフレームy0Bとカレントフレームy1B
を正規化し、そのフレーム差分Meを抽出する(ステッ
プs32(=処理手順sB))。
In the processing procedure s3 (FIG. 2) again, the reference frame y0B and the current frame y1B
Are normalized, and the frame difference Me is extracted (step s32 (= processing procedure sB)).

【0024】処理手順sBはフレーム差分算出フローで
あり、図4に示すように、リファレンスフレーム及びカ
レントフレームのそれぞれにつき、まず背景領域の平均
値y0m、y1mを求める(ステップsB1)。平均値
y0mはリファレンスフレームy0の中で、前述した処
理手順sAにおいて背景領域(bkフラグ=1)と判断
されたブロックにおける輝度の平均値であり、次式の数
1で与えられる。ただし、式数1におけるNはbk
[i]=1を満たすiの個数である。なお、平均値y1
mは次式においてy0mをy1m、y0Bをy1Bに置
き換えたものとなる。
The processing procedure sB is a frame difference calculation flow. As shown in FIG. 4, first, average values y0m and y1m of the background area are obtained for each of the reference frame and the current frame (step sB1). The average value y0m is the average value of the luminance of the block determined as the background area (bk flag = 1) in the above-described processing procedure sA in the reference frame y0, and is given by the following equation (1). Where N in Equation 1 is bk
[I] = 1 is the number of i that satisfies 1. The average value y1
m is obtained by replacing y0m with y1m and y0B with y1B in the following equation.

【0025】[0025]

【数1】 (Equation 1)

【0026】次に、リファレンスフレームy0Bをブロ
ック毎に平均値y0mで除算することにより正規化し、
カレントフレームy1Bをブロック毎に平均値y1mで
除算することにより正規化し、次式の数2で与えられる
差分の絶対値であるフレーム差分Meを求める(ステッ
プsB2)。数2中のパラメータkは、リファレンスフ
レームy0Bとカレントフレームy1Bの全てのブロッ
クに対してフレーム差分Meを算出することを意味す
る。図18(a)はフレーム差分Meで表現された画像
である。
Next, the reference frame y0B is normalized by dividing by a mean value y0m for each block,
The current frame y1B is normalized by dividing the current frame y1B by the average value y1m for each block, and a frame difference Me which is an absolute value of a difference given by the following equation (2) is obtained (step sB2). The parameter k in Equation 2 means that the frame difference Me is calculated for all the blocks of the reference frame y0B and the current frame y1B. FIG. 18A is an image represented by the frame difference Me.

【0027】[0027]

【数2】 (Equation 2)

【0028】再び処理手順s3において、マスク抽出用
しきい値THを求める(ステップs33(=処理手順s
C))。
In the processing procedure s3 again, the mask extraction threshold value TH is calculated (step s33 (= processing procedure s3).
C)).

【0029】処理手順sCはマスク抽出用しきい値決定
フローであり、図5のフローチャートに示すように、フ
レーム差分Meのヒストグラムを作成し(ステップsC
1)、累積頻度を算出する(ステップsC2)。次に、
累積頻度の何%程度を移動物体領域として抽出するかの
指標である固定のしきい値Tfでフィルタリングを行い
(ステップsC3)、マスク抽出用しきい値THを得る
(ステップsC4)。
The processing procedure sC is a flow for determining a threshold value for extracting a mask. As shown in the flowchart of FIG. 5, a histogram of the frame difference Me is created (step sC).
1), calculate the cumulative frequency (step sC2). next,
Filtering is performed with a fixed threshold Tf, which is an index of what percentage of the cumulative frequency is extracted as a moving object area (step sC3), and a mask extraction threshold TH is obtained (step sC4).

【0030】つまり、フレーム差分Meの小さな値、つ
まり輝度変動が小さなブロックからブロック数をカウン
トしていった累積頻度分布のカーブにおいて、その傾斜
(累積頻度分布に微分フィルタを施したもの)が当該固
定しきい値Tfに到達するようなフレーム差分Meの値
を、マスク抽出用しきい値THとする。
That is, in the curve of the cumulative frequency distribution in which the number of blocks is counted from a small value of the frame difference Me, that is, the block whose luminance variation is small, the slope (the one obtained by applying the differential filter to the cumulative frequency distribution) is the corresponding value. The value of the frame difference Me that reaches the fixed threshold Tf is defined as the mask extraction threshold TH.

【0031】再び、処理手順s3(図2)において、前
述した処理手順sBで求めたブロック毎のフレーム差分
Meと、処理手順sCで求めたマスク抽出用しきい値T
Hを比較し、フレーム差分Meがマスク抽出用しきい値
THを上回るブロックを移動物体領域(以下、適宜マス
クと称す)と判断する。図18(b)は抽出されたマス
クを示す画像情報である。
Again, in the processing procedure s3 (FIG. 2), the frame difference Me for each block obtained in the processing procedure sB described above and the mask extraction threshold T obtained in the processing procedure sC
By comparing H, a block in which the frame difference Me exceeds the mask extraction threshold TH is determined as a moving object area (hereinafter, appropriately referred to as a mask). FIG. 18B shows image information indicating the extracted mask.

【0032】このように、処理手順sAで説明した背景
領域を抽出する手段と、処理手順sBで説明したフレー
ム差分を算出する手段と、フレーム差分のうち、マスク
抽出用しきい値を越える領域を移動物体領域と判定する
システムにおいて、マスク抽出用しきい値は、リファレ
ンスフレームとカレントフレームの輝度差分に応じて決
定する、つまり、処理手順sCで説明したように、フレ
ーム差分Meのヒストグラムから、逐次マスク抽出用し
きい値THを決定するようにしているので、侵入者や背
景の輝度の変化に影響を受けず、移動物体領域の抽出を
従来に比べて確実に行うことが可能となった。
As described above, the means for extracting the background area described in the processing procedure sA, the means for calculating the frame difference described in the processing procedure sB, In the system for determining a moving object area, the mask extraction threshold value is determined according to the luminance difference between the reference frame and the current frame. That is, as described in the processing procedure sC, the mask extraction threshold value is sequentially determined from the histogram of the frame difference Me. Since the mask extraction threshold value TH is determined, it is possible to extract the moving object region more reliably than before, without being affected by changes in the luminance of the intruder or the background.

【0033】また、処理手順sBで説明したように、正
規化はリファレンスフレームとカレントフレームのブロ
ック毎の輝度を背景領域の輝度平均値で除算する処理と
したので、従来のようにフレーム全体ではなく、背景領
域のみの輝度平均値で正規化を行うため、蛍光灯のフリ
ッカ、日照条件の変化等の輝度変化に影響を受けず、移
動物体領域の安定した抽出処理を可能とした。
Further, as described in the processing procedure sB, the normalization is a process of dividing the luminance of each block of the reference frame and the current frame by the average luminance value of the background area. In addition, since the normalization is performed using the average luminance value of only the background area, the moving object area can be stably extracted without being affected by the luminance change such as the flicker of the fluorescent lamp and the change of the sunshine condition.

【0034】以上の移動物体領域の抽出処理についてデ
ータを処理する機能の側面から表したものを図6に示
す。
FIG. 6 shows the above-described moving object region extraction processing in terms of the function of processing data.

【0035】(2)移動物体領域のマッピング処理 全体フローチャートにおいて、次に移動物体領域のマッ
ピング処理(ステップs4)を行う。マッピング処理と
は、侵入者が動いた軌跡を得るため、カレントフレーム
y1のマスクと過去のマスクとの対応をとる処理であ
り、図7に示すように、マスク同士の距離、面積比、輝
度比をもとに評価される。
(2) Moving Object Region Mapping Process In the overall flowchart, a moving object region mapping process (step s4) is performed. The mapping process is a process of associating the mask of the current frame y1 with the past mask in order to obtain a trajectory of the intruder. As shown in FIG. 7, the distance between masks, the area ratio, the luminance ratio Is evaluated based on

【0036】図8(a)は1フレーム前のマスク、図8
(b)はカレントフレームのマスクを示す一例であり、
1フレーム前にはA1・A3の2つのマスク、カレント
フレームにはB1・B2・B3の3つのマスクが存在し
ている。
FIG. 8A shows the mask one frame before, and FIG.
(B) is an example showing the mask of the current frame,
Two masks A1 and A3 exist one frame before, and three masks B1, B2 and B3 exist in the current frame.

【0037】図9(a)及び(b)は、それぞれ1フレ
ーム前のマスクAj(j=1,2,・・・)及びカレン
トフレームのマスクBi(i=1,2,・・・)の属性
を表したデータベースであり、それぞれのマスクAj、
Biに対して、中心座標、面積、輝度の属性を持たせて
いる。このデータベースはメモリ4の中に更新可能に記
憶されている。各マスクに対してこのような属性を持た
せた上で、図10に示すフローチャートを用いてステッ
プs4(移動物体領域のマッピング処理)を説明する。
FIGS. 9A and 9B show the mask Aj (j = 1, 2,...) One frame before and the mask Bi (i = 1, 2,...) Of the current frame, respectively. It is a database representing attributes, and each mask Aj,
Bi has attributes of center coordinates, area, and luminance. This database is stored in the memory 4 in an updatable manner. After giving such attributes to each mask, step s4 (moving object area mapping processing) will be described with reference to the flowchart shown in FIG.

【0038】マッピング処理は、1フレーム前の各マス
クAjに対してそれぞれループ処理され、さらに、各マ
スクAjに対して、カレントフレームの各マスクBiの
総当たりのループ処理を行う。まず、ステップs41に
おいて、1フレーム前のマスクAjとカレントフレーム
のマスクBiとの間の距離Dis、面積比Ara、輝度
比Yraを求める。距離Disは、マスクAj・Biの
中心(重心)座標Aj_c、Bi_c間の通常の距離で
あり、面積比Araは、マスクAj・Biの面積Aj_
a、Bi_aのうち、小なるものを大なるもので除した
値(比)であり、輝度比Yraは、マスクAj・Biの
輝度Aj_y、Bi_yのうち、小なるものを大なるも
ので除した値(比)である。
In the mapping process, a loop process is performed on each mask Aj one frame before, and a loop process is performed on each mask Aj for each mask Bi in the current frame. First, in step s41, the distance Dis, the area ratio Ara, and the luminance ratio Yra between the mask Aj one frame before and the mask Bi of the current frame are obtained. The distance Dis is a normal distance between the center (center of gravity) coordinates Aj_c and Bi_c of the masks Aj and Bi, and the area ratio Ara is the area Aj_ of the masks Aj and Bi.
a, Bi_a is a value (ratio) obtained by dividing a small one by a large one, and the luminance ratio Yra is obtained by dividing a small one of the luminances Aj_y, Bi_y of the masks Aj and Bi by a large one. Value (ratio).

【0039】次に、ステップs42において、ステップ
s41で求めた距離Dis、面積比Ara、輝度比Yr
aについて判定処理を行う。本実施形態では、Ara≧
0.1、かつ、Dis≦DL、かつ、Yra>0.5を
満たす場合、つまり、マスク間の距離が予め設定された
値DLより小さく、面積比Araが0.1以上で、輝度
比Yraが0.5以上である場合に、マスクAjとマス
クBiとが相互に関連付けられる候補として、フラグf
g(i,j)に1をセットする(ステップs43)。一
方、上記条件を満たさない場合には、マスク同士は関連
がないと判断し、フラグfg(i,j)に0をセットす
る(ステップs44)。
Next, in step s42, the distance Dis, the area ratio Ara, and the luminance ratio Yr obtained in step s41 are obtained.
The determination processing is performed for a. In the present embodiment, Ara ≧
0.1, Dis ≦ DL, and Yra> 0.5, that is, the distance between masks is smaller than a preset value DL, the area ratio Ara is 0.1 or more, and the luminance ratio Yra Is greater than or equal to 0.5, mask Aj and mask Bi are flag f
g (i, j) is set to 1 (step s43). On the other hand, if the above condition is not satisfied, it is determined that the masks are not related to each other, and the flag fg (i, j) is set to 0 (step s44).

【0040】なお、上記面積比Ara及び輝度比Yra
の下限値は、本実施形態ではそれぞれ0.1及び0.5
としているが、この設定値は特に限定されるものではな
く、最適なマッピング(関連付け)が行える値に適宜変
更されるものである。
The area ratio Ara and the luminance ratio Yra
Are, in the present embodiment, 0.1 and 0.5, respectively.
However, the set value is not particularly limited, and is appropriately changed to a value that enables optimal mapping (association).

【0041】次に、ステップs45において、マスクA
jとマスクBiの類似度F(i,j)を求める。類似度
F(i,j)は、マスクAj,Bi間の距離及び面積比
から算出されるもので、距離が近く、面積比が大きい程
類似度Fが大きくなる。そして、類似度Fが大きいほ
ど、マスクAj,Biの関連性が強いことを意味する。
一般的には、距離については減少関数であり、かつ面積
比については増加関数となっているような類似度関数を
使用することができる。
Next, in step s45, the mask A
The similarity F (i, j) between j and the mask Bi is obtained. The similarity F (i, j) is calculated from the distance between the masks Aj and Bi and the area ratio, and the similarity F increases as the distance decreases and the area ratio increases. The larger the similarity F is, the stronger the relevance of the masks Aj and Bi is.
In general, it is possible to use a similarity function such that the distance is a decreasing function and the area ratio is an increasing function.

【0042】以上のステップs41〜s45までの処理
を全てのカレントマスクBiに対して処理した後、フラ
グfg(i,j)に1がセットされたiに対して、即
ち、ステップs42において距離、面積比、輝度比から
マッピングの候補に上げられたマスクの中で、類似度F
が最大となるマスクBiを、マスクAjが移動した後の
マスクとしてマッピングする(ステップs46)。
After the above processing of steps s41 to s45 has been performed for all the current masks Bi, for the i for which the flag fg (i, j) is set to 1, that is, at step s42, the distance, Among the masks that have been selected as mapping candidates based on the area ratio and the luminance ratio, the similarity F
Is mapped as a mask after the mask Aj has moved (step s46).

【0043】このようなマッピング処理を行うことで、
従来に比べて最適なマッピング処理が行える。つまり、
従来は距離の近いマスク同士をマッピングするという単
純な処理を行っていたため、マスクに凹凸や穴を多数含
む場合には、マスクの凹凸や穴の相対的な動きによって
マスクの中心位置が変動するために、移動前後のマスク
の中心間距離の信頼性が低くなり、誤認識をする可能性
があった。また、距離だけをパラメータとしている場
合、複数のマスクが隣接して存在する状態においてマッ
ピングを行うのは困難となる。そこで、本発明は独立し
た3つのパラメータ(距離、面積比、輝度比)を用いる
ことで、定量的、且つ、精度の高いマッピング処理を可
能としているのである。
By performing such a mapping process,
Optimum mapping processing can be performed as compared with the related art. That is,
Conventionally, simple processing of mapping masks that are close to each other was performed, so if the mask contains many irregularities and holes, the mask's center position fluctuates due to the relative movement of the mask's irregularities and holes. In addition, the reliability of the center-to-center distance of the mask before and after the movement is reduced, and there is a possibility that erroneous recognition may occur. When only the distance is used as a parameter, it is difficult to perform mapping in a state where a plurality of masks are adjacent to each other. Thus, the present invention enables quantitative and highly accurate mapping processing by using three independent parameters (distance, area ratio, and luminance ratio).

【0044】ここにおいて、面積比はマスクの空間的サ
イズを表現する特性量の1態様であり、輝度比はマスク
の光学的性質(光の反射率など)を表現する特性量の1
態様であるため、一般的には、マスク間の距離のほか
に、マスク間の空間サイズの類似度と、光学的性質の類
似度とを考慮してマスクのマッピングを行っていること
になる。
Here, the area ratio is one mode of a characteristic quantity expressing the spatial size of the mask, and the luminance ratio is one of the characteristic quantities expressing the optical properties (light reflectance, etc.) of the mask.
Since this is the mode, generally, the mapping of the mask is performed in consideration of the similarity of the space size between the masks and the similarity of the optical properties in addition to the distance between the masks.

【0045】そして、このようにマッピングされたマス
クに対してはマッピングされた過去のマスクと同一の番
号を振る。番号が振られ、移動物体と認識された対象を
ラベルと呼ぶ。図18(c)は1フレーム前のラベルを
示し、図18(d)はマッピング後のマスクを示してお
り、同一の番号が振られたマスクに対しては同一の輝度
で表示している。
The mask mapped in this way is assigned the same number as the mapped past mask. An object assigned a number and recognized as a moving object is called a label. FIG. 18C shows a label one frame before, and FIG. 18D shows a mask after mapping. Masks assigned the same number are displayed with the same luminance.

【0046】(3)侵入判定処理 全体フローチャートのステップs4において移動物体領
域(マスク)に番号を付与してラベルを生成した後、ス
テップs5においてフレーム内にラベルが存在するか否
かの判定を行う。ラベルが1つでも存在する、つまり過
去のマスクと関連付けされ(マッピングされ)たマスク
が存在する場合には、ステップs6において各ラベルの
重心計算及び軌跡を求め、過去の軌跡に相当する時間的
連鎖を基に進入判定を行う。
(3) Intrusion Determination Processing In step s4 of the overall flowchart, a label is generated by assigning a number to the moving object area (mask), and then in step s5, it is determined whether or not the label exists in the frame. . If there is at least one label, that is, if there is a mask associated (mapped) with the past mask, the center of gravity of each label is calculated and the trajectory is determined in step s6, and the time sequence corresponding to the past trajectory is calculated. Is determined on the basis of.

【0047】進入判定は図11に示すように、マスクの
移動ベクトルの直進性と、移動ベクトルの連続数により
判定される。この判定処理について図12のフローチャ
ートを用いて説明する。まず、ステップs61(=処理
手順sD)において、進入判定の為のパラメータである
Dm(移動物体の直進性を示す)、Lm(同じく移動物
体の直進性を示す)、len(過去数秒間でのラベルの
連続数を示す)を計算する。
As shown in FIG. 11, the approach determination is made based on the straightness of the movement vector of the mask and the number of continuous movement vectors. This determination processing will be described with reference to the flowchart in FIG. First, in step s61 (= procedure sD), Dm (indicating the straightness of a moving object), Lm (similarly indicating the straightness of a moving object), len (in the past several seconds) (Indicating the number of consecutive labels).

【0048】パラメータ計算フロー(処理手順sD)を
図13に示す。まず、ステップsD1において、予め設
定された時間幅(例えば3秒間)における過去のラベル
の連続数を求め連続数lenにセットする。ラベルの連
続数とは、同一の番号が振られたマスク、つまり同一の
ラベルが過去の連続したフレームで出現している回数で
ある。
FIG. 13 shows a parameter calculation flow (processing procedure sD). First, in step sD1, the number of past label continuations in a preset time width (for example, 3 seconds) is obtained and set to the number of continuous len. The number of consecutive labels is the number of masks assigned the same number, that is, the number of times the same label appears in past consecutive frames.

【0049】次に、ステップsD2において動きベクト
ルVi及び動きベクトルの差分ベクトルDiを求める。
動きベクトルViは図14に示すように、過去の連続し
たラベルの重心座標Cn(n=1,2,,)を結ぶベク
トルである(図18(e)にラベルの軌跡を示す)。
Next, in step sD2, a motion vector Vi and a difference vector Di of the motion vector are obtained.
As shown in FIG. 14, the motion vector Vi is a vector connecting the barycentric coordinates Cn (n = 1, 2,...) Of past consecutive labels (FIG. 18E shows a label locus).

【0050】次に、ステップsD3において、動きベク
トルViの絶対値の平均値VA(つまり、各マスクの重
心間の平均距離)を求める。そして、平均値VAと所定
の基準値Epの比較処理(ステップsD4)を行う。基
準値Epはパラメータ計算を行う前段階で、隣接するフ
レーム間での移動量が平均的に小さなマスクに対して
は、計算処理をキャンセルさせるためのものであり、平
均値VAが基準値Epを下回る場合には、そのマスクは
著しく低速で動いているものに相当するため、侵入者と
の判断から除外する。
Next, in step sD3, the average value VA of the absolute values of the motion vector Vi (that is, the average distance between the centers of gravity of the respective masks) is obtained. Then, a comparison process (step sD4) between the average value VA and the predetermined reference value Ep is performed. The reference value Ep is for canceling the calculation process for a mask having an average small movement amount between adjacent frames before the parameter calculation, and the average value VA is equal to the reference value Ep. If it falls below, the mask is extremely slow moving and is excluded from the determination of an intruder.

【0051】平均値VAが基準値Epより大きい場合に
は、ステップsD5において、次のような判定処理を行
う。動きベクトルVi(i=1,2,・・・)のうち、
絶対値の最大のものをmax(|vi|)で表せば、最
大絶対値の0.1倍よりも絶対値の小さいベクトルを|
Vi|<max(|Vi|)×0.1で表すことがで
き、このような条件を満たす動きベクトルViの数が、
全ての動きベクトルの数(len−1)の例えば50%
より少ないか否かの判定を行う。
If the average value VA is larger than the reference value Ep, the following determination processing is performed in step sD5. Of the motion vectors Vi (i = 1, 2,...)
If the largest absolute value is represented by max (| vi |), a vector whose absolute value is smaller than 0.1 times the maximum absolute value is |
Vi | <max (| Vi |) × 0.1, and the number of motion vectors Vi satisfying such a condition is
For example, 50% of the number of all motion vectors (len-1)
It is determined whether the number is less.

【0052】この判定は、隣接フレーム間の最大の動き
量と比較して、細かい動きをしているベクトルがかなり
多い場合に、ラベルを侵入者判定から除外するためのも
のであり、風に揺れる植物やカーテンのように、比較的
速い動きがある一方で低速度の動きが多頻度で生じてお
り、速度分布内における低速度側への偏りが顕著な物体
を誤検知するのを防ぐ処理である。
This determination is for excluding the label from the intruder determination when the number of finely moving vectors is considerably large as compared with the maximum amount of movement between adjacent frames. This process prevents erroneous detection of objects such as plants and curtains, which have relatively fast movements but have low-speed movements frequently, and which have a pronounced bias toward the low-speed side in the velocity distribution. is there.

【0053】そして、この条件を満たす場合、指標値D
m,Lmの算出を行う(ステップsD6)。指標値Dm
は差分ベクトルDiをステップsD3で求めた動きベク
トルの絶対値の平均値VAで正規化したもののうち、
1.0よりも小さいものの数を、全ての差分ベクトルの
数(len−2)で除算した値であり、Lmは軌跡の始
点から終点までの距離VLを、動きベクトルViの絶対
値の総和で除算した値である。
When this condition is satisfied, the index value D
m and Lm are calculated (step sD6). Index value Dm
Is obtained by normalizing the difference vector Di with the average value VA of the absolute values of the motion vectors obtained in step sD3.
Lm is the value obtained by dividing the number smaller than 1.0 by the number (len-2) of all the difference vectors, and Lm is the distance VL from the start point to the end point of the trajectory as the sum of the absolute values of the motion vectors Vi. It is the divided value.

【0054】以上のように定義された指標値Dmは、差
分ベクトルDiのうち、絶対値の小さいベクトルが占め
る割合に基づいており、速度の変動が大きい程小さく、
等速度で一定方向に動く程大きな値を持つ。一方、指標
値Lmは動きベクトルViの大きさに基づいており、直
進する程大きな値を持つ。
The index value Dm defined as described above is based on the ratio of the difference vector Di occupied by the vector having a small absolute value.
It has a larger value as it moves in a certain direction at a constant speed. On the other hand, the index value Lm is based on the magnitude of the motion vector Vi, and has a larger value as it goes straight.

【0055】そして、図12に示すステップs62にお
いて、侵入判定を行う。具体的には上記ステップs61
で求めた指標値Dm,Lm及び連続数lenを用いて、
指標値Dm,Lmと固定しきい値との比較処理を行い、
条件を満たせば(例えばDm≧0.5、かつ、Lm≧
0.5)直進性が高いと判断でき、かつ、同一ラベルの
過去の連続数lenが一定数ならば、侵入判定条件を満
たしていると判定し、ALARMフラグに1をセットす
る(ステップs63)。条件を満たさない場合には、A
LARMフラグに0をセットする(ステップs64)。
Then, in step s62 shown in FIG. 12, intrusion determination is performed. Specifically, the above step s61
Using the index values Dm, Lm and the continuous number len obtained in
Perform a comparison process between the index values Dm and Lm and the fixed threshold value,
If the condition is satisfied (for example, Dm ≧ 0.5 and Lm ≧
0.5) If it can be determined that straightness is high and if the past consecutive number len of the same label is a fixed number, it is determined that the intrusion determination condition is satisfied, and 1 is set to the ALARM flag (step s63). . If the conditions are not met, A
The LARM flag is set to 0 (step s64).

【0056】以上の侵入判定処理終了後、基本フローチ
ャートのステップs7において、アラームを出力するか
否かの判定、つまり、ALARMフラグに1がセットさ
れているかの判定を行い、ALARMフラグ=1であれ
ば、アラームを出力する(ステップs8)。
After the above-described intrusion determination processing is completed, in step s7 of the basic flowchart, it is determined whether or not to output an alarm, that is, whether or not the ALARM flag is set to 1 is determined. If so, an alarm is output (step s8).

【0057】このように本実施形態においては、移動物
体領域の連続性に加えて、細動の非混在性(ステップs
D5の判定)、等速度性(Dm判定)、および直進性
(Lm判定)をパラメータとして侵入判定を行うので、
誤検知を防止して精度の高い侵入者判定を行うことを可
能としている。特に、従来は植物やカーテンの揺れ等を
誤検知する傾向にあったが、本アルゴリズムによればラ
ンダムな動きをして、直進性のない移動物体領域を侵入
者とは判断しないので、侵入者判定の精度向上が図れ
た。
As described above, in this embodiment, in addition to the continuity of the moving object area, the non-mixing of fibrillation (step s)
D5), uniform velocity (Dm), and straightness (Lm) are used as parameters for intrusion determination.
It is possible to prevent erroneous detection and perform highly accurate intruder determination. In particular, in the past, there was a tendency for erroneous detection of swaying of plants and curtains, etc., but according to this algorithm, a moving object area that does not move straight ahead is not judged as an intruder, so the intruder The accuracy of the judgment was improved.

【0058】ALARMフラグ=0であれば、侵入者が
存在しない正常な状態であり、次にリファレンス更新処
理に移行する。
If the ALARM flag is 0, it means that there is no intruder in a normal state, and the processing shifts to reference update processing.

【0059】(4)リファレンス更新処理 監視カメラから入力されるフレームは日照変化等の影響
を受ける為、常に一定の輝度とは限らない。従って環境
の変化に応じて適時リファレンスフレームを更新するこ
とによって、上述した移動物体領域抽出処理をさらに適
切に行うことができる。また、リファレンスフレームと
カレントフレームのフレーム差分に基づいて輝度変化を
検知する方法では、リファレンスフレームは侵入者を含
まない背景画像のみからなると仮定している。そこで、
侵入者を含まないフレームを安定して判別し、リファレ
ンスフレームを更新することが望ましい。
(4) Reference Update Processing Since the frame input from the monitoring camera is affected by changes in the sunshine, the brightness is not always constant. Therefore, the above-described moving object region extraction processing can be performed more appropriately by updating the reference frame as appropriate according to a change in the environment. Further, in the method of detecting a luminance change based on a frame difference between the reference frame and the current frame, it is assumed that the reference frame includes only a background image that does not include an intruder. Therefore,
It is desirable to stably determine a frame that does not include an intruder and update the reference frame.

【0060】図15にリファレンス更新処理フローを示
す。まず、移動物体領域(マスク)の抽出処理がされた
カレントフレームを含む過去のM枚のフレームを取得す
る(ステップs91)。ただし、数Mは2以上の所定の
整数である。次に、図16(a)にも示すように、取得
したM枚のフレームから共通の背景領域を抽出する(ス
テップs92)。
FIG. 15 shows a reference update processing flow. First, the past M frames including the current frame from which the moving object area (mask) has been extracted are acquired (step s91). Here, the number M is a predetermined integer of 2 or more. Next, as shown in FIG. 16A, a common background area is extracted from the acquired M frames (step s92).

【0061】ここにおいて、共通の背景領域とは、M枚
のフレームのそれぞれの背景領域の論理積に相当する領
域であり、M枚のフレームのいずれにおいても背景領域
に属する領域である。
Here, the common background region is a region corresponding to the logical product of the background regions of the M frames, and is a region belonging to the background region in any of the M frames.

【0062】そして、前述した正規化処理(図4で示し
たステップsB2)と同様に、図16(b)に示すよう
に、M枚のフレームをそれぞれ背景領域の輝度平均値y
1m、y2m、・・・、yMmで割って正規化処理(ス
テップs93)を行う。
As shown in FIG. 16B, similarly to the above-described normalization processing (step sB2 shown in FIG. 4), the M frames are respectively subjected to the luminance average value y of the background area.
Normalization processing (step s93) is performed by dividing by 1m, y2m,..., YMm.

【0063】次に、図16(c)で示すように、時間方
向に、ブロック毎の輝度分散の計算処理を行う。つま
り、ステップs93で正規化された共通背景以外の領域
において、過去の連続するM枚のフレーム間において、
同一のブロックの集合に対して輝度分散を求めるのであ
る(ステップs94)。共通背景領域は他の領域に対し
て変動が小さく、分散値も小さいと考えられるので計算
を省略できる。
Next, as shown in FIG. 16C, calculation processing of the luminance variance for each block is performed in the time direction. That is, in an area other than the common background normalized in step s93, between past M consecutive frames,
The luminance variance is obtained for the same set of blocks (step s94). Since the common background area is considered to have a small variation with respect to other areas and a small variance value, the calculation can be omitted.

【0064】そして、共通ブロック(共通背景以外の領
域に属する各ブロック)の輝度分散に固定しきい値を上
回る分散値がなければ、変動のないフレームが連続して
いると判断して(ステップs95)、カレントフレーム
によってリファレンスフレームを置き換え、リファレン
ス更新処理を行う(全体フローチャートステップs1
0)。
If the luminance variance of the common block (each block belonging to the area other than the common background) does not have a variance value exceeding the fixed threshold value, it is determined that frames without fluctuation are continuous (step s95). ), The reference frame is replaced by the current frame, and the reference updating process is performed (the whole flowchart step s1).
0).

【0065】このように、過去の複数枚のフレームにお
ける共通背景領域の輝度平均値で正規化を行うため、侵
入者がいないにも関わらず輝度変化が生じているために
リファレンスフレームの更新がされないといった問題を
解決でき、侵入者を含まないフレームを安定して判別
し、リファレンスフレームを更新することが可能となっ
た。また、共通背景以外の領域のみにおいて時間方向の
輝度分散を求めるため、全領域を対象とする場合よりも
計算量を削減できるのである。
As described above, since the normalization is performed using the average luminance value of the common background region in a plurality of past frames, the reference frame is not updated because the luminance has changed even though there is no intruder. Thus, it is possible to stably determine a frame that does not include an intruder and update the reference frame. Further, since the luminance variance in the time direction is obtained only in the region other than the common background, the calculation amount can be reduced as compared with the case where the entire region is targeted.

【0066】なお、画像情報としては輝度のほかに、特
定のカラー成分の大きさなど、他の情報を利用すること
もできる。
As image information, other information such as the size of a specific color component can be used in addition to the luminance.

【0067】また、マスクのマッピングを行うにあたっ
て、リファレンスフレームとカレントフレームとのそれ
ぞれの移動物体領域につき、相対距離のほかに、空間サ
イズの相対関係と光学的性質の相対関係とのうちの一方
を含めるだけでも従来より適切なマッピングを行うこと
ができる。
Further, in performing the mask mapping, for each moving object region of the reference frame and the current frame, in addition to the relative distance, one of the relative relationship of the space size and the relative relationship of the optical properties is determined. Just including it can perform more appropriate mapping than before.

【0068】移動物体領域が侵入者か否かを判定するに
あたって、その移動の連続性のほか、その移動の速度分
布内における低速度側への偏りの程度、等速度性および
直進性のうちの少なくともひとつを含めるだけでも、従
来より適切な侵入者判定が可能である。
In determining whether or not the moving object area is an intruder, in addition to the continuity of the movement, the degree of deviation to the lower speed side in the speed distribution of the movement, the uniform speed and the straightness Even if at least one is included, a more appropriate intruder determination than before can be performed.

【0069】[0069]

【発明の効果】以上説明したように、請求項1記載の発
明は、撮像手段によってフレーム単位で得られた画像に
基づいて、前記撮像手段で撮像した空間範囲への侵入者
を監視するシステムであって、前記撮像手段による撮像
結果のうち、基準となるリファレンスフレームと、逐次
更新されるカレントフレームとの画像情報の差分である
フレーム差分を算出するフレーム差分検出手段と、前記
カレントフレームの更新毎に、前記リファレンスフレー
ムと前記カレントフレームとの画像情報の差分に応じて
マスク抽出用しきい値を決定するしきい値決定手段と、
前記フレーム差分が前記マスク抽出用しきい値を越える
領域を移動物体領域と判定する移動物体判定手段と、前
記移動物体領域の情報に基づいて侵入者の判定を行う侵
入者判定手段とを備えるので、侵入者や背景の輝度の変
化に影響を受けず、移動物体領域の抽出を確実に行うこ
とが可能となる。
As described above, according to the first aspect of the present invention, there is provided a system for monitoring an intruder in a space range imaged by the image capturing means based on an image obtained in frame units by the image capturing means. A frame difference detection unit that calculates a frame difference that is a difference between image information between a reference frame serving as a reference and a sequentially updated current frame in the imaging result of the imaging unit; A threshold value determining unit that determines a mask extraction threshold value in accordance with a difference between image information between the reference frame and the current frame;
Since there are moving object determining means for determining an area where the frame difference exceeds the mask extraction threshold value as a moving object area, and intruder determining means for determining an intruder based on information on the moving object area, In addition, the moving object region can be reliably extracted without being affected by the change of the luminance of the intruder or the background.

【0070】また、請求項2記載の発明は、請求項1記
載の侵入者監視システムにおいて、前記フレーム差分検
出手段が、前記リファレンスフレームと前記カレントフ
レームとのそれぞれについて背景領域を検出する背景検
出手段と、前記リファレンスフレームと前記カレントフ
レームとのそれぞれについて、それぞれの局所的画像情
報を前記背景領域の画像情報の平均値を用いて正規化
し、それによって正規化リファレンスフレームと正規化
カレントフレームとを得る正規化手段と、前記正規化リ
ファレンスフレームと前記正規化カレントフレームとの
差分として前記差分フレームを得る手段とを備えるの
で、蛍光灯のフリッカ、日照条件の変化等の輝度変化に
より影響を受けずに移動物体領域の抽出を行うことが可
能となる。
According to a second aspect of the present invention, in the intruder monitoring system according to the first aspect, the frame difference detecting means detects a background area for each of the reference frame and the current frame. And, for each of the reference frame and the current frame, normalize respective local image information using an average value of the image information of the background area, thereby obtaining a normalized reference frame and a normalized current frame. Normalization means, and means for obtaining the difference frame as a difference between the normalized reference frame and the normalized current frame, so that it is not affected by luminance changes such as flicker of fluorescent lamps and changes in sunlight conditions. It is possible to extract a moving object region.

【0071】また、請求項3記載の発明は、請求項1記
載の侵入者監視システムにおいて、前記侵入者判定手段
が、前記リファレンスフレームにおける第1の移動物体
領域と、前記カレントフレームにおける第2の移動物体
領域とについて所定の種類の特性量を算出する特性量算
出手段と、前記第1と第2の移動物体領域のそれぞれに
ついての前記特性量の相互関係に基づいて、前記第1と
第2の移動物体領域の対応関係を判定する対応関係判定
手段とを備え、前記特性量が、前記第1と第2の移動物
体領域の相対距離のほかに、少なくとも、前記第1と第
2の移動物体領域のそれぞれの空間サイズの相対関係
と、前記第1と第2の移動物体領域の光学的性質の相対
関係とのうちの一方を含むので、定量的、且つ、精度の
高いマッピング処理が可能となる。
According to a third aspect of the present invention, in the intruder monitoring system according to the first aspect, the intruder determining means includes a first moving object area in the reference frame and a second moving object area in the current frame. A characteristic amount calculating unit configured to calculate a predetermined type of characteristic amount with respect to the moving object region; and the first and second characteristic amounts based on a correlation between the characteristic amounts with respect to each of the first and second moving object regions. Correspondence determination means for determining the correspondence between the moving object regions, wherein the characteristic amount is at least the first and second movements in addition to the relative distance between the first and second moving object regions. Since it includes one of the relative relationship between the space sizes of the object regions and the relative relationship between the optical properties of the first and second moving object regions, a quantitative and highly accurate mapping process is performed. It can become.

【0072】また、請求項4記載の発明は、請求項3記
載の侵入者監視システムにおいて、前記侵入者判定手段
が、さらに、前記対応関係判定手段によって、各移動物
体領域の時間的連鎖を特定する連鎖特定手段と、前記時
間的連鎖において、前記移動物体領域の移動の連続性と
直進性とをパラメータとして、当該時間的連鎖が侵入者
に相当するものであるか否かを判定するマルチパラメー
タ型判定手段とを備えるので、誤検知を防止して精度の
高い侵入者判定を行うことを可能としている。特に、従
来は植物やカーテンの揺れ等を誤検知する傾向にあった
が、本アルゴリズムによればランダムな動きをして、直
進性のない移動物体領域を侵入者とは判断しないので、
侵入者判定の精度向上が図れる。
According to a fourth aspect of the present invention, in the intruder monitoring system according to the third aspect, the intruder determining means further specifies a time sequence of each moving object area by the correspondence determining means. And a multi-parameter for determining whether or not the temporal sequence is equivalent to an intruder by using the continuity and straightness of movement of the moving object area as parameters in the temporal sequence. With the provision of the type determination means, it is possible to prevent erroneous detection and perform highly accurate intruder determination. In particular, in the past, there was a tendency to erroneously detect swaying of plants and curtains, etc., but according to this algorithm, it makes a random movement and does not judge a moving object area without straightness as an intruder,
The accuracy of intruder determination can be improved.

【0073】また、請求項5記載の発明は、請求項1な
いし請求項4のいずれかに記載の侵入者監視システムに
おいて、さらに、過去の複数の連続フレームにおける共
通の背景領域を抽出する手段と、前記複数の連続フレー
ムに共通の背景領域以外の局所的画像情報を、各フレー
ムにおける前記共通背景領域の画像情報を用いて正規化
する手段と、正規化された共通の背景領域以外の画像情
報の分散が所定の値より下回る場合に、前記カレントフ
レームを新たなリファレンスフレームとして更新するの
で、侵入者がいないにも関わらず輝度変化が生じている
ためにリファレンスフレームの更新がされないといった
問題を解決できた。また、侵入者を含まないフレームを
安定して判別し、リファレンスフレームを更新すること
が可能となった。さらに、共通背景領域のみにおいて時
間方向の輝度分散を求めるため、全領域を対象とする場
合よりも計算量を削減でき処理の効率化が図れる。
According to a fifth aspect of the present invention, there is provided the intruder monitoring system according to any one of the first to fourth aspects, further comprising means for extracting a common background area in a plurality of past consecutive frames. Means for normalizing local image information other than the background area common to the plurality of continuous frames by using the image information of the common background area in each frame; and image information other than the normalized common background area. When the variance is smaller than a predetermined value, the current frame is updated as a new reference frame. This solves the problem that the reference frame is not updated because a luminance change has occurred even though there is no intruder. did it. Further, it is possible to stably determine a frame that does not include an intruder and update the reference frame. Furthermore, since the luminance variance in the time direction is obtained only in the common background area, the amount of calculation can be reduced and the processing efficiency can be improved as compared with the case where the entire area is targeted.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る侵入者監視システムの全体フロー
チャートである。
FIG. 1 is an overall flowchart of an intruder monitoring system according to the present invention.

【図2】移動物体領域の抽出処理フローを示す図であ
る。
FIG. 2 is a diagram showing a flow of a moving object area extraction process.

【図3】背景領域の抽出処理フローを示す図である。FIG. 3 is a diagram illustrating a flow of a background region extraction process.

【図4】フレーム差分抽出処理フローを示す図である。FIG. 4 is a diagram showing a frame difference extraction processing flow.

【図5】マスク抽出用しきい値決定フローを示す図であ
る。
FIG. 5 is a diagram showing a mask extraction threshold value determination flow.

【図6】入力データであるリファレンスフレームとカレ
ントフレームに対して移動物体領域が抽出されるまでに
作用する手段を表す図である。
FIG. 6 is a diagram illustrating a unit that operates until a moving object region is extracted from a reference frame and a current frame that are input data.

【図7】移動物体領域のマッピングに用いられる要素を
示す図である。
FIG. 7 is a diagram showing elements used for mapping a moving object area.

【図8】(a)は1フレーム前のマスク、(b)はカレ
ントフレームのマスクを示す一実施例図である。
FIG. 8A is an embodiment diagram showing a mask of one frame before, and FIG. 8B is a diagram showing a mask of a current frame.

【図9】(a)は1フレーム前のマスクの属性データ、
(b)はカレントフレームのマスクの属性を示す図であ
る。
FIG. 9A shows attribute data of a mask one frame before,
(B) is a diagram showing the attributes of the mask of the current frame.

【図10】マッピング処理フローを示す図である。FIG. 10 is a diagram showing a mapping processing flow.

【図11】侵入判定処理に用いられる要素を示す図であ
る。
FIG. 11 is a diagram showing elements used for intrusion determination processing.

【図12】侵入判定処理フローを示す図である。FIG. 12 is a diagram illustrating a flow of an intrusion determination process.

【図13】パラメータ計算フローを示す図である。FIG. 13 is a diagram showing a parameter calculation flow.

【図14】過去連続フレームにおけるマスクの移動状態
を示す図である。
FIG. 14 is a diagram illustrating a moving state of a mask in a past continuous frame.

【図15】リファレンス更新判定処理フローを示す図で
ある。
FIG. 15 is a diagram showing a reference update determination processing flow.

【図16】リファレンス更新判定処理において、共通の
背景領域に対して行われる画像処理を示す図である。
FIG. 16 is a diagram illustrating image processing performed on a common background area in reference update determination processing.

【図17】本発明に係る侵入監視システムにおいて、入
力されたリファレンスフレームとカレントフレームの画
像及び前処理後の状態を示す図である。
FIG. 17 is a diagram showing an image of an input reference frame and a current frame and a state after preprocessing in the intrusion monitoring system according to the present invention.

【図18】本発明に係る侵入監視システムにおいて生成
されるフレーム差分、移動物体領域等を示す図である。
FIG. 18 is a diagram showing a frame difference, a moving object area, and the like generated in the intrusion monitoring system according to the present invention.

【図19】侵入者監視システムの全体図である。FIG. 19 is an overall view of an intruder monitoring system.

【符号の説明】[Explanation of symbols]

Me フレーム差分 TH マスク抽出用しきい値 y0 リファレンスフレーム y0B リファレンスフレームのブロック単位での輝度 y1 カレントフレーム y1B カレントフレームのブロック単位での輝度 Me Frame difference TH Mask extraction threshold value y0 Reference frame y0B Luminance in block units of reference frame y1 Current frame y1B Luminance in block units of current frame

フロントページの続き Fターム(参考) 5B057 AA19 BA30 DA08 DA15 DB02 DB09 DC03 DC06 DC08 DC14 DC19 DC33 DC36 5C054 AA01 CC03 CG06 FC12 FF02 FF06 HA18 5C084 AA02 AA07 AA14 BB05 BB32 CC17 DD11 EE01 GG41 GG43 GG52 GG56 GG57 GG78 HH12 5L096 BA02 CA04 DA03 EA12 FA32 FA33 FA35 FA52 FA59 FA60 FA62 FA66 FA67 GA08 GA10 GA19 GA34 GA51 Continued on front page F-term (reference) 5B057 AA19 BA30 DA08 DA15 DB02 DB09 DC03 DC06 DC08 DC14 DC19 DC33 DC36 5C054 AA01 CC03 CG06 FC12 FF02 FF06 HA18 5C084 AA02 AA07 AA14 BB05 BB32 CC17 DD11 EE01 GG41 GG6 GG43 GG41 GG43 GG43 GG43 GG41 DA03 EA12 FA32 FA33 FA35 FA52 FA59 FA60 FA62 FA66 FA67 GA08 GA10 GA19 GA34 GA51

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 撮像手段によってフレーム単位で得られ
た画像に基づいて、前記撮像手段で撮像した空間範囲へ
の侵入者を監視するシステムであって、 (a) 前記撮像手段による撮像結果のうち、基準となる
リファレンスフレームと、逐次更新されるカレントフレ
ームとの画像情報の差分であるフレーム差分を算出する
フレーム差分検出手段と、 (b) 前記カレントフレームの更新毎に、前記リファレ
ンスフレームと前記カレントフレームとの画像情報の差
分に応じてマスク抽出用しきい値を決定するしきい値決
定手段と、 (c) 前記フレーム差分が前記マスク抽出用しきい値を
越える領域を移動物体領域と判定する移動物体判定手段
と、 (d) 前記移動物体領域の情報に基づいて侵入者の判定
を行う侵入者判定手段と、 を備えることを特徴とする侵入者監視システム。
1. A system for monitoring an intruder in a space range imaged by an image capturing means based on an image obtained in frame units by an image capturing means, wherein: A frame difference detecting means for calculating a frame difference that is a difference between image information of a reference frame serving as a reference and a sequentially updated current frame; (b) for each update of the current frame, the reference frame and the current Threshold value determining means for determining a mask extraction threshold value according to the difference between the image information and the frame; and (c) determining a region where the frame difference exceeds the mask extraction threshold value as a moving object region. An intruder comprising: a moving object determining unit; and (d) an intruder determining unit that determines an intruder based on the information of the moving object region. Monitoring system.
【請求項2】 請求項1記載の侵入者監視システムにお
いて、 前記フレーム差分検出手段が、 (a-1) 前記リファレンスフレームと前記カレントフレ
ームとのそれぞれについて背景領域を検出する背景検出
手段と、 (a-1) 前記リファレンスフレームと前記カレントフレ
ームとのそれぞれについて、それぞれの局所的画像情報
を前記背景領域の画像情報の平均値を用いて正規化し、
それによって正規化リファレンスフレームと正規化カレ
ントフレームとを得る正規化手段と、 (a-3) 前記正規化リファレンスフレームと前記正規化
カレントフレームとの差分として前記差分フレームを得
る手段と、を備えることを特徴とする侵入者監視システ
ム。
2. The intruder monitoring system according to claim 1, wherein the frame difference detecting means includes: (a-1) a background detecting means for detecting a background area for each of the reference frame and the current frame; a-1) For each of the reference frame and the current frame, normalize each local image information using an average value of the image information of the background region,
Normalizing means for obtaining a normalized reference frame and a normalized current frame thereby; and (a-3) means for obtaining the difference frame as a difference between the normalized reference frame and the normalized current frame. Intruder monitoring system characterized by the following.
【請求項3】 請求項1記載の侵入者監視システムにお
いて、 前記侵入者判定手段が、 (d-1) 前記リファレンスフレームにおける第1の移動
物体領域と、前記カレントフレームにおける第2の移動
物体領域とについて所定の種類の特性量を算出する特性
量算出手段と、 (d-2) 前記第1と第2の移動物体領域のそれぞれにつ
いての前記特性量の相互関係に基づいて、前記第1と第
2の移動物体領域の対応関係を判定する対応関係判定手
段と、を備え、 前記特性量が、 前記第1と第2の移動物体領域の相対距離のほかに、 少なくとも、 前記第1と第2の移動物体領域のそれぞれの空間サイズ
の相対関係と、 前記第1と第2の移動物体領域の光学的性質の相対関係
と、 のうちの一方を含むことを特徴とする侵入者監視システ
ム。
3. The intruder monitoring system according to claim 1, wherein the intruder determining means comprises: (d-1) a first moving object area in the reference frame and a second moving object area in the current frame. And (d-2) the first and second moving object regions based on a mutual relationship between the characteristic amounts. A correspondence determination unit that determines a correspondence between the second moving object regions, wherein the characteristic amount is at least the first and second in addition to the relative distance between the first and second moving object regions. An intruder surveillance system comprising: one of: a relative relationship between spatial sizes of two moving object regions; and a relative relationship between optical properties of the first and second moving object regions.
【請求項4】 請求項3記載の侵入者監視システムにお
いて、 前記侵入者判定手段が、さらに、 (d-3) 前記対応関係判定手段によって、各移動物体領
域の時間的連鎖を特定する連鎖特定手段と、 (d-4) 前記時間的連鎖において、 前記移動物体領域の移動の連続性と直進性とをパラメー
タとして、当該時間的連鎖が侵入者に相当するものであ
るか否かを判定するマルチパラメータ型判定手段と、を
備えることを特徴とする侵入者監視システム。
4. The intruder monitoring system according to claim 3, wherein said intruder determination means further comprises: (d-3) a chain specification for specifying a time chain of each moving object area by said correspondence relation determination means. Means, (d-4) in the time sequence, using the continuity and straightness of movement of the moving object area as parameters, to determine whether or not the time sequence is equivalent to an intruder. And a multi-parameter type determining means.
【請求項5】 請求項1ないし請求項4のいずれかに記
載の侵入者監視システムにおいて、 さらに、 (e) 過去の複数の連続フレームにおける共通の背景領
域を抽出する手段と、 (f) 前記複数の連続フレームに共通の背景領域以外の
局所的画像情報を、各フレームにおける前記共通背景領
域の画像情報を用いて正規化する手段と、 (g) 前記正規化された共通の背景領域以外の画像情報
の分散が所定の値より下回る場合に、前記カレントフレ
ームを新たなリファレンスフレームとして更新すること
を特徴とする侵入者監視システム。
5. The intruder monitoring system according to claim 1, further comprising: (e) means for extracting a common background area in a plurality of past consecutive frames; Means for normalizing local image information other than the background area common to a plurality of continuous frames using the image information of the common background area in each frame, and (g) means other than the normalized common background area other than the common background area. When the variance of the image information falls below a predetermined value, the intruder monitoring system updates the current frame as a new reference frame.
JP2000143551A 2000-05-16 2000-05-16 Intruder monitoring system Expired - Lifetime JP4789223B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000143551A JP4789223B2 (en) 2000-05-16 2000-05-16 Intruder monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000143551A JP4789223B2 (en) 2000-05-16 2000-05-16 Intruder monitoring system

Publications (2)

Publication Number Publication Date
JP2001325672A true JP2001325672A (en) 2001-11-22
JP4789223B2 JP4789223B2 (en) 2011-10-12

Family

ID=18650355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000143551A Expired - Lifetime JP4789223B2 (en) 2000-05-16 2000-05-16 Intruder monitoring system

Country Status (1)

Country Link
JP (1) JP4789223B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004079681A1 (en) * 2003-03-07 2004-09-16 Quality Labs. Corporation Monitor unit
JP2006203444A (en) * 2005-01-19 2006-08-03 Inc Corp Background image formation device and program
JP2007140718A (en) * 2005-11-16 2007-06-07 Nippon Telegr & Teleph Corp <Ntt> Unique video detection device, unique video detection method and program
JPWO2006085500A1 (en) * 2005-02-09 2008-06-26 松下電器産業株式会社 Surveillance camera device, surveillance system using the same, and surveillance image transmission method
JP2008197866A (en) * 2007-02-13 2008-08-28 Mitsubishi Electric Corp Intruder detector
JP2009002914A (en) * 2007-06-25 2009-01-08 Nippon Telegr & Teleph Corp <Ntt> Facility disaster monitoring device and facility disaster monitoring method
KR100950734B1 (en) 2003-05-13 2010-03-31 엘지전자 주식회사 Automatic Recognition Method of Abnormal Status at Home Surveillance System and Internet Refrigerator
JP2011004353A (en) * 2009-06-22 2011-01-06 Canon Inc Image processing apparatus, and image processing method
US8045757B2 (en) 2006-06-15 2011-10-25 Sony Corporation Image monitoring system and object area tracking method
CN111882550A (en) * 2020-07-31 2020-11-03 上海眼控科技股份有限公司 Hail detection method, hail detection device, computer equipment and readable storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05205175A (en) * 1992-01-24 1993-08-13 Hitachi Ltd Body detection device
JPH06274625A (en) * 1993-03-18 1994-09-30 Toshiba Corp Moving object tracking method for monitor image
JPH06290255A (en) * 1993-03-31 1994-10-18 Ohkura Electric Co Ltd Moving vector detecting method for image
JPH08106534A (en) * 1994-10-06 1996-04-23 Hitachi Ltd Movable object detector
JPH09319978A (en) * 1996-05-31 1997-12-12 Hitachi Ltd Intrusion body monitor device
JPH1021408A (en) * 1996-07-04 1998-01-23 Canon Inc Device and method for extracting image
JPH10187996A (en) * 1996-12-24 1998-07-21 Nec Corp Method and device for generating background image

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05205175A (en) * 1992-01-24 1993-08-13 Hitachi Ltd Body detection device
JPH06274625A (en) * 1993-03-18 1994-09-30 Toshiba Corp Moving object tracking method for monitor image
JPH06290255A (en) * 1993-03-31 1994-10-18 Ohkura Electric Co Ltd Moving vector detecting method for image
JPH08106534A (en) * 1994-10-06 1996-04-23 Hitachi Ltd Movable object detector
JPH09319978A (en) * 1996-05-31 1997-12-12 Hitachi Ltd Intrusion body monitor device
JPH1021408A (en) * 1996-07-04 1998-01-23 Canon Inc Device and method for extracting image
JPH10187996A (en) * 1996-12-24 1998-07-21 Nec Corp Method and device for generating background image

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004079681A1 (en) * 2003-03-07 2004-09-16 Quality Labs. Corporation Monitor unit
KR100950734B1 (en) 2003-05-13 2010-03-31 엘지전자 주식회사 Automatic Recognition Method of Abnormal Status at Home Surveillance System and Internet Refrigerator
JP2006203444A (en) * 2005-01-19 2006-08-03 Inc Corp Background image formation device and program
JP4596929B2 (en) * 2005-01-19 2010-12-15 株式会社インク Background image generation apparatus and background image generation program
JPWO2006085500A1 (en) * 2005-02-09 2008-06-26 松下電器産業株式会社 Surveillance camera device, surveillance system using the same, and surveillance image transmission method
JP2007140718A (en) * 2005-11-16 2007-06-07 Nippon Telegr & Teleph Corp <Ntt> Unique video detection device, unique video detection method and program
JP4641492B2 (en) * 2005-11-16 2011-03-02 日本電信電話株式会社 Singular image detection device, singular image detection method and program
US8045757B2 (en) 2006-06-15 2011-10-25 Sony Corporation Image monitoring system and object area tracking method
JP2008197866A (en) * 2007-02-13 2008-08-28 Mitsubishi Electric Corp Intruder detector
JP2009002914A (en) * 2007-06-25 2009-01-08 Nippon Telegr & Teleph Corp <Ntt> Facility disaster monitoring device and facility disaster monitoring method
JP2011004353A (en) * 2009-06-22 2011-01-06 Canon Inc Image processing apparatus, and image processing method
CN111882550A (en) * 2020-07-31 2020-11-03 上海眼控科技股份有限公司 Hail detection method, hail detection device, computer equipment and readable storage medium

Also Published As

Publication number Publication date
JP4789223B2 (en) 2011-10-12

Similar Documents

Publication Publication Date Title
US6754367B1 (en) Method and apparatus for automatically detecting intrusion object into view of image pickup device
KR100601933B1 (en) Method and apparatus of human detection and privacy protection method and system employing the same
KR100659781B1 (en) Smoke Detecting Method and System using CCD Image
US7660439B1 (en) Method and system for flow detection and motion analysis
JP3423861B2 (en) Method and apparatus for monitoring a moving object
US20060056702A1 (en) Image processing apparatus and image processing method
EP2549759B1 (en) Method and system for facilitating color balance synchronization between a plurality of video cameras as well as method and system for obtaining object tracking between two or more video cameras
JP2001357484A (en) Road abnormality detector
WO2005036456A2 (en) Method and apparatus for foreground segmentation of video sequences
KR20160089165A (en) System and Method for Detecting Moving Objects
JP3486229B2 (en) Image change detection device
JP2001325672A (en) Invader monitoring system
CN111582166B (en) Method for detecting remnants based on Gaussian modeling and YoLo V3 target detection
JP2010015469A (en) Still area detection method, and apparatus, program and recording medium therefor
CN111259723A (en) Action recognition device and action recognition method
JP4926602B2 (en) Smoke detector
JP7125843B2 (en) Fault detection system
JPH09293141A (en) Mobile object detection device
JPH07249128A (en) Picture processor for vehicle
JP3736836B2 (en) Object detection method, object detection apparatus, and program
JP2000023141A (en) Moving object monitoring device
JP2005018565A (en) Image monitoring device
JP2002032759A (en) Monitor
Wang et al. A dynamic Hidden Markov Random Field Model for foreground and shadow segmentation
KR20030018487A (en) Method and apparatus for counting the number of entering people at the gate using image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070510

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100629

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110715

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140729

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4789223

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term