JPH11203567A - Image processor for monitor - Google Patents

Image processor for monitor

Info

Publication number
JPH11203567A
JPH11203567A JP10004854A JP485498A JPH11203567A JP H11203567 A JPH11203567 A JP H11203567A JP 10004854 A JP10004854 A JP 10004854A JP 485498 A JP485498 A JP 485498A JP H11203567 A JPH11203567 A JP H11203567A
Authority
JP
Japan
Prior art keywords
area
processing means
image
feature
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10004854A
Other languages
Japanese (ja)
Other versions
JP3986643B2 (en
Inventor
Kenichi Shinbou
健一 新房
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP00485498A priority Critical patent/JP3986643B2/en
Publication of JPH11203567A publication Critical patent/JPH11203567A/en
Application granted granted Critical
Publication of JP3986643B2 publication Critical patent/JP3986643B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor for a monitor to reduce unnecessary detection and to surely alarm on a normal object. SOLUTION: This image processor is provided with a background difference extracting part 6 to compare data of the present image of an image of a district to be monitored with background image data and to extract a multilevel variation area equivalent to a mobile object in the image, a featured value calculating part 9 to calculate a prescribed featured value to indicate features of the variation area, a featured value of object to be alarmed storage part 10 to store a featured value parameter as a range of set value of the featured value of the prescribed object to be alarmed, a recognition processing means 11 to recognize that the featured value at the featured value calculating part is suitable for that of the normal object to be alarmed based on the featured value parameter, an alarm processing means 13 to raise an alarm according to recognition and a most frequent object to be alarmed discrimination and processing means 14 to discriminate the most frequent object to be alarmed with high occurrence frequency among the objects to be alarmed from states of occurrence distribution and to correct a center value of the featured value parameter in the featured value of object to be alarmed storage part to be equal to the center value of the featured value of the most frequent object to be alarmed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、テレビカメラ等
で得た画像をもとに監視を行う監視用画像処理装置に関
するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a monitoring image processing apparatus for monitoring based on images obtained by a television camera or the like.

【0002】[0002]

【従来の技術】図11は従来のこの種の監視用画像処理
装置の構成を示す図である。図において、1はこの監視
用画像処理装置で処理される映像を受けるビデオ入力
部、2はビデオ入力部1から入る映像を量子化するA/
Dコンバータ等からなるA/D変換部、3はA/D変換
部2からの出力を受け現在の映像データを記憶する現画
像蓄積部、4はA/D変換部2からの出力を受け相応の
演算を行い作成した、比較用の“背景画像”を記憶する
背景画像蓄積部、5は背景画像蓄積部4のデータを一定
ルールで演算し“背景更新”する背景更新部である。例
えば、過去5枚の現画像の平均を背景画像とする。
2. Description of the Related Art FIG. 11 is a diagram showing the configuration of a conventional monitoring image processing apparatus of this type. In the figure, reference numeral 1 denotes a video input unit which receives a video processed by the monitoring image processing apparatus, and 2 denotes an A / A which quantizes a video input from the video input unit 1.
An A / D converter, such as a D converter, 3 is a current image storage unit that receives the output from the A / D converter 2 and stores the current video data, and 4 receives the output from the A / D converter 2. The background image storage unit 5 that stores the "background image" for comparison, which is created by performing the above calculation, is a background update unit that calculates the data of the background image storage unit 4 according to a certain rule and performs "background update". For example, the average of the past five current images is set as a background image.

【0003】6は現画像蓄積部3と背景画像蓄積部4の
2つの画像を比較し、その差分即ち“背景差分”データ
を算出する背景差分抽出部、7は背景差分抽出部6のデ
ータを2値化するためのしきい値を算出するしきい値演
算部である。“背景差分”データを元に最適しきい値を
求めるのが一般的である。8はしきい値演算部7で求め
たしきい値で“背景差分”データを2値化する2値化部
である。
[0003] Reference numeral 6 denotes a background difference extracting unit that compares the two images of the current image storing unit 3 and the background image storing unit 4 and calculates the difference, that is, "background difference" data. This is a threshold value calculation unit that calculates a threshold value for binarization. In general, an optimum threshold value is obtained based on "background difference" data. Reference numeral 8 denotes a binarizing unit for binarizing "background difference" data with a threshold value obtained by the threshold value calculating unit 7.

【0004】9は2値化部8から出力される2値データ
を受け、その“特徴量”を算出する特徴量演算部、10
は“正規発報対象”(例えば人物、車両等)の“特徴量パ
ラメータ”を予め記憶した発報対象特徴量記憶部てあ
る。11は特徴量演算部9から出力される“特徴量”デ
ータと、発報対象特徴量記憶部10の“特徴量パラメー
タ”を比較し、“イベント”発生か否かを判断する認識
処理手段、12は“イベント”発見を知らせる通知であ
る。13は通知12を受け発報(例えばBEEP音等)す
る発報処理手段ある。
[0004] Reference numeral 9 denotes a feature value calculating unit which receives the binary data output from the binarizing unit 8 and calculates a "feature value" of the binary data.
Is an alerting target feature amount storage unit that stores in advance “feature amount parameters” of “regular alerting targets” (for example, persons, vehicles, etc.). 11 is a recognition processing means for comparing “feature value” data output from the feature value calculation unit 9 with “feature value parameter” of the notification target feature value storage unit 10 to determine whether or not “event” has occurred; Reference numeral 12 denotes a notification for notifying the discovery of an "event". Reference numeral 13 denotes an alarm processing unit that receives the notification 12 and issues an alarm (for example, a BEEP sound).

【0005】また図12は図11の認識処理手段11の
動作をさらに詳細に示したフローチャートである。
FIG. 12 is a flowchart showing the operation of the recognition processing means 11 of FIG. 11 in more detail.

【0006】以下、従来の動作について代表的な例を説
明する。図11において、外部から装置に与えられた映
像信号はビデオ入力部1で受け取り、A/D変換部2に
送られる。A/D変換部2では受け取ったビデオ信号を
後の処理のためにディジタルデータに変換する。1画素
当たり8ビットの多値データに変換するのが一般的であ
る。
Hereinafter, a typical example of the conventional operation will be described. In FIG. 11, a video signal externally supplied to the device is received by a video input unit 1 and sent to an A / D conversion unit 2. The A / D converter 2 converts the received video signal into digital data for subsequent processing. It is common to convert to 8-bit multi-value data per pixel.

【0007】現画像蓄積部3では入力された現画像デー
タを蓄積し後の処理に備える。背景画像蓄積部4では入
力された現画像データを元に作成された“背景画像”を
蓄積し後の処理に備える。背景更新部5では、背景画像
蓄積部4に蓄積してある背景画像を定期的に一定ルール
で“背景更新”処理する。これは定期的にサンプリング
された現画像を元に演算処理されるのが一般で、例えば
過去5シーンの現画像の平均値を背景画像とする方法
や、一定時間前のフレームの映像である場合が多い。
The current image storage section 3 stores the input current image data and prepares for the subsequent processing. The background image storage unit 4 stores a “background image” created based on the input current image data and prepares for subsequent processing. The background updating unit 5 periodically performs a "background updating" process on the background images stored in the background image storing unit 4 according to a certain rule. This is generally calculated based on the current image that is periodically sampled. For example, when the background image is an average value of the current images of the past five scenes, or when the image is a frame image a predetermined time ago. There are many.

【0008】背景差分抽出部6は現画像蓄積部3および
背景画像蓄積部4の出力を比較し、各画素毎に差を求
め、その差である差分データをフレーム画像として出力
する。差分データは一般的には映像中の輝度の変化した
部分、即ち“多値変化領域”を表す。通常は人物や車両
のような移動物が主であるが、まれに「太陽光の照り陰
りによる影の出現」や「夜間の車のヘッドライトの反
射」のような、非発報対象の輝度変化を出力する場合も
ある。
The background difference extracting section 6 compares the outputs of the current image storing section 3 and the background image storing section 4, finds a difference for each pixel, and outputs the difference data as a frame image. The difference data generally represents a portion of the video where the luminance has changed, that is, a “multi-value change area”. Normally, moving objects such as people and vehicles are mainly used, but in rare cases, the brightness of non-reporting targets such as "appearance of shadows caused by the shadows of sunlight" and "reflection of headlights of cars at night". It may output a change.

【0009】しきい値演算部7は背景差分抽出部6から
送られる“多値変化領域”を2値化するためのしきい値
を求める。“多値変化領域”多値データであり、そのま
ま認識処理するには不的確である。以降の判断を高速に
行うためにも2値化して2値データに変換するのが一般
的である。2値化部8は上記しきい値をもって多値変化
領域を2値化する。その結果、以降、変化領域は“2値
変化領域となる。ただし装置によってはこの2値化を行
わずに直接“多値変化領域”を認識処理する場合がある
ので、ここは参考である。
A threshold calculator 7 calculates a threshold for binarizing the “multi-value change area” sent from the background difference extractor 6. The “multi-value change area” is multi-value data, and is not appropriate for recognition processing as it is. In general, binarization and conversion into binary data are also performed in order to make subsequent determinations at high speed. The binarizing unit 8 binarizes the multi-value change area using the threshold value. As a result, hereafter, the change area becomes a “binary change area. However, depending on the device, the“ multi-value change area ”may be directly recognized and processed without performing this binarization, so this is a reference.

【0010】図13を例にこの“変化領域”について説
明する。図13は通常の正門の映像である。今、人物が
画像内を移動している。この場合、移動している人物の
位置がそのまま“変化領域”となる。図14が、その
“変化領域”を黒く染めたスーパーインポーズを重複さ
せて示した映像である。
The "change area" will be described with reference to FIG. FIG. 13 is an image of a normal main gate. Now, a person is moving in the image. In this case, the position of the moving person becomes the “change area” as it is. FIG. 14 is an image in which the superimposition in which the “change area” is dyed black is overlapped.

【0011】特徴量演算部9は、入力された“変化領域
データ”を受け、その“変化領域“の“特徴量”を演算
する。今、例としてこの“特徴量”「面積」「縦横寸
法」「速度」とする。発報対象特徴量記憶部10には、
この装置が“正規発報対象”としている対象物(例えば
人物や車両)の特徴量が予め記憶されている。
The feature value calculating section 9 receives the input "change area data" and calculates the "feature value" of the "change area". Now, as an example, the “feature amount”, “area”, “length and width”, and “speed” are used. The notification target feature amount storage unit 10 includes:
The feature amount of an object (for example, a person or a vehicle) which is set as a “genuine alarm target” by this device is stored in advance.

【0012】認識処理手段11は特徴量演算部9からの
“特徴量”データを受け、その“特徴量”が発報対象特
徴量記憶部10に記憶されている発報対象の“特徴量パ
ラメータ”に合致しているか否かの判断を行う。近似し
ていると判断されれば、“イベント”発見となり、その
通知12を出力する。
The recognition processing means 11 receives the “feature amount” data from the feature amount calculation unit 9, and the “feature amount” is stored in the notification target feature amount storage unit 10 for the “feature amount parameter” of the notification target. Is determined. If it is determined that they are close to each other, an “event” is found, and the notification 12 is output.

【0013】なお、“認識処理”では図12に示す以下
の手順で認識を行う。ただしここに示すのは一例であ
る。ステップS1の変化領域統合処理では、変化領域を
見て、同一の移動物に属すると思われる変化領域を統合
して1つの変化領域にまとめる。ステップS2〜S5で
は、ステップS1で統合された変化領域が、発報対象か
否かを判断する。ここでは予め定めてあった発報対象特
徴量記憶部10に記憶された“正規発報対象”の“特徴
量パラメータ”に対し、この“変化領域”の“特徴量”
が合致するかを判断する。ここで所定条件に合致すれ
ば、“正規発報対象”と見なされる。
In the "recognition process", recognition is performed according to the following procedure shown in FIG. However, this is only an example. In the change area integration processing in step S1, the change areas are observed, and the change areas that are considered to belong to the same moving object are integrated and combined into one change area. In steps S2 to S5, it is determined whether or not the change area integrated in step S1 is an alert target. Here, the "feature value" of the "change area" is compared with the "feature value parameter" of the "normal notification target" stored in the predetermined notification target feature value storage unit 10.
Judge whether or not matches. Here, if a predetermined condition is met, it is regarded as “a regular alarm target”.

【0014】ここでは、例として以下のような判断を行
う。ステップS2では、“変化領域”が一定時間連続で
存在するかを見る。ステップS3では、“変化領域”が
所定の面積であるか否かを見る。ステップS4では、
“変化領域”が所定の縦横寸法か否かを見る。そしてス
テップS5では、“変化領域”が所定の移動速度か否か
を見る。「面積」「縦横寸法」「移動速度」は、ステッ
プS2にある一定時間中の平均を算出して参照されるの
が一般的である。
Here, the following judgment is made as an example. In step S2, it is determined whether the "change area" exists continuously for a certain period of time. In step S3, it is determined whether or not the “change area” has a predetermined area. In step S4,
It is checked whether the “change area” has a predetermined vertical and horizontal dimension. Then, in a step S5, it is checked whether or not the "change area" has a predetermined moving speed. The “area”, “length and width”, and “moving speed” are generally referred to by calculating an average during a certain time in step S2.

【0015】しかし逆に、ここに仮に“正規発報対象”
ではない全く別の物が現れても(例えば太陽光の照り陰
りによる建物の影の出現)ここで特徴量が合致すれば、
装置は“イベント”と判断し、そのまま誤った“発報”
に至る。このような、非発報対象による誤った発報を、
以降と“不要検知”とする。“不要検知”であれ正常検
知であれ、“イベント”はステップS6の発報対象発見
により図11の発報処理手段13に伝えられ、そこで
“発報”処理を行う。通常は、上位にあるPC(パーソ
ナルコンピュータ)等に特定の信号を送ったり、装置の
ブザーを鳴らしたりという処理である。
[0015] On the contrary, however, here, temporarily, "the subject of the regular alert"
Even if a completely different object appears (for example, the appearance of a shadow of a building due to the shade of sunlight), if the features match here,
The device determines that the event is an “event”
Leads to. Such false alarms by non-alarm targets,
Hereinafter, it is referred to as “unnecessary detection”. The “event”, whether “unnecessary detection” or normal detection, is transmitted to the alarm processing unit 13 in FIG. 11 by the alarm target discovery in step S6, where “alarm” processing is performed. Usually, it is a process of sending a specific signal to a PC (personal computer) or the like at an upper level, or sounding a buzzer of the apparatus.

【0016】条件に合致しない場合は、ステップS7で
発報対象は無かったと見なし、“イベント”の通知12
は出力されない。従ってこの場合は発報処理手段13は
なにも報告されないため、“発報”はされない。なお認
識処理手段11および発報処理手段13はソフトウエア
によって処理されるのが一般的である。
If the conditions are not met, it is determined in step S7 that there is no alarming target, and the "event" notification 12
Is not output. Therefore, in this case, the alarm processing means 13 does not report anything, so that no alarm is issued. Note that the recognition processing means 11 and the alert processing means 13 are generally processed by software.

【0017】[0017]

【発明が解決しようとする課題】従来の監視用画像処理
装置は以上のように構成されているので、“変化領域”
が仮に非発報対象(例えば太陽光の照り陰りによる建物
の影の出現等)によるものであっても、図12のステッ
プS1〜S5の条件に合致すると発報(不要検知)してし
まう。特に屋外において監視業務を行う際は、太陽光の
照り陰りによる建物の影の出現のほかに、夜間の車のヘ
ッドライトの反射や樹木の揺れ等(以降これらを不要対
象物とする)により不要検知が発生するケースが多い。
従来の監視用画像処理装置は以上のような問題点があっ
た。
Since the conventional monitoring image processing apparatus is configured as described above, the "change area"
Is a non-reporting target (for example, the appearance of a shadow of a building due to the shade of sunlight), a report is issued (unnecessary detection) if the conditions in steps S1 to S5 in FIG. 12 are met. Especially when conducting monitoring work outdoors, in addition to the appearance of shadows of buildings due to the shading of sunlight, reflection of headlights of cars at night and shaking trees (hereinafter referred to as unnecessary objects) are unnecessary In many cases, detection occurs.
The conventional monitoring image processing apparatus has the above problems.

【0018】この発明は、上記のような課題を解消する
ためになされたもので、このような正規発報対象の変化
領域に従い、特徴量パラメータや装置各所のアルゴリズ
ムを一定手法に従い更新し、より不要検知対象物による
不要検知を排他しやすくし、同時に、「人物」のような
正規発報対象に対しては確実に発報する監視用画像処理
装置を得ることを目的とする。
The present invention has been made to solve the above-described problem, and updates feature parameters and algorithms of various parts of the apparatus according to a constant method in accordance with such a change region of a normal alert target. It is an object of the present invention to obtain a monitoring image processing device that facilitates exclusion of unnecessary detection by an unnecessary detection target object and, at the same time, surely issues a notification to a regular notification target such as a “person”.

【0019】[0019]

【課題を解決するための手段】上記の目的に鑑み、この
発明は、監視対象地域の画像の現画像のデータを一時的
に記録する現画像蓄積部と、上記画像の背景画像データ
を記録する背景画像蓄積部と、上記現画像蓄積部の現画
像データを上記背景画像蓄積部の背景画像データと比較
し、画像内の移動物、変化物に当たる多値変化領域を差
分として抽出する背景差分抽出部と、上記変化領域の特
徴を示す所定の特徴量を演算する特徴量演算部と、予め
設定された発報対象の上記特徴量の設定値範囲である特
徴量パラメータを記憶する発報対象特徴量記憶部と、こ
の発報対象特徴量記憶部の特徴量パラメータに元づいて
上記特徴量演算部での特徴量が正規の発報対象のものに
該当することを認識する認識処理手段と、この認識処理
手段の認識に従って発報対象である時に発報を行う発報
処理手段と、上記発報対象のなかで発生頻度の高い最多
発報対象を発生分布の様子から他と識別し、上記発報対
象特徴量記憶部中の特徴量パラメータの中心値を上記最
多発報対象の特徴量の中心値に揃える補正を行う最多発
報対象識別処理手段と、を備えたことを特徴とする監視
用画像処理装置にある。
SUMMARY OF THE INVENTION In view of the above objects, the present invention provides a current image storage unit for temporarily recording the current image data of an image of a monitoring target area, and records background image data of the image. Background image storage unit, and background difference extraction for comparing the current image data of the current image storage unit with the background image data of the background image storage unit and extracting a multi-value change area corresponding to a moving object or a change object in the image as a difference. Unit, a feature value calculating unit that calculates a predetermined feature value indicating the feature of the change area, and a report target feature that stores a feature parameter which is a preset value range of the feature value of the report target. Quantity storage unit, and recognition processing means for recognizing that the feature amount in the feature amount calculation unit corresponds to a regular one to be issued based on the feature amount parameter of the notification target feature amount storage unit, According to the recognition of the recognition processing means, An alarm processing means for issuing an alarm when an alarm is to be issued; and a high-frequency alarm object having a high frequency of occurrence among the alarm targets is distinguished from the others based on a state of occurrence distribution. The most frequent report target identification processing means for correcting the central value of the feature value parameter in the central value to the central value of the feature value of the most frequent report target is provided.

【0020】またこの発明は、上記最多発報対象識別処
理手段がさらに、上記最多発報対象の上記特徴量のうち
ばらつきの大きいものを発生分布の様子から選別し、上
記発報対象特徴量記憶部中の該特徴量パラメータを設定
から除外するように補正を行うことを特徴とする監視用
画像処理装置にある。
Further, in the present invention, the most frequently reported object identification processing means further selects, from the distribution of occurrence, a feature amount of the most frequently reported object that has a large variation, and stores the most frequently reported object feature amount. The monitoring image processing apparatus is characterized in that correction is performed so as to exclude the characteristic amount parameter in the unit from setting.

【0021】またこの発明は、上記監視対象地域の映像
となるビデオ信号を入力するビデオ入力部と、最多発報
対象の特徴量のデータより無効な変化領域が多発する映
像上の領域を類推し、上記ビデオ入力部に対して映像の
該領域をマスクさせるようにするマスク範囲演算処理手
段と、をさらに備えた監視用画像処理装置にある。
Further, the present invention estimates a video input section for inputting a video signal serving as an image of the monitoring target area, and an area on the image in which invalid change areas frequently occur from data of the feature amount of the most frequently reported object. And a mask range calculation processing means for causing the video input unit to mask the area of the video.

【0022】またこの発明は、最多発報対象の多発する
映像上の領域を類推し、その領域のみを監視範囲とする
よう上記認識処理手段に指示する認識範囲演算処理手段
をさらに備えた監視用画像処理装置にある。
According to the present invention, there is provided a monitoring system further comprising a recognition range calculation processing means for estimating a region on a video which frequently occurs and which frequently occurs, and instructing the recognition processing unit to set only the region as a monitoring range. In the image processing device.

【0023】またこの発明は、上記認識処理手段が上記
正規の発報対象のものに該当するか否かの認識を行う前
に上記変化領域の統合を行い、領域統合後の面積に対す
る領域統合された各変化領域のうちの最大面積の変化領
域の面積の比率から領域統合の要否を類推し、上記認識
処理手段での変化領域の統合を禁止する領域統合演算処
理手段をさらに備えた監視用画像処理装置にある。
Further, the present invention performs the integration of the changed areas before the recognition processing means recognizes whether or not the information corresponds to the legitimate notification target, and performs the area integration with respect to the area after the area integration. The monitoring unit further includes an area integration operation processing unit that infers the necessity of area integration from the ratio of the area of the maximum area change area among the change areas, and prohibits the integration of the change areas by the recognition processing unit. In the image processing device.

【0024】[0024]

【発明の実施の形態】以下、この発明を各実施の形態に
従って説明する。 実施の形態1.図1はこの発明の一実施の形態による監
視用画像処理装置の構成を示す図である。図において、
従来のものと同一もしくは相当部分は同一符号で示し、
説明を省略する。14は“最多発報対象”を他から識別
する第1の最多発報対象識別処理手段である。15は第
1の最多発報対象識別処理手段14に補正実施を指示す
るトリガー入力である。発報対象特徴量記憶部10の特
徴量パラメータは最多発報対象識別処理手段14から通
知を受け、適宜更新される。第1の最多発報対象識別処
理手段14もソフトウエアによって処理されるのが一般
的である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below according to each embodiment. Embodiment 1 FIG. FIG. 1 is a diagram showing a configuration of a monitoring image processing apparatus according to an embodiment of the present invention. In the figure,
The same or equivalent parts as those of the conventional one are indicated by the same reference numerals,
Description is omitted. Reference numeral 14 denotes a first most-frequently-reported object identification processing unit that identifies the “most-frequently-reported object” from others. Reference numeral 15 denotes a trigger input for instructing the first most frequently reported object identification processing means 14 to perform correction. The feature parameter of the report target feature storage unit 10 receives a notification from the most frequently reported subject identification processing unit 14 and is updated as appropriate. In general, the first most frequently reported object identification processing means 14 is also processed by software.

【0025】図2は第1の最多発報対象識別処理手段1
4の動作を詳細に示したフローチャートである。また認
識処理手段11の動作は図12のフローチャートに示し
たものと基本的に同様である。
FIG. 2 shows the first most frequent notification target identification processing means 1.
4 is a flowchart showing the operation of FIG. 4 in detail. The operation of the recognition processing means 11 is basically the same as that shown in the flowchart of FIG.

【0026】次に動作について説明する。図1のビデオ
入力部1〜特徴量演算部9および認識処理手段11〜発
報処理手段13の動作は従来のものと基本的には同様で
あるため説明は省略する。イベント発生を知らせる通知
12を受け取った最多発報対象識別処理手段14は、そ
の時の特徴量を観察し“最多発報対象”の“特徴量”を
識別する。
Next, the operation will be described. The operations of the video input unit 1 to the feature amount calculation unit 9 and the recognition processing unit 11 to the notification processing unit 13 in FIG. Upon receiving the notification 12 indicating the occurrence of the event, the most frequently reported object identification processing means 14 observes the feature amount at that time and identifies the "feature amount" of the "most frequently reported object".

【0027】以下その挙動例を詳しく説明する。ただし
ここで説明するのは、“最多発報対象”の“特徴量”を
識別する一例である。また、“特徴量”の具体的内容
は、図12では“変化領域”の「存在時間」「面積」
「縦横寸法」「速度」等を記載しているが、ここでは説
明を簡単にするために、特に“特徴量パラメータ”の内
の「面積」に関してのみ説明する。しかし他の“特徴量
パラメータ”も手法は同様であり、同じように識別され
る。
Hereinafter, the behavior example will be described in detail. However, what is described here is an example of identifying the “feature amount” of the “most frequently reported object”. In FIG. 12, the specific contents of the “feature amount” are “existing time” and “area” of the “change area”.
Although “vertical and horizontal dimensions”, “velocity”, and the like are described, here, for simplicity, only the “area” in the “feature parameter” will be described. However, the method is the same for the other “feature parameter” and is identified in the same manner.

【0028】次に、最多発報対象識別処理手段14の動
作を図2に基づいて説明する。最多発報対象識別処理手
段14では、イベント発見の通知12を受け、ステップ
S1で発報時の面積値を参照(記憶)する。それはステッ
プS2でヒストグラムにプロットされる。このヒストグ
ラムは横軸が面積値であり、縦軸が個数である。補正実
施の指示がないときは、作業はこれで終了となる。ヒス
トグラムにプロットしたのみである。
Next, the operation of the most frequently reported object identification processing means 14 will be described with reference to FIG. Upon receiving the notification 12 of the event discovery, the most frequently reported target identification processing means 14 refers to (stores) the area value at the time of reporting in step S1. It is plotted in a histogram in step S2. In this histogram, the horizontal axis is the area value, and the vertical axis is the number. If there is no instruction to perform the correction, the operation ends here. Only plotted on histogram.

【0029】補正実施のトリガー入力15があるとき
は、ステップS3で分岐し、“最多発報対象”の面積を
算出する作業を行なう。具体的には、ステップS4にあ
る手順で行なう。ある面積値X、例えば図12のステッ
プS3で設定された面積に対し、それを中心にヒストグ
ラムの横軸の幅n(nは別途定められた定数)の範囲内で
個数の合計を求め、それが最大になる面積値Xを求め
る。その面積値Xが求める「“最多発報対象”の面積」
である。さらに「“最多発報対象”の面積」を平均値と
見なしてヒストグラム全体を統計処理すると標準偏差σ
が求まる。
If there is a trigger input 15 for performing the correction, the process branches at step S3 to perform an operation for calculating the area of the "most frequently reported object". Specifically, the procedure is performed according to the procedure in step S4. With respect to a certain area value X, for example, the area set in step S3 of FIG. 12, the total number of the areas is calculated within the range of the width n (n is a constant determined separately) of the horizontal axis of the histogram with the center as the center. The area value X at which is maximized is determined. The area value X determines the "area of the" most frequently reported object ""
It is. Furthermore, when the entire area of the histogram is statistically processed with the “area of“ most frequently reported ”” regarded as the average value, the standard deviation σ
Is found.

【0030】その結果はステップS5でそのまま発報対
象特徴量記憶部10に送られる。ここには、本来、“正
規発報対象”の“特徴量パラメータ”が記憶されている
わけであるが、この実施の形態では上記結果をもとにそ
れを補正する。“正規発報対象”の“特徴量パラメー
タ”の面積に関して、通常は「中心値」と「幅」で設定
されている。たとえば「面積=10000画素±100
0画素」のような設定である。補正は、この「中心値」
を上記で求めた「“最多発報対象”の面積」に差し替
え、また、「幅」も変更する場合には、「幅」を例えば
「“最多発報対象”の3σ」等に差し替えることにより
なされる。以上により“特徴量パラメータ”の更新が終
了する。
The result is directly sent to the feature quantity storage unit 10 at step S5. Here, the “feature parameter” of the “normal alarm target” is originally stored, but in this embodiment, it is corrected based on the above result. The area of the “feature amount parameter” of the “normal notification target” is usually set by “center value” and “width”. For example, “area = 10000 pixels ± 100
The setting is such as “0 pixel”. The correction is this "center value"
Is replaced with the “area of“ most frequently reported ”” obtained above, and when the “width” is also changed, the “width” is replaced with, for example, “3σ of“ most frequently reported ”” or the like. Done. Thus, the updating of the “feature parameter” is completed.

【0031】尚、以上では面積の一例を示したが、他の
“特徴量パラメータ”も同様である。“変化領域”の
「存在時間」「縦横寸法」「速度」等についても、同様
にヒストグラムを作成し、「“最多発報対象”の存在時
間」「“最多発報対象”の縦横寸法」「“最多発報対
象”の速度」等を求め「中心値」や「幅」を差し替える
作業を行う。
Although an example of the area has been described above, the same applies to other “feature amount parameters”. A histogram is similarly created for “existing time”, “vertical and horizontal dimensions”, “speed”, and the like of the “change area”, and “existing time of“ most frequently reported objects ”,“ vertically and horizontally dimension of “most frequently reported objects” ”,“ Find the "speed of the most frequently reported object", etc., and replace the "center value" and "width".

【0032】以上のように、この実施の形態によると、
補正実施の指示がある毎に“特徴量パラメータ”の値が
更新され、しかもその更新結果がその時点での「“最多
発報対象”」の物となり、結果として“特徴量パラメー
タ”が「“最多発報対象”」を追跡して更新されること
となる。これにより、“特徴量パラメータ”が徐々に
“最多発報対象”のみに反応するように修正される。
As described above, according to this embodiment,
Every time there is an instruction to perform the correction, the value of the “feature parameter” is updated, and the updated result is the “most frequently reported object” at that time. As a result, the “feature parameter” is changed to “ The most frequently reported object "" is tracked and updated. As a result, the “feature parameter” is modified so as to gradually respond to only the “most frequently reported object”.

【0033】例えば「面積」の更新により、例えば“正
規発報対象”が「人間」である場合に「車」のような面
積の大きな“不要検知対象物”に対し、誤ってイベント
と判断されにくくなる。また、例えば「存在時間」の更
新により、例えば正規発報対象が「人間」である場合に
「草木のゆれ」のような継続性のない“変化領域”しか
持たない“不要検知対象物”に対し誤ってイベントと判
断されにくくなる。
For example, when the “area” is updated, for example, when the “normal alarm target” is “human”, an “unnecessary detection target” having a large area such as “car” is erroneously determined to be an event. It becomes difficult. Also, for example, by updating the “existence time”, for example, when the normal notification target is “human”, the “unnecessary detection target” having only the “change area” having no continuity such as “shaking of the vegetation” is obtained. On the other hand, it is difficult to judge the event by mistake.

【0034】また例えば「縦横比」の更新により、例え
ば“正規発報対象”が「人間」である場合に「犬」のよ
うな横長の“不要検知対象物”に対し、誤ってイベント
と判断されにくくなる。また、例えば「速度」の更新に
より、例えば“正規発報対象”が「人間」である場合に
「自転車」のような速度の異なる“不要検知対象物”に
対し、誤ってイベントと判断されにくくなる。かつ“正
規発報対象”である人間に対しては、確実に発報する。
For example, when the "aspect ratio" is updated, for example, when the "normal notification target" is "human", a horizontally long "unnecessary detection target" such as "dog" is erroneously determined to be an event. It is hard to be done. Also, for example, by updating the “speed”, it is difficult for an “unnecessary detection target” having a different speed, such as “bicycle”, to be erroneously determined to be an event when the “regular notification target” is “human”. Become. In addition, an alarm is reliably issued to a person who is a “genuine alarm target”.

【0035】このように、“不要検知”を減少させると
同時に、“正規発報対象”にたいしては確実に発報しう
る装置を提供する。
As described above, there is provided an apparatus capable of reducing "unnecessary detection" and at the same time reliably issuing "regular notification target".

【0036】実施の形態2.図3はこの発明の別の実施
の形態による監視用画像処理装置の構成を示す図であ
る。図において、従来および上記実施の形態のものと同
一もしくは相当部分は同一符号で示し、説明を省略す
る。14aは発報対象に合わせ条件を決定する第2の最
多発報対象識別処理手段である。15は第2の最多発報
対象識別処理手段14aに補正実施を指示するトリガー
入力である。発報対象特徴量記憶部10の特徴量パラメ
ータは第2の最多発報対象識別処理手段14aから通知
を受け、適宜更新される。第2の最多発報対象識別処理
手段14aもソフトウエアによって処理されるのが一般
的である。
Embodiment 2 FIG. 3 is a diagram showing a configuration of a monitoring image processing apparatus according to another embodiment of the present invention. In the figure, the same or corresponding parts as those in the conventional and the above-described embodiments are denoted by the same reference numerals, and description thereof will be omitted. Reference numeral 14a denotes a second most-frequently-reported object identification processing means for determining conditions according to the reportable object. Reference numeral 15 denotes a trigger input for instructing the second most frequently-issued target identification processing means 14a to perform correction. The feature amount parameter of the notification target feature amount storage unit 10 receives a notification from the second most frequently reported target identification processing unit 14a and is updated as appropriate. Generally, the second most frequently-issued object identification processing means 14a is also processed by software.

【0037】図4は第2の最多発報対象識別処理手段1
4aの動作を詳細に示したフローチャートである。また
認識処理手段11の動作は図12のフローチャートに示
したものと基本的に同様である。
FIG. 4 shows the second most frequent notification target identification processing means 1.
4 is a flowchart showing the operation of FIG. 4a in detail. The operation of the recognition processing means 11 is basically the same as that shown in the flowchart of FIG.

【0038】次に動作について説明する。図1のビデオ
入力部1〜特徴量演算部9および認識処理手段11〜発
報処理手段13の動作は従来のものと基本的には同様で
あるため説明は省略する。イベント発生を知らせる通知
12を受け取った第2の最多発報対象識別処理手段14
aは、その時の“特徴量”を観察し、“最多発報対象”
の“特徴量パラメータ”の個々の内容の有効性を識別す
る。
Next, the operation will be described. The operations of the video input unit 1 to the feature amount calculation unit 9 and the recognition processing unit 11 to the notification processing unit 13 in FIG. The second most frequently reported subject identification processing means 14 which has received the notification 12 notifying that an event has occurred.
a observes the “feature amount” at that time, and “the most frequently reported object”
The validity of the individual contents of the “feature parameter” is identified.

【0039】以下その挙動例を詳しく説明する。ただし
ここで説明するのは、有効性を識別する一例である。ま
た、“特徴量パラメータ”の具体的内容は、図12では
“変化領域”の「存在時間」「面積」「縦横寸法」「速
度」等を記載しているが、ここでは説明を簡単にするた
め、特に“特徴量パラメータ”の内容の「面積」に関し
てのみ説明する。しかし他の“特徴量パラメータ”も手
法は同様であり、同じように識別される。
Hereinafter, an example of the behavior will be described in detail. However, what is described here is an example of identifying validity. The specific contents of the “feature parameter” include “existing time”, “area”, “length and width”, and “speed” of the “change area” in FIG. 12, but the description is simplified here. Therefore, only the “area” in the content of the “feature parameter” will be described. However, the method is the same for the other “feature parameter” and is identified in the same manner.

【0040】次に、最多発報対象識別処理手段14aの
動作を図4に基づいて説明する。最多発報対象識別処理
手段14aてば、先ずイベント発見の通知12を受け、
ステップS1で発報時の面積値を参照(記憶)する。その
値はステップS2でヒストグラムにプロットされる。こ
のヒストグラムは横軸が面積値であり、縦軸が個数であ
る。補正実施のトリガー入力15がないときは、作業は
これで終了となる。ヒストグラムにプロットしたのみで
ある。
Next, the operation of the most frequently reported object identification processing means 14a will be described with reference to FIG. If the most frequent notification target identification processing means 14a receives the notification 12 of the event discovery first,
In step S1, the area value at the time of alarm is referenced (stored). The values are plotted on a histogram in step S2. In this histogram, the horizontal axis is the area value, and the vertical axis is the number. If there is no trigger input 15 for performing the correction, the operation is completed. Only plotted on histogram.

【0041】補正実施のトリガー入力15があるとき
は、ステップS3で分岐し、“最多発報対象”の面積を
算出する作業を行なう。具体的には、ステップS4〜S
6にある手順で行なう。ある面積値Xに対し、それを中
心にヒストグラムの横軸の幅n(nは別途定められた定
数)の範囲内で個数の合計を求め、それが最大になる面
積値Xを求める。その面積値Xを「“最多発報対象”の
面積」とする。さらに「“最多発報対象”の面積」を平
均値と見なしてヒストグラム全体を統計処理すると標準
偏差σが求まる。
If there is a trigger input 15 for performing the correction, the process branches at step S3 to perform an operation of calculating the area of "the most frequently reported object". Specifically, steps S4 to S
6. Perform the procedure described in 6. With respect to a certain area value X, the total number of the area values is calculated within the range of the width n (n is a constant determined separately) of the horizontal axis of the histogram centered on the area value X, and the area value X that maximizes the number is calculated. The area value X is defined as “the area of“ the most frequently reported object ””. Furthermore, when the “area of“ most frequently reported ”” is regarded as an average value and the entire histogram is statistically processed, a standard deviation σ is obtained.

【0042】次にここで、「“最多発報対象”の平均値
とσ」を元にその「面積」の有効性無効性を検討する。
無効であるとの判断は、以下による。・「“最多発報対
象”の平均値」が明確に見つからなかった。複数の個所
で最大値が算出されたり、全体が均等で突出した部分が
無い。・「“最多発報対象”のσ」がm(mは別途定め
られた定数)を超えてしまった。その結果はそのまま発
報対象特徴量記憶部10に送られる。
Next, here, the validity / invalidity of the “area” will be examined based on “the average value and σ of the“ most frequently reported objects ””.
Judgment as invalid is based on the following.・ "Average value of" most frequently reported "" was not clearly found. The maximum value is calculated at a plurality of locations, and there is no protruding portion that is entirely uniform.・ “Σ of“ most frequently reported ”” has exceeded m (m is a constant determined separately). The result is sent as it is to the notification target feature amount storage unit 10.

【0043】発報対象特徴量記憶部10には、本来、
“正規発報対象”の“特徴量パラメータ”が記憶されて
いるが、この実施の形態では上記結果を元にそれを補正
する。有効である場合は、実施の形態1の通りに動作す
る。
The notification target feature amount storage unit 10 originally stores
The “feature amount parameter” of the “normal notification target” is stored, but in this embodiment, it is corrected based on the above result. If it is valid, it operates as in the first embodiment.

【0044】仮に無効である場合は、以下のように動作
する。“正規発報対象”の“特徴量パラメータ”の面積
に関して、通常は「中心値」と「幅」で設定されてい
る。たとえば「面積=10000画素±1000画素」
のような設定である。補正は、この「幅」を理論上の最
大値に差し替えることによりなされる。以上により“特
徴量パラメータ”の面積は、いかなる“発報対象”の値
でもその「幅」に入るようになり、事実上意味をなさな
いものとなる。
If invalid, the operation is as follows. The area of the “feature amount parameter” of the “normal notification target” is usually set by “center value” and “width”. For example, “area = 10000 pixels ± 1000 pixels”
The setting is as follows. The correction is made by replacing the "width" with a theoretical maximum value. As described above, the area of the “feature parameter” falls within the “width” of any value of the “report target”, and has no practical meaning.

【0045】これにより“特徴量パラメータ”の面積は
認識処理から除外されたことになる。すなわり、以降は
図12のステップS3の処理は行わないことになる。以
上により“特徴量パラメータ”の更新が終了する。
Thus, the area of the "feature parameter" is excluded from the recognition processing. That is, the process of step S3 in FIG. 12 is not performed thereafter. Thus, the updating of the “feature parameter” is completed.

【0046】尚、以上では面積の一例を示したが、他の
“特徴量パラメータ”も同様である。“変化領域”の
「存在時間」「縦横寸法」「速度」等についても、同様
にヒストグラムを作成し、有効性無効性を検討し「幅」
を差し替える作業を行う。
Although an example of the area has been described above, the same applies to other “feature amount parameters”. A histogram is similarly created for “existing time”, “vertical and horizontal dimensions”, “speed”, etc. of the “change area”, and the validity / invalidity is examined, and “width”
Replace the work.

【0047】以上のように、この実施の形態によると、
補正実施の指示がある毎に“特徴量パラメータ”の「面
積」「存在時間」「縦横寸法」「速度」等が認識処理か
ら除外、復活され、しかもその更新結果がその時点での
“特徴量パラメータ”の有効性無効性に従ったものとな
る。これにより、“特徴量パラメータ”が徐々に意味の
ある“項目”のみに絞り込まれ、正規発報対象のみに反
応するように修正される。
As described above, according to this embodiment,
Every time there is an instruction to perform the correction, the “feature parameter” such as “area”, “existing time”, “vertical and horizontal dimensions”, “speed”, etc. are excluded from the recognition processing and restored, and the updated result is the “feature parameter” at that time. This is in accordance with the validity / invalidity of the parameter "". As a result, the "feature parameter" is gradually narrowed down to only meaningful "items", and is modified so as to react only to the regular alert target.

【0048】例えば「面積」を除外することにより、カ
メラの近傍から遠方に往復するような“変化領域”の
「面積」の変化が著しい侵入者に対して、誤ってイベン
ト対象ではないと判断される見落としがでにくくなる。
また例えば「存在時間」を除外することにより、カメラ
の視野内で不規則に往来し“変化領域”の「存在時間」
の変化が著しい侵入者に対して、誤ってイベント対象で
はないと判断される見落としがでにくくなる。
For example, by excluding "area", an intruder whose remarkable change in "area" of the "change area" reciprocating from the vicinity of the camera to the far side is erroneously determined not to be an event target. Oversight is difficult.
Also, for example, by excluding “existing time”, the “existing time” of the “change area” which comes and goes irregularly within the field of view of the camera is changed.
It is difficult for an intruder whose remarkable change has occurred to be overlooked, which is erroneously determined not to be an event target.

【0049】また例えば「縦横比」を除外することによ
り、複数人物が集団で往来しその並びが刻々と変化する
ことにより変化領域の「縦横比」の変化が著しい侵入者
に対して、誤ってイベント対象ではないと判断される見
落としがでにくくなる。さらに例えば「速度」を除外す
ることにより、カメラの視野内で不規則に往来し“変化
領域”の「速度」の変化が著しい侵入者に対して、誤っ
てイベント対象ではないと判断される見落としがでにく
くなる。
Also, for example, by excluding “aspect ratio”, a plurality of persons come and go in a group and the arrangement changes every moment, so that an intruder who has a remarkable change in “aspect ratio” in the change area is erroneously detected. It is difficult to overlook when it is determined that the object is not the target of the event. Furthermore, for example, by excluding "speed", an intruder who comes and goes irregularly within the field of view of the camera and has a significant change in "speed" in the "change area" is erroneously determined not to be an event target. Is difficult.

【0050】このように、見落としを減少させ、不規則
な動きをする“正規発報対象”にたいしても確実に発報
しうる装置を提供する。
As described above, there is provided an apparatus capable of reducing oversight and reliably issuing an alarm even for a "regular alarming target" which moves irregularly.

【0051】実施の形態3.図5はこの発明のさらに別
の実施の形態による監視用画像処理装置の構成を示す図
である。図において、従来および上記実施の形態のもの
と同一もしくは相当部分は同一符号で示し、説明を省略
する。14bは“最多発報対象”を他から識別する第3
の最多発報対象識別処理手段である。15は最多発報対
象識別処理手段14bおよびマスク範囲演算処理手段1
6に補正実施を指示するトリガー入力である。
Embodiment 3 FIG. FIG. 5 is a diagram showing a configuration of a monitoring image processing apparatus according to still another embodiment of the present invention. In the figure, the same or corresponding parts as those in the conventional and the above-described embodiments are denoted by the same reference numerals, and description thereof will be omitted. 14b is the third that identifies the “most frequently reported object” from others
This is the most frequent notification target identification processing means. Reference numeral 15 denotes the most frequent notification target identification processing means 14b and the mask range calculation processing means 1
6 is a trigger input for instructing execution of correction.

【0052】16は最多発報対象識別処理手段14bか
らの指示を受け、マスク範囲を演算するマスク範囲演算
処理手段である。またビデオ入力部1はマスク範囲演算
処理手段16から通知を受け、その画像のマスク範囲を
適宜更新する。最多発報対象識別処理手段14bおよび
マスク範囲演算処理手段16もソフトウエアによって処
理されるのが一般的である。
Reference numeral 16 denotes a mask range calculation processing unit that receives an instruction from the most frequently reported target identification processing unit 14b and calculates a mask range. Further, the video input unit 1 receives the notification from the mask range calculation processing means 16 and updates the mask range of the image as appropriate. In general, the most frequently reported object identification processing means 14b and the mask range calculation processing means 16 are also processed by software.

【0053】図6はマスク範囲演算処理手段16の動作
を詳細に示したフローチャートである。また認識処理手
段11および最多発報対象識別処理手段14bの動作は
それぞれ図12および図2のフローチャートに示したも
のと基本的に同様である。
FIG. 6 is a flowchart showing the operation of the mask range calculation processing means 16 in detail. Further, the operations of the recognition processing means 11 and the most frequent notification target identification processing means 14b are basically the same as those shown in the flowcharts of FIGS. 12 and 2, respectively.

【0054】次に動作について代表的な例を説明する。
図5のビデオ入力部1〜トリガー入力15については、
上記実施の形態と基本的には同様のため説明を省略す
る。ただし、以下の点が異なる。“イベント”発生を知
らせる通知12を受け取った最多発報対象識別処理手段
14bは、実施の形態1の動作に加え、その時の「座
標」を観察し、“最多発報対象”以外の発報対象が偏っ
て存在する「認識不要範囲」を算出する。
Next, a typical example of the operation will be described.
Regarding the video input unit 1 to the trigger input 15 in FIG.
The description is omitted because it is basically the same as the above embodiment. However, the following points are different. Upon receiving the notification 12 indicating the occurrence of the "event", the most frequently-reported object identification processing means 14b observes the "coordinates" at that time in addition to the operation of the first embodiment, and the Is calculated, the "unrecognized unnecessary range" exists.

【0055】以下その挙動例を詳しく説明する。ただし
ここで説明するのは、算出の一例である。最多発報対象
識別処理手段14bでは、先ずイベント発見の通知12
を受け実施の形態1で記載したような“特徴量パラメー
タ”の更新作業を行っている。この動作は実施の形態1
と同様であるため省略する。
Hereinafter, an example of the behavior will be described in detail. However, what is described here is an example of calculation. The most frequently occurring object identification processing means 14b first sends the event discovery notification 12
Accordingly, the updating operation of the “feature parameter” as described in the first embodiment is performed. This operation is performed in the first embodiment.
It is omitted because it is the same as.

【0056】それと同時に最多発報対象識別処理手段1
4bでは、“イベント”発生のたびに「今の“イベン
ト”は“最多発報対象”のものか否か」の報告16aを
マスク範囲演算処理手段16に出力する。マスク範囲演
算処理手段16では、報告16aを受け図6の作業を行
う。
At the same time, the most frequently reported object identification processing means 1
In step 4b, each time an "event" occurs, a report 16a indicating "whether or not the current" event "is a" most frequently reported object "is output to the mask range calculation processing means 16. The mask range calculation processing means 16 receives the report 16a and performs the operation shown in FIG.

【0057】図6においてまずステップS1で発報時の
「座標」を参照(記憶)する。次にステップS2〜S4で
「座標」をもとに「“認識不要範囲”」を判断する。
In FIG. 6, first, in step S1, the "coordinates" at the time of the alarm are referenced (stored). Next, in steps S2 to S4, a “recognition unnecessary range” is determined based on the “coordinates”.

【0058】以下にその具体的方法の一例を示す。 ・先ず「X座標」を横軸に、「Y座標」を縦軸にした分
布図を作成する。ただし、報告16aをもとにこれは
“最多発報対象”のものと、それ以外の発報対象のもの
と2枚作成する。 ・“最多発報対象”の分布と、それ以外の発報対象の分
布が、各々重ならない範囲に集中しており、かつ時間の
変化によりその発生が変動する場合、それ以外の発報対
象の分布している範囲を“認識不要範囲”とする。
An example of a specific method will be described below. First, a distribution map is created with “X coordinate” on the horizontal axis and “Y coordinate” on the vertical axis. However, based on the report 16a, two sheets are created, one for the "most frequently reported" and the other for the other.・ If the distribution of the “most frequently reported” and the distribution of other reported objects are concentrated in the non-overlapping area, and their occurrence varies with time, The distributed range is referred to as a “recognition unnecessary range”.

【0059】“認識不要範囲”とは「場所に依存し」か
つ「比較的短期間の変化」が特徴である。例えば樹木が
風でゆれた場合等の枝葉の“変化領域”が該当する。こ
れは、樹木の位置にのみ起き(場所に依存)、風の吹いて
いる期間(比較的短期間の変化)に顕著になる。
The "recognition unnecessary range" is characterized by "depending on the place" and "change in a relatively short period". For example, a “change region” of a branch or leaf when a tree is shaken by the wind corresponds to this. This occurs only at the location of the trees (depending on the location) and becomes noticeable during periods of wind (relatively short-term changes).

【0060】ステップS3では、補正実施の有無を見
る。指示がないときは、作業はこれで終了となる。「認
識不要範囲」を判断したのみ(これを行なわなくてもよ
く座標を分布図にプロットするだけでもよい)である。
指示があるときは、ステップS3で分岐しステップS4
に行き、「“認識不要範囲”」に最適な「“マスク範
囲”」を算出する作業を行なう。「“マスク範囲”」と
は画像を一部をマスクして見えなくすることで、不要な
画像の取込みを阻止するものである。
In step S3, it is checked whether correction has been performed. If there is no instruction, the operation is completed. Only the “recognition unnecessary range” is determined (this need not be performed, and the coordinates may be simply plotted on the distribution map).
If there is an instruction, the process branches at step S3 and branches to step S4.
To perform the operation of calculating the "" mask range "" optimal for the "" recognition unnecessary range "". The "mask range" is to mask an image to make it invisible, thereby preventing unnecessary image capture.

【0061】「“マスク範囲”」の算出は具体的には、
以下で述べる通りである。なお、以下は一例である。
「“認識不要範囲”」が特定できれば、そこの中心を求
め、「“認識不要範囲”」の60%程度が隠蔽される程
度の大きさの同じ中点を持つ長方形のエリアを考える。
これが「“マスク範囲”」である。「“マスク範囲”」
はビデオ入力部1でビデオ画像に直接黒べたのマスキン
グをするために使用される。その結果ここより出力され
る映像は、あたかもカメラの前面に黒布を張り付けたよ
うなものとなる。ステップS5ではこの「“マスク範
囲”」を上位に返す。
The calculation of "" mask range "" is specifically performed as follows.
As described below. The following is an example.
If the “recognition-unnecessary range” can be specified, the center thereof is obtained, and a rectangular area having the same midpoint that is large enough to hide about 60% of the “recognition-unrequired range” is considered.
This is the “mask range”. "" Mask range ""
Is used in the video input unit 1 to directly mask black solid on a video image. As a result, the video output from this is as if a black cloth was attached to the front of the camera. In step S5, this "mask range" is returned to the upper level.

【0062】図5にある通り、このデータはビデオ入力
部1に渡される。ビデオ入力部1では、入力されてくる
画像にデータに従いマスクをかける作業を行う。この結
果「“認識不要範囲”」は60%程度がマスクで覆わ
れ、覆われた部分の変化領域は見えないこととなる。そ
の結果、該当個所では以降、“変化領域”が発生しなく
なる。
This data is passed to the video input 1 as shown in FIG. The video input unit 1 performs an operation of masking an input image according to data. As a result, about 60% of the ““ recognition unnecessary range ”” is covered with the mask, and the changed area of the covered portion is not visible. As a result, the “change area” no longer occurs at the corresponding location.

【0063】以上のように、この実施の形態では、補正
実施の指示がある毎に「“マスク範囲”」が更新され、
しかもその更新結果がその時点での「“不要検知対象
物」の多発エリアを覆うものとなり、結果としてビデオ
入力部1が「“不要検知対象物”」を追跡して隠蔽する
こととなる。
As described above, in this embodiment, the "mask range" is updated every time there is an instruction to execute the correction.
In addition, the updated result covers the frequently occurring area of the “unnecessary detection target” at that time, and as a result, the video input unit 1 tracks and hides the “unnecessary detection target”.

【0064】これによりビデオ入力部1の「“マスク範
囲”」が“不要検知対象物”にあわせて最適化され、例
えば、樹木が風でゆれた場合等の枝葉の“変化領域”の
ような「場所に依存し」かつ「比較的短期間の変化」が
特徴の“不要検知対象物”に対し、誤ってイベントと判
断されにくくなる。このように、“不要検知”を減少さ
せると同時に、“正規発報対象”にたいしては正確に発
報しうる装置を提供する。
As a result, the “mask range” of the video input unit 1 is optimized according to the “unwanted detection target”, for example, such as the “change area” of a branch or leaf when a tree is shaken by wind. "Unnecessary detection target", which is characterized by "depending on location" and "change in a relatively short period", is less likely to be erroneously determined to be an event. As described above, the present invention provides an apparatus capable of reducing "unnecessary detection" and accurately issuing "regular notification target".

【0065】実施の形態4.図7はこの発明のさらに別
の実施の形態による監視用画像処理装置の構成を示す図
である。図において、従来および上記実施の形態のもの
と同一もしくは相当部分は同一符号で示し、説明を省略
する。14bは“最多発報対象”を他から識別する第3
の最多発報対象識別処理手段である。15は最多発報対
象識別処理手段14bおよび認識範囲演算処理手段17
に補正実施を指示するトリガー入力である。
Embodiment 4 FIG. 7 is a diagram showing a configuration of a monitoring image processing apparatus according to still another embodiment of the present invention. In the figure, the same or corresponding parts as those in the conventional and the above-described embodiments are denoted by the same reference numerals, and description thereof will be omitted. 14b is the third that identifies the “most frequently reported object” from others
This is the most frequent notification target identification processing means. Reference numeral 15 denotes the most frequent notification target identification processing means 14b and the recognition range calculation processing means 17
Is a trigger input for instructing the execution of correction.

【0066】17は最多発報対象識別処理手段14bか
らの指示を受け、認識範囲を演算する認識範囲演算処理
手段である。認識処理手段11では認識範囲演算処理手
段17から通知を受け、その画像の認識範囲を適宜更新
する。最多発報対象識別処理手段14bおよび認識範囲
演算処理手段17もソフトウエアによって処理されるの
が一般的である。
Reference numeral 17 denotes a recognition range calculation processing unit that receives an instruction from the most frequently reported target identification processing unit 14b and calculates a recognition range. The recognition processing means 11 receives the notification from the recognition range calculation processing means 17 and updates the recognition range of the image as appropriate. In general, the most frequently reported object identification processing means 14b and the recognition range calculation processing means 17 are also processed by software.

【0067】図8は認識範囲演算処理手段17の動作を
詳細に示したフローチャートである。また認識処理手段
11および最多発報対象識別処理手段14bの動作はそ
れぞれ図12および図2のフローチャートに示したもの
と基本的に同様である。
FIG. 8 is a flowchart showing the operation of the recognition range calculation processing means 17 in detail. Further, the operations of the recognition processing means 11 and the most frequent notification target identification processing means 14b are basically the same as those shown in the flowcharts of FIGS. 12 and 2, respectively.

【0068】次に動作について代表的な例を説明する。
図7のビデオ入力部1〜トリガー入力15については、
上記実施の形態と基本的には同様のため説明を省略す
る。ただし、以下の点が異なる。“イベント”発生を知
らせる通知12を受け取った最多発報対象識別処理手段
14bは、実施の形態1の作業に加え、その時の「座
標」を観察し、“最多発報対象”が偏って存在する「認
識範囲」を算出する。以下その挙動例を詳しく説明す
る。
Next, a typical example of the operation will be described.
Regarding the video input unit 1 to the trigger input 15 in FIG.
The description is omitted because it is basically the same as the above embodiment. However, the following points are different. Upon receiving the notification 12 indicating the occurrence of the "event", the most frequently reported object identification processing means 14b observes the "coordinates" at that time in addition to the work of the first embodiment, and the "mostly reported object" exists unevenly. "Recognition range" is calculated. Hereinafter, the behavior example will be described in detail.

【0069】ただしここで説明するのは、算出の一例で
ある。最多発報対象識別処理手段14bでは、先ずイベ
ント発見の通知12を受け実施の形態1で記載したよう
な“特徴量パラメータ”の更新作業を行っている。この
動作は実施の形態1と同一のため説明は省略する。それ
と同時に最多発報対象識別処理手段14bでは、“イベ
ント”発生のたびに「今の“イベント”は“最多発報対
象”のものか否か」の報告17aを認識範囲演算処理手
段17に出力する。
However, what is described here is an example of calculation. The most frequently reported target identification processing means 14b first receives the event discovery notification 12 and updates the "feature parameter" as described in the first embodiment. Since this operation is the same as that of the first embodiment, the description is omitted. At the same time, the most frequently reported object identification processing means 14b outputs a report 17a of "whether or not the current" event "is the most frequently reported object" to the recognition range calculation processing means 17 every time an "event" occurs. I do.

【0070】認識範囲演算処理手段17では、報告17
aを受け図8の作業を行う。図8において、まずステッ
プS1で発報時の「座標」を参照(記憶)する。つぎに
「座標」を元にステップS2では「“認識範囲”」を判
断する。
The recognition range calculation processing means 17
The operation shown in FIG. In FIG. 8, first, in step S1, the "coordinates" at the time of the alarm are referenced (stored). Next, in step S2, "" recognition range "" is determined based on "coordinates".

【0071】以下にその具体的方法の一例を示す。 ・先ず「X座標」を横軸に、「Y座標」を縦軸にした分
布図を作成する。ただし報告17aを元にこれは“最多
発報対象”のものと、それ以外の“発報対象”のものと
2枚作成する。 ・“最多発報対象”の分布と、それ以外の発報対象の分
布が、各々重ならない範囲に集中しており、かつ時間の
変化によりその発生が変動する場合、“最多発報対象”
の分布している範囲を「“認識範囲”」とする。「“認
識範囲”」とは“最多発報対象”が頻発する範囲であ
り、具体的には侵入者が通るに適した道や空き地が存在
する範囲である。
An example of the specific method will be described below. First, a distribution map is created with “X coordinate” on the horizontal axis and “Y coordinate” on the vertical axis. However, based on the report 17a, two sheets are created, one of which is the "most alarmed object" and the other of which is the "alarmed object". -If the distribution of the "most-reported object" and the distribution of the other-reported objects are concentrated in non-overlapping ranges, and their occurrence varies with time, the "most-reported object"
Is defined as ““ recognition range ””. The “recognition range” is a range in which the “most frequently reported object” frequently occurs, and specifically, a range in which a road or a vacant lot suitable for an intruder exists.

【0072】実施の形態3では逆にそれ以外の範囲に
「“マスク範囲”」という手法を用いて“不要検知”を
防止した。しかし“最多発報対象”の分布と、それ以外
の発報対象の分布が近接したり重なった状況において
は、「“マスク範囲”」を設定することにより“最多発
報対象”が頻発する範囲に悪影響を及ぼす場合がある。
“最多発対象”の分布範囲も部分的にマスクされてしま
い、発報対象が部分的に覆われてしまうためである。こ
の場合、見落としが発生する。
In the third embodiment, on the other hand, "unnecessary detection" is prevented by using a technique called "mask range" in other ranges. However, in a situation where the distribution of the “most frequently reported object” and the distributions of other reported objects are close to each other or overlap, by setting ““ mask range ””, the range where the “most frequently reported object” frequently occurs May have adverse effects.
This is because the distribution range of the “most frequent object” is also partially masked, and the alarm target is partially covered. In this case, oversight occurs.

【0073】ここで考える「“認識範囲”」とは、“最
多発報対象”の分布範囲であり、かつ“不要検知対象
物”の分布に属さないエリアである。「“認識範囲”」
の中の変化領域のみ“発報対象”と見なすことにより、
仮に対象が「“マスク範囲”」と設定された範囲に一部
が重なっていても、見落とさず発報することが可能とな
る。即ち、「“認識範囲”」と認識不要範囲の両方にま
たがって存在する変化領域にとって、無視されることを
未然に防ぐことが可能となる。
The “recognition range” considered here is an area that is the distribution range of the “most frequently reported object” and does not belong to the distribution of the “unwanted detection object”. "" Recognition range ""
By considering only the change areas in
Even if the target partially overlaps the range set as "" mask range "", the alarm can be issued without overlooking. That is, it is possible to prevent a change area existing over both the “recognition range” and the non-recognition range from being ignored beforehand.

【0074】ステップS3では補正実施の指示であるト
リガー入力15の有無を見る。指示がないときは、作業
はこれで終了となる。「“認識範囲”」を判断したのみ
(これを行なわなくても座標を分布図にプロットするだ
けでもよい)である。指示があるときは、ステップS3
で分岐しステップS4、S5を通り、求めた「“認識範
囲”」を上位に返す。
In step S3, the presence or absence of a trigger input 15, which is an instruction for performing correction, is checked. If there is no instruction, the operation is completed. Only judge "" recognition range ""
(You can just plot the coordinates on the distribution map without doing this.) If there is an instruction, step S3
And the process goes through steps S4 and S5, and returns the obtained "" recognition range "" to the upper level.

【0075】図7にある通り、このデータは認識処理手
段11に渡される。認識範囲演算処理手段17は認識処
理手段11の「“認識範囲”」を更新し、次の認識に反
映される。
As shown in FIG. 7, this data is passed to the recognition processing means 11. The recognition range calculation processing means 17 updates the "" recognition range "" of the recognition processing means 11 and reflects it in the next recognition.

【0076】以上のようにこの実施の形態によると、補
正実施の指示がある毎に「“認識範囲”」が更新され、
しかもその更新結果がその時点での「“最多発報対象
物”」のものとなり、結果として認識処理手段11が
「“最多発報対象物”」を追跡することとなる。
As described above, according to the present embodiment, the “recognition range” is updated each time there is an instruction to perform correction,
In addition, the update result is that of the “most frequently reported object” at that time, and as a result, the recognition processing unit 11 tracks “the most frequently reported object”.

【0077】これにより認識処理手段11の処理が“最
多発報対象物”にあわせて最適化され、例えば、樹木が
風でゆれているような状況でその前を一部樹木と重なっ
て通過するような侵入者を、見落としなく発見すること
が可能となる。また、上記樹木の枝葉の“変化領域”の
ような“不要検知対象物”に対し、誤ってイベントと判
断されることも防げる。
Thus, the processing of the recognition processing means 11 is optimized in accordance with the “most frequently reported object”. For example, in a situation where a tree is shaking in the wind, the tree passes in front of the tree while partially overlapping the tree. Such an intruder can be found without being overlooked. In addition, it is possible to prevent an “unnecessary detection target” such as a “change area” of the tree branch from being erroneously determined as an event.

【0078】このようにエリアが重なっているようなケ
ースでも、“不要検知”を抑えたまま“正規発報対象”
にたいしては正確に発報しうる装置を提供する。
Even in the case where the areas are overlapped in this way, the “regular notification target” is kept while “unnecessary detection” is suppressed.
The present invention provides a device capable of accurately issuing an alarm.

【0079】実施の形態5.図9はこの発明のさらに別
の実施の形態による監視用画像処理装置の構成を示す図
である。図において、従来および上記実施の形態のもの
と同一もしくは相当部分は同一符号で示し、説明を省略
する。14cは最多発報対象を他から識別する第4の最
多発報対象識別処理手段である。15は最多発報対象識
別処理手段14cおよび領域統合演算処理手段18に補
正実施を指示するトリガー入力である。
Embodiment 5 FIG. FIG. 9 is a diagram showing a configuration of a monitoring image processing apparatus according to still another embodiment of the present invention. In the figure, the same or corresponding parts as those in the conventional and the above-described embodiments are denoted by the same reference numerals, and description thereof will be omitted. Reference numeral 14c denotes a fourth most frequently reported object identification processing means for distinguishing the most frequently reported object from others. Reference numeral 15 denotes a trigger input for instructing the most frequent notification target identification processing means 14c and the area integration calculation processing means 18 to perform correction.

【0080】18は最多発報対象識別処理手段14cか
らの指示を受け、領域統合の有効性を判断する領域統合
演算処理手段である。認識処理手段11では領域統合演
算処理手段18から通知を受け、その画像の領域統合の
要否を適宜更新する。最多発報対象識別処理手段14c
および領域統合演算処理手段18もソフトウエアによっ
て処理されるのが一般的である。
Numeral 18 is an area integration operation processing means which receives an instruction from the most frequently reported object identification processing means 14c and judges the effectiveness of area integration. The recognition processing unit 11 receives the notification from the region integration calculation processing unit 18 and appropriately updates the necessity of the region integration of the image. Most frequently reported object identification processing means 14c
In general, the area integration operation processing means 18 is also processed by software.

【0081】図10は領域統合演算処理手段18の動作
を詳細に示したフローチャートである。また認識処理手
段11および最多発報対象識別処理手段14cの動作は
それぞれ図12および図2のフローチャートに示したも
のと基本的に同様である。
FIG. 10 is a flowchart showing in detail the operation of the area integration operation processing means 18. Also, the operations of the recognition processing means 11 and the most frequent notification target identification processing means 14c are basically the same as those shown in the flowcharts of FIGS. 12 and 2, respectively.

【0082】次に動作について代表的な例を説明する。
図9のビデオ入力部1〜トリガー入力15については、
上記実施の形態と基本的には同様のため説明を省略す
る。ただし、以下の点が異なる。“イベント”発生を知
らせる通知12を受け取った最多発報対象識別処理手段
14cは、実施の形態1の作業に加え、その時の「面
積」を観察(記憶)し、「領域統合の有効性」を算出す
る。以下その挙動例を詳しく説明する。ただしここで説
明するのは、算出の一例である。
Next, a typical example of the operation will be described.
Regarding the video input unit 1 to the trigger input 15 in FIG.
The description is omitted because it is basically the same as the above embodiment. However, the following points are different. Upon receiving the notification 12 notifying of the occurrence of the “event”, the most frequently reported target identification processing unit 14c observes (stores) the “area” at that time in addition to the work of the first embodiment, and determines “effectiveness of area integration”. calculate. Hereinafter, the behavior example will be described in detail. However, what is described here is an example of calculation.

【0083】最多発報対象識別処理手段14cでは、先
ず“イベント”発見の通知12を受け実施の形態1で記
載したような“特徴量パラメータ”の更新作業を行って
いる。この動作は実施の形態1と同様であるため省略す
る。それと同時に最多発報対象識別処理手段14cで
は、“イベント”発生のたびに「今の“イベント”は
“最多発報対象”のものか否か」の報告18aを領域統
合演算処理手段18に出力する。
First, the most frequently reported object identification processing means 14c receives the notification 12 of the "event" discovery and updates the "feature parameter" as described in the first embodiment. This operation is the same as in the first embodiment, and will not be described. At the same time, the most frequently reported object identification processing means 14c outputs a report 18a of "whether or not the current" event "is the most frequently reported object" to the area integration processing means 18 every time an "event" occurs. I do.

【0084】“最多発報対象”のものである場合、領域
統合演算処理手段18では、報告18aを受け、図10
の作業を行う。以下の記載は、全て“最多発報対象”の
ものについてのものである。図10において、まずステ
ップS1で発報時の「面積」を参照する。そして「面
積」を元にステップS2では「“領域統合”前後の面積
比」を判断する。
In the case of the “most frequently reported object”, the area integration operation processing means 18 receives the report 18a and
Do the work. The following description is all about "the most frequently reported object". In FIG. 10, first, in step S1, the "area" at the time of the alarm is referred to. In step S2, the “area ratio before and after“ region integration ”” is determined based on “area”.

【0085】以下にその具体的方法の一例を示す。 ・“領域統合”された各“変化領域”の中で、最大の面
積を有する変化領域を、核の変化領域とする。 ・「“領域統合”後の面積」に対する「核の変化領域」
の比率を「“領域統合”前後の面積比」とする。 ・「“領域統合”前後の面積比」を横軸に、回数を縦軸
にしたヒストグラムを作成する。 ・ヒストグラムが「“領域統合”前後の面積比」が例え
ば70%以上に偏った場合、領域統合は不要と判断す
る。 ・ヒストグラムが「“領域統合”前後の面積比」が例え
ば50%以下に偏った場合、領域統合は必要と判断す
る。 ・それ以外は現状通りと判断する。
An example of the specific method will be described below. A change region having the largest area among the “change regions” obtained by “region integration” is defined as a core change region.・ "Area of nuclear change" for "Area after" region integration ""
Is defined as “area ratio before and after“ region integration ””. Create a histogram with the horizontal axis representing the "area ratio before and after" region integration "" and the vertical axis representing the number of times. If the histogram indicates that the “area ratio before and after“ region integration ”” is biased to, for example, 70% or more, it is determined that region integration is unnecessary. If the histogram indicates that the “area ratio before and after“ region integration ”” is biased to, for example, 50% or less, it is determined that region integration is necessary.・ Other than that, it is judged as it is.

【0086】“領域統合”とは、同一の対象物であるに
もかかわらず画質の劣化等で分断された“変化領域”
を、相対距離等で類推し統合し、元の形状に近付ける作
業である。“領域統合”後の面積とは、通常はこの分断
された各“変化領域”を統合したあとの合計の面積を示
す。「“領域統合”後の面積」に対する「核の“変化領
域”」の比率が大きいということは、「核の“変化領
域”」が単体で変化領域を占有しているということであ
る。
The “region integration” is a “change region” which is divided due to the deterioration of image quality or the like despite being the same object.
This is the task of integrating by analogy with relative distances and the like to bring it closer to the original shape. The area after “region integration” usually indicates the total area after integrating the divided “change regions”. A large ratio of the “nuclear“ change region ”” to the “area after“ region integration ”” means that the “nuclear“ change region ”” occupies the change region by itself.

【0087】一般に、画質の劣化等で“変化領域”の切
り出しがうまく行われない場合、“発報対象”の“変化
領域”は複数に寸断される。「核の“変化領域”」の比
率が大きいということは、この現象が起きていないと判
断でき、溯って画質が良好と判断できる。
In general, when the "change area" is not properly cut out due to deterioration of image quality or the like, the "change area" of the "report target" is cut into a plurality of pieces. The fact that the ratio of the “nuclear“ change region ”” is large indicates that this phenomenon has not occurred, and that the image quality can be determined to be good.

【0088】「“領域統合”前後の面積比」が「70%
以上」の部分に偏った場合、一般にこれは「“変化領
域”の分断の少ない、明確な“変化領域”が選らばれて
いる状況」と判断できる。このような場合は、“領域統
合”処理は不要である。逆に誤った“領域統合”が行な
われて対象物を見誤る場合の弊害が問題となってくる。
従って、必要以上に“領域統合”を行わないことが、安
定した認識処理に寄与しうる。
The “area ratio before and after“ region integration ”” is “70%
In the case where the deviation is biased toward the above, it can be generally determined that this is a "situation in which a clear" change region "with little division of the" change region "is selected". In such a case, the “area integration” processing is not required. Conversely, there is a problem in that an erroneous “area integration” is performed and a target object is misidentified.
Therefore, not performing “region integration” more than necessary can contribute to stable recognition processing.

【0089】ステップS3では補正実施の指示であるト
リガー入力15の有無を見る。指示がないときは、作業
はこれで終了となる。「“領域統合”処理の可否」を判
断したのみ(これを行なわなくてもヒストグラムへのプ
ロットだけでもよい)である。指示があるときは、ステ
ップS3で分岐しステップS4、S5を通り、“最多発
報対象”に最適な「“領域統合”処理の要否」の結果を
上位に返す。図1−5−1にある通り、
In step S3, the presence or absence of a trigger input 15, which is an instruction for performing correction, is checked. If there is no instruction, the operation is completed. It is only determined "whether or not" region integration "processing can be performed" (there is no need to perform this, and only plotting on a histogram may be performed). If there is an instruction, the process branches at step S3, passes through steps S4 and S5, and returns the result of "necessity of" area integration "processing" that is optimal for the "most frequently reported object" to the upper level. As shown in Fig. 1-5-1,

【0090】このデータは認識処理手段11に渡され
る。認識処理手段11では「“領域統合”処理の要否」
を更新し、次の認識に反映される。つまり、領域統合処
理に対して“否”の指示がされると、図12のステップ
S1の処理が行なわれない。
This data is passed to the recognition processing means 11. In the recognition processing means 11, "necessity of" area integration "processing"
Will be updated and reflected in the next recognition. That is, when an instruction of “No” is given to the area integration processing, the processing of step S1 in FIG. 12 is not performed.

【0091】以上のように、この実施の形態によると、
補正実施の指示がある毎に「“領域統合”処理の要否」
が更新され、しかもその更新結果がその時点での「“最
多発報対象物”」に適したものとなる。これにより認識
処理手段11の「“領域統合”」が“最多発報対象物”
にあわせて最適化され、例えば、樹木が風でゆれた場合
等の枝葉の“変化領域”のような「個々は小さいが領域
統合で統合させると大きくなる」ような不安定性が特徴
の“不要検知対象物”に対し、誤ってイベントと判断さ
れにくくなる。
As described above, according to this embodiment,
Every time there is an instruction to perform correction, "necessity of" area integration "processing"
Is updated, and the update result is suitable for the “most frequently reported object” at that time. As a result, the ““ region integration ”” of the recognition processing unit 11 is changed to “the most frequently reported object”.
It is optimized according to the instability, such as the "variable area" of the branches and leaves, such as when the tree is shaken by the wind. It is difficult for the detection target "to be erroneously determined to be an event.

【0092】このように“不要検知”を減少させると同
時に、“正規発報対象”にたいしては正確に発報しうる
装置を提供する。
As described above, the present invention provides an apparatus capable of reducing "unnecessary detection" and accurately issuing "regular notification target".

【0093】[0093]

【発明の効果】以上のようにこの発明では、監視対象地
域の画像の現画像のデータを一時的に記録する現画像蓄
積部と、上記画像の背景画像データを記録する背景画像
蓄積部と、上記現画像蓄積部の現画像データを上記背景
画像蓄積部の背景画像データと比較し、画像内の移動
物、変化物に当たる多値変化領域を差分として抽出する
背景差分抽出部と、上記変化領域の特徴を示す所定の特
徴量を演算する特徴量演算部と、予め設定された発報対
象の上記特徴量の設定値範囲である特徴量パラメータを
記憶する発報対象特徴量記憶部と、この発報対象特徴量
記憶部の特徴量パラメータに元づいて上記特徴量演算部
での特徴量が正規の発報対象のものに該当することを認
識する認識処理手段と、この認識処理手段の認識に従っ
て発報対象である時に発報を行う発報処理手段と、上記
発報対象のなかで発生頻度の高い最多発報対象を発生分
布の様子から他と識別し、上記発報対象特徴量記憶部中
の特徴量パラメータの中心値を上記最多発報対象の特徴
量の中心値に揃える補正を行う最多発報対象識別処理手
段と、を備えた監視用画像処理装置としたので、発報対
象特徴量記憶部中の特徴量パラメータを発生頻度の高い
最多発報対象の特徴量に合わせて更新することにより、
不要検知を減少させると同時に正規発報対象にたいして
は正確に発報する装置を提供できる。
As described above, according to the present invention, a current image storage unit for temporarily recording data of a current image of an image of a monitoring target area, a background image storage unit for recording background image data of the image, A background difference extraction unit that compares the current image data of the current image storage unit with the background image data of the background image storage unit, and extracts a moving object in the image and a multivalued change region corresponding to a change object as a difference; A feature value calculation unit for calculating a predetermined feature value indicating the feature of the feature, a report target feature value storage unit for storing a feature parameter which is a preset value range of the feature value of the report target, Recognition processing means for recognizing that the feature quantity in the feature quantity calculation section corresponds to a regular alerting target based on the feature quantity parameter of the report target feature quantity storage section, and recognition of the recognition processing means. When subject to alarm An alarm processing means for generating an alarm; and identifying the most frequent alarm target having a high frequency of occurrence among the alarm targets from the occurrence distribution state, and identifying the feature parameter in the alarm target feature amount storage unit. Since the monitoring image processing apparatus is provided with a most-frequently-reported object identification processing means for correcting the center value to the central value of the feature value of the most-frequently-reported object, the feature in the report-targeted feature amount storage unit By updating the volume parameter according to the feature value of the most frequently reported object,
It is possible to provide a device that can reduce unnecessary detection and, at the same time, accurately issue a notification to a regular notification target.

【0094】またこの発明では、上記最多発報対象識別
処理手段がさらに、上記最多発報対象の上記特徴量のう
ちばらつきの大きいものを発生分布の様子から選別し、
上記発報対象特徴量記憶部中の該特徴量パラメータを設
定から除外するように補正を行うので、発報対象特徴量
記憶部中の特徴量パラメータのうちばらつきの大きいも
のを認識処理から一時的に除外することにより、不要検
知をさらに減少させた装置を提供できる。
Further, in the present invention, the most frequently reported object identification processing means further selects, from the state of occurrence distribution, those having a large variation among the feature amounts of the most frequently reported objects,
Since the correction is performed so that the feature parameter in the notification target feature storage unit is excluded from the setting, a feature parameter having a large variation among the feature parameter in the notification target feature storage is temporarily removed from the recognition process. , A device in which unnecessary detection is further reduced can be provided.

【0095】またこの発明では、上記監視対象地域の映
像となるビデオ信号を入力するビデオ入力部と、最多発
報対象の特徴量のデータより無効な変化領域が多発する
映像上の領域を類推し、上記ビデオ入力部に対して映像
の該領域をマスクさせるようにするマスク範囲演算処理
手段と、をさらに備えたので、認識不要範囲にはマスク
をかけることで、さらに不要検知を減少させた装置を提
供できる。
Further, according to the present invention, a video input unit for inputting a video signal serving as an image of the monitoring target area, and an area on the image where invalid change areas frequently occur based on feature amount data of the most frequently reported object. A mask range calculation processing means for causing the video input unit to mask the area of the image, so that an unnecessary recognition range is masked to further reduce unnecessary detection. Can be provided.

【0096】またこの発明では、最多発報対象の多発す
る映像上の領域を類推し、その領域のみを監視範囲とす
るよう上記認識処理手段に指示する認識範囲演算処理手
段をさらに備えたので、さらに不要検知を減少させると
同時に正規発報対象にたいしては正確に発報する装置を
提供できる。
Further, the present invention further comprises a recognition range calculation processing means for estimating an area on a video which frequently occurs and which frequently occurs, and instructing the recognition processing means to set only the area as a monitoring range. Further, it is possible to provide a device that can reduce unnecessary detection and, at the same time, accurately issue a notification to a regular notification target.

【0097】またこの発明では、上記認識処理手段が上
記正規の発報対象のものに該当するか否かの認識を行う
前に上記変化領域の統合を行い、領域統合後の面積に対
する領域統合された各変化領域のうちの最大面積の変化
領域の面積の比率から領域統合の要否を類推し、上記認
識処理手段での変化領域の統合を禁止する領域統合演算
処理手段をさらに備えたので、適切な領域統合だけが行
われるようにしたことにより、さらに正規発報対象にた
いして正確に発報する装置を提供できる。
Further, in the present invention, before the recognition processing means recognizes whether or not the information corresponds to the normal notification target, the change area is integrated, and the area integration with respect to the area after the area integration is performed. It further includes a region integration operation processing unit that infers the necessity of region integration from the ratio of the area of the maximum area change region of each of the change regions, and prohibits the integration of the change regions in the recognition processing unit. By performing only appropriate area integration, it is possible to provide a device that issues a more accurate alert to a regular alert target.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の一実施の形態による監視用画像処
理装置の構成を示す図である。
FIG. 1 is a diagram showing a configuration of a monitoring image processing apparatus according to an embodiment of the present invention.

【図2】 図1の最多発報対象識別処理手段の動作を詳
細に示したフローチャート図である。
FIG. 2 is a flowchart showing in detail the operation of the most frequent notification target identification processing means of FIG. 1;

【図3】 この発明の別の実施の形態による監視用画像
処理装置の構成を示す図である。
FIG. 3 is a diagram showing a configuration of a monitoring image processing apparatus according to another embodiment of the present invention.

【図4】 図3の最多発報対象識別処理手段の動作を詳
細に示したフローチャート図である。
FIG. 4 is a flowchart showing in detail the operation of the most frequent notification target identification processing means of FIG. 3;

【図5】 この発明のさらに別の実施の形態による監視
用画像処理装置の構成を示す図である。
FIG. 5 is a diagram showing a configuration of a monitoring image processing apparatus according to still another embodiment of the present invention.

【図6】 図5のマスク範囲演算処理手段の動作を詳細
に示したフローチャート図である。
FIG. 6 is a flowchart showing the operation of the mask range calculation processing means of FIG. 5 in detail;

【図7】 この発明のさらに別の実施の形態による監視
用画像処理装置の構成を示す図である。
FIG. 7 is a diagram showing a configuration of a monitoring image processing apparatus according to still another embodiment of the present invention.

【図8】 図7の認識範囲演算処理手段の動作を詳細に
示したフローチャート図である。
FIG. 8 is a flowchart showing in detail the operation of the recognition range calculation processing means of FIG. 7;

【図9】 この発明のさらに別の実施の形態による監視
用画像処理装置の構成を示す図である。
FIG. 9 is a diagram showing a configuration of a monitoring image processing apparatus according to still another embodiment of the present invention.

【図10】 図9の領域統合演算処理手段の動作を詳細
に示したフローチャート図である。
FIG. 10 is a flowchart showing in detail the operation of the area integration operation processing means of FIG. 9;

【図11】 従来のこの種の監視用画像処理装置の構成
を示す図である。
FIG. 11 is a diagram showing a configuration of a conventional monitoring image processing apparatus of this type.

【図12】 図11の認識処理手段の動作をさらに詳細
に示したフローチャート図である。
FIG. 12 is a flowchart showing the operation of the recognition processing means of FIG. 11 in further detail;

【図13】 監視用画像処理装置の動作における変化領
域を説明するための図である。
FIG. 13 is a diagram illustrating a change area in the operation of the monitoring image processing apparatus.

【図14】 監視用画像処理装置の動作における変化領
域を説明するための図である。
FIG. 14 is a diagram illustrating a change area in the operation of the monitoring image processing apparatus.

【符号の説明】[Explanation of symbols]

1 ビデオ入力部、2 A/D変換部、3 現画像蓄積
部、4 背景画像蓄積部、5 背景更新部、6 背景差
分抽出部、7 しきい値演算部、8 2値化部、9 特
徴量演算部、10 発報対象特徴量記憶部、11 認識
処理手段、13発報処理手段、14 第1の最多発報対
象識別処理手段、14a 第2の最多発報対象識別処理
手段、14b 第3の最多発報対象識別処理手段、14
c 第4の最多発報対象識別処理手段、16 マスク範
囲演算処理手段、17 認識範囲演算処理手段、18
領域統合演算処理手段である。
Reference Signs List 1 video input section, 2 A / D conversion section, 3 current image storage section, 4 background image storage section, 5 background update section, 6 background difference extraction section, 7 threshold value calculation section, 8 binarization section, 9 Amount calculation unit, 10 notification target feature amount storage unit, 11 recognition processing unit, 13 notification processing unit, 14 first maximum notification target identification processing unit, 14a second maximum notification target identification processing unit, 14b 3, the most frequent notification target identification processing means, 14
c fourth most frequently reported object identification processing means, 16 mask range calculation processing means, 17 recognition range calculation processing means, 18
This is an area integration calculation processing means.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 監視対象地域の画像の現画像のデータを
一時的に記録する現画像蓄積部と、 上記画像の背景画像データを記録する背景画像蓄積部
と、 上記現画像蓄積部の現画像データを上記背景画像蓄積部
の背景画像データと比較し、画像内の移動物、変化物に
当たる多値変化領域を差分として抽出する背景差分抽出
部と、 上記変化領域の特徴を示す所定の特徴量を演算する特徴
量演算部と、 予め設定された発報対象の上記特徴量の設定値範囲であ
る特徴量パラメータを記憶する発報対象特徴量記憶部
と、 この発報対象特徴量記憶部の特徴量パラメータに元づい
て上記特徴量演算部での特徴量が正規の発報対象のもの
に該当することを認識する認識処理手段と、 この認識処理手段の認識に従って発報対象である時に発
報を行う発報処理手段と、 上記発報対象のなかで発生頻度の高い最多発報対象を発
生分布の様子から他と識別し、上記発報対象特徴量記憶
部中の特徴量パラメータの中心値を上記最多発報対象の
特徴量の中心値に揃える補正を行う最多発報対象識別処
理手段と、 を備えたことを特徴とする監視用画像処理装置。
1. A current image storage unit for temporarily recording data of a current image of an image of a monitoring target area, a background image storage unit for recording background image data of the image, and a current image of the current image storage unit A background difference extraction unit that compares data with the background image data of the background image storage unit and extracts a multivalued change region corresponding to a moving object or a change object in the image as a difference; and a predetermined feature amount indicating a feature of the change region. , A report target feature storage unit that stores a feature parameter that is a preset value range of the feature of the report target, and a report target feature storage. Recognition processing means for recognizing that the feature quantity in the feature quantity calculation section corresponds to a regular one to be issued based on the feature quantity parameter; Alarm processing means for reporting And, the most frequently reported object among the reported objects is identified as the other based on the appearance distribution, and the central value of the feature parameter in the reported target feature amount storage unit is determined as the most frequently reported object. A surveillance image processing apparatus, comprising: a most-notification-target identification processing means for performing correction to align with the center value of the characteristic amount of
【請求項2】 上記最多発報対象識別処理手段がさら
に、上記最多発報対象の上記特徴量のうちばらつきの大
きいものを発生分布の様子から選別し、上記発報対象特
徴量記憶部中の該特徴量パラメータを設定から除外する
ように補正を行うことを特徴とする請求項1に記載の監
視用画像処理装置。
2. The most frequently reported object identification processing means further selects, from the state of occurrence distribution, the feature amount of the most frequently reported object from the state of occurrence distribution. The monitoring image processing apparatus according to claim 1, wherein the correction is performed such that the feature amount parameter is excluded from the setting.
【請求項3】 上記監視対象地域の映像となるビデオ信
号を入力するビデオ入力部と、 最多発報対象の特徴量のデータより無効な変化領域が多
発する映像上の領域を類推し、上記ビデオ入力部に対し
て映像の該領域をマスクさせるようにするマスク範囲演
算処理手段と、 をさらに備えたことを特徴とする請求項1または2に記
載の監視用画像処理装置。
3. A video input unit for inputting a video signal serving as an image of the monitoring target area, and estimating an area on an image in which invalid change areas frequently occur from data of a feature amount of the most frequently reported object. The monitoring image processing apparatus according to claim 1, further comprising: mask range calculation processing means for causing the input unit to mask the area of the image.
【請求項4】 最多発報対象の多発する映像上の領域を
類推し、その領域のみを監視範囲とするよう上記認識処
理手段に指示する認識範囲演算処理手段をさらに備えた
ことを特徴とする請求項1または2に記載の監視用画像
処理装置。
4. A recognition range calculation processing means for estimating an area on a video which frequently occurs and which frequently occurs, and instructing the recognition processing means to set only the area as a monitoring range. The monitoring image processing device according to claim 1.
【請求項5】 上記認識処理手段が上記正規の発報対象
のものに該当するか否かの認識を行う前に上記変化領域
の統合を行い、 領域統合後の面積に対する領域統合された各変化領域の
うちの最大面積の変化領域の面積の比率から領域統合の
要否を類推し、上記認識処理手段での変化領域の統合を
禁止する領域統合演算処理手段をさらに備えたことを特
徴とする請求項1または2に記載の監視用画像処理装
置。
5. The method according to claim 1, wherein the change processing unit integrates the change regions before the recognition processing unit recognizes whether or not the change corresponds to the legitimate notification target. It further comprises a region integration operation processing means for inferring the necessity of region integration from the ratio of the area of the maximum area change area of the area and prohibiting the integration of the change area by the recognition processing means. The monitoring image processing device according to claim 1.
JP00485498A 1998-01-13 1998-01-13 Image processing device for monitoring Expired - Fee Related JP3986643B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP00485498A JP3986643B2 (en) 1998-01-13 1998-01-13 Image processing device for monitoring

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP00485498A JP3986643B2 (en) 1998-01-13 1998-01-13 Image processing device for monitoring

Publications (2)

Publication Number Publication Date
JPH11203567A true JPH11203567A (en) 1999-07-30
JP3986643B2 JP3986643B2 (en) 2007-10-03

Family

ID=11595277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP00485498A Expired - Fee Related JP3986643B2 (en) 1998-01-13 1998-01-13 Image processing device for monitoring

Country Status (1)

Country Link
JP (1) JP3986643B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005128815A (en) * 2003-10-24 2005-05-19 Matsushita Electric Ind Co Ltd Person detection device and method
US7433494B2 (en) 2002-09-19 2008-10-07 Denso Corporation Moving body detecting apparatus
JP2009217835A (en) * 2001-11-21 2009-09-24 Iomniscient Pty Ltd Non-motion detection
JP2010097507A (en) * 2008-10-17 2010-04-30 Nippon Telegr & Teleph Corp <Ntt> Device, method, and program for extracting movement object
WO2010103584A1 (en) * 2009-03-09 2010-09-16 パナソニック株式会社 Device for detecting entry and/or exit monitoring device, and method for detecting entry and/or exit
JP2012501033A (en) * 2008-08-28 2012-01-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Fall detection system and / or fall prevention system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217835A (en) * 2001-11-21 2009-09-24 Iomniscient Pty Ltd Non-motion detection
US7433494B2 (en) 2002-09-19 2008-10-07 Denso Corporation Moving body detecting apparatus
JP2005128815A (en) * 2003-10-24 2005-05-19 Matsushita Electric Ind Co Ltd Person detection device and method
JP2012501033A (en) * 2008-08-28 2012-01-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Fall detection system and / or fall prevention system
JP2010097507A (en) * 2008-10-17 2010-04-30 Nippon Telegr & Teleph Corp <Ntt> Device, method, and program for extracting movement object
WO2010103584A1 (en) * 2009-03-09 2010-09-16 パナソニック株式会社 Device for detecting entry and/or exit monitoring device, and method for detecting entry and/or exit
JP5432983B2 (en) * 2009-03-09 2014-03-05 パナソニック株式会社 Entrance / exit detection device, monitoring device, and entrance / exit detection method
US8717171B2 (en) 2009-03-09 2014-05-06 Panasonic Corporation Device for detecting entry and/or exit, monitoring device, and method for detecting entry and/or exit including a possible existing region

Also Published As

Publication number Publication date
JP3986643B2 (en) 2007-10-03

Similar Documents

Publication Publication Date Title
CN109033973B (en) Monitoring and early warning method and device and electronic equipment
JP5388829B2 (en) Intruder detection device
CN113052107B (en) Method for detecting wearing condition of safety helmet, computer equipment and storage medium
WO2023039781A1 (en) Method for detecting abandoned object, apparatus, electronic device, and storage medium
CN113628404A (en) Method and device for reducing invalid alarm
WO1998028706A1 (en) Low false alarm rate video security system using object classification
KR102263512B1 (en) IoT integrated intelligent video analysis platform system capable of smart object recognition
CN111797726A (en) Flame detection method and device, electronic equipment and storage medium
CN114758300A (en) Method, device and equipment for judging malicious shielding of scene and readable storage medium
JP3377659B2 (en) Object detection device and object detection method
JPH05284501A (en) Intrusion monitor picture device
JPH11203567A (en) Image processor for monitor
JP5286113B2 (en) Smoke detector
JP2612662B2 (en) Intruder identification system
JP3294468B2 (en) Object detection method in video monitoring device
JPH0514891A (en) Image monitor device
CN114821978A (en) Method, device and medium for eliminating false alarm
JP3536913B2 (en) Falling object detection system, falling object detection method, and recording medium
JP4071336B2 (en) Image processing device for monitoring
JP3830616B2 (en) Image processing device for monitoring
JP3848709B2 (en) Image processing device for monitoring
JP2001175959A (en) Method and device for detecting invasion object
JP4544955B2 (en) Image monitoring device
JP3490196B2 (en) Image processing apparatus and method
JP2002262282A (en) Image supervisory method and image supervisory device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050106

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070711

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100720

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100720

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110720

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110720

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120720

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120720

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130720

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees