JPH10289321A - Image monitoring device - Google Patents

Image monitoring device

Info

Publication number
JPH10289321A
JPH10289321A JP9093700A JP9370097A JPH10289321A JP H10289321 A JPH10289321 A JP H10289321A JP 9093700 A JP9093700 A JP 9093700A JP 9370097 A JP9370097 A JP 9370097A JP H10289321 A JPH10289321 A JP H10289321A
Authority
JP
Japan
Prior art keywords
image
illumination
difference
video information
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9093700A
Other languages
Japanese (ja)
Inventor
Chieko Konuma
小沼  知恵子
Yoshiki Kobayashi
小林  芳樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP9093700A priority Critical patent/JPH10289321A/en
Publication of JPH10289321A publication Critical patent/JPH10289321A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To prevent erroneous detection due to the periodical fluctuations of illumination for an image monitoring device which detects a mobile object via the image processing performed based on the graphic information that is photographed by a TV camera. SOLUTION: It is decided whether the graphic information is affected by the fluctuation of illumination based on the control information on a TV camera 100. If the graphic information is not affected by the fluctuation of illumination, the image processing is carried out based on the graphic information which is fetched at a certain time as a 1st input image to be processed and also the graphic information which is fetched at an earlier time than the 1st input image as a 2nd input image. If the graphic information is affected by the fluctuation of illumination, the image processing to be carried out based on the image graphic is passed and instead the graphic information of the same phase set on the illumination fluctuation cycle is fetched to carry out the image processing.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像監視装置に係
り、周期的な照明照度変動がある環境にある店舗,金融
機関,倉庫,ビル,住宅等の内部での移動物体の監視に
関し、周期的な照明変動による誤検知を防止して移動物
体を正確に識別するための画像監視装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image monitoring apparatus, and more particularly to a method for monitoring a moving object in a store, a financial institution, a warehouse, a building, a house, or the like in an environment having periodic fluctuations in illumination intensity. The present invention relates to an image monitoring device for preventing erroneous detection due to various illumination fluctuations and for accurately identifying a moving object.

【0002】[0002]

【従来の技術】周期的な照明変動がある環境を撮影して
得た映像情報に基づいて画像処理を行って移動物体を検
知する画像監視において、誤検知を防止するために、撮
像制御部を設け、照明変動の周期上における位相が同じ
である時点で撮像を行う方法(特開平4−235489
号公報参照)がある。
2. Description of the Related Art In image monitoring for detecting a moving object by performing image processing based on video information obtained by photographing an environment having periodic illumination fluctuations, an image pickup control unit is provided to prevent erroneous detection. And a method of imaging at a point in time when the phases on the cycle of illumination fluctuation are the same (Japanese Patent Laid-Open No. 4-235489)
Reference).

【0003】[0003]

【発明が解決しようとする課題】建物内部では、自然光
と商用電源による蛍光灯や白熱電灯の光を併用する照明
が採用されており、その明るさは絶えず変化している。
このような環境において、監視対象領域をITVカメラ
で撮影して得た映像情報を画像処理して不審者等の移動
物体の監視を行う場合、例えば、ITVカメラの絞りや
シャッター速度等をある明るさの時点で固定値に設定に
すると、照度に変動があれば不鮮明な映像情報(画像)
となってしまう。そこで、明るさの変動に追随した鮮明
な映像情報を得るために、ITVカメラでは、絞りやシ
ャッター速度等の制御を自動モードに設定して撮影して
いる。
In a building, lighting that uses natural light and fluorescent light or incandescent light from a commercial power supply is used, and the brightness thereof is constantly changing.
In such an environment, when monitoring a moving object such as a suspicious person by performing image processing on video information obtained by photographing a monitoring target area with an ITV camera, for example, adjusting the aperture and shutter speed of the ITV camera to a certain brightness If it is set to a fixed value at that point, if the illuminance fluctuates, unclear video information (image)
Will be. Therefore, in order to obtain clear video information that follows a change in brightness, an ITV camera shoots an image by setting the control of the aperture, shutter speed, and the like to an automatic mode.

【0004】ITVカメラの自動モード下では、絶えず
変動している明るさに追随して絞りやシャッター速度等
が各フレーム(撮影シーン)毎に制御されて変化する。
例えば、明るい照度の場合のシャッター速度は、1/2
500s,1/5000s等となり、比較的暗い照度の
場合には1/60s,1/100s等になる。しかも、
蛍光灯の照明変動は、一般的には、地域により50Hzま
たは60Hzの何れかの周波数の電源電圧の変動に従って
周期的に変化している。
In the automatic mode of the ITV camera, the aperture, shutter speed and the like are controlled and changed for each frame (shooting scene) in accordance with the constantly fluctuating brightness.
For example, the shutter speed for bright illuminance is 1 /
500 s, 1/5000 s, etc., and 1/60 s, 1/100 s, etc. for relatively dark illuminance. Moreover,
Illumination variation of a fluorescent lamp generally changes periodically according to a variation of a power supply voltage of either 50 Hz or 60 Hz depending on a region.

【0005】ITVカメラが1/60sのシャッター速
度で1/60秒毎に映像情報信号を出力しているとき、
このITVカメラは、その内部での映像情報の蓄えは1
/60秒付近で行い、外部への映像情報信号の出力を1
/60秒の時点で行っているのであり、実際にITVカ
メラからの映像情報信号は、1/60秒時点の瞬間の映
像そのものではない。シャッター速度が1/100s,
1/2500s,1/5000s等の場合も同様であ
る。
When an ITV camera outputs a video information signal every 1/60 second at a shutter speed of 1/60 s,
In this ITV camera, the storage of video information inside is 1
/ 60 seconds, output of video information signal to outside is 1
/ 60 seconds, and the video information signal from the ITV camera is not actually the video at the moment at 1/60 seconds. Shutter speed 1 / 100s,
The same applies to the case of 1 / 2500s, 1 / 5000s and the like.

【0006】シャッター速度を自動モードにした場合
は、シャッター速度は、環境の明るさの変化により、絶
えず1/60s,1/100s,1/250s,1/5
00s,1/1000s,1/2500s,1/500
0s,1/10000s等と変動している。固定シャッ
ター速度の場合は、初期設定した値、即ち、1/60
s,1/100s等の固定値となって変化しない。従っ
て、固定シャッター速度方式でも自動シャッター速度方
式でも、周期的に照度が変動している蛍光灯の照明で
は、常にフリッカを発生している。
When the shutter speed is set to the automatic mode, the shutter speed is constantly changed to 1/60 s, 1/100 s, 1/250 s, 1/5 due to the change in the brightness of the environment.
00s, 1 / 1000s, 1 / 2500s, 1/500
0 s, 1/10000 s, etc. In the case of a fixed shutter speed, the initially set value, that is, 1/60
s, 1 / 100s, etc., and do not change. Therefore, regardless of the fixed shutter speed method or the automatic shutter speed method, flicker is always generated in the illumination of the fluorescent lamp whose illuminance is periodically changed.

【0007】しかし、比較的暗い照度の場合(例えば、
シャッター速度が1/60s,1/100s,1/25
0s等)には、ITVカメラの内部で映像情報のフリッ
カの発生を抑止する対策処理を行うことができる(シャ
ッター速度が遅いために処理時間を確保することができ
る)。しかしながら、明るい照度の場合(例えば、シャ
ッター速度が1/500s,1/1000s,1/25
00s,1/5000s,1/10000s等)には、
ITVカメラ内部ではフリッカの発生を抑止する対策処
理を行うことができない(シャッター速度が速いために
処理時間を確保することができない)。
However, in the case of relatively dark illuminance (for example,
Shutter speed 1 / 60s, 1 / 100s, 1/25
0s), a countermeasure process can be performed to suppress the occurrence of flicker of video information inside the ITV camera (processing time can be secured because the shutter speed is slow). However, in the case of bright illuminance (for example, when the shutter speed is 1/500 s, 1/1000 s, 1/25
00s, 1 / 5000s, 1 / 10000s, etc.)
In the ITV camera, a countermeasure process for suppressing the occurrence of flicker cannot be performed (the processing time cannot be secured because the shutter speed is high).

【0008】従って、ITVカメラの内部でフリッカの
発生を抑止する対策処理を行うことができないシャッタ
ー速度では、固定シャッター速度モード及び自動シャッ
ター速度モードの何れの場合でも、監視対象領域を撮像
して出力された映像情報(画像)にはフリッカが発生し
てしまい、監視処理装置に入力される映像情報(画像)
にちらつきを生じさせてしまう。
Therefore, at a shutter speed in which a countermeasure process for suppressing the occurrence of flicker cannot be performed inside the ITV camera, the monitoring target area is imaged and output in either the fixed shutter speed mode or the automatic shutter speed mode. Flicker occurs in the displayed video information (image), and the video information (image) to be input to the monitoring processing device.
Causes flickering.

【0009】撮像制御部を設けて照度変動周期上の位相
が同じである時点で撮像を行う方法では、ITVカメラ
が外部へ出力した映像情報のうち同一位相時点における
映像情報を取り込んではいるものの、ITVカメラの内
部での映像情報の蓄えは同一位相時点付近で行われ、I
TVカメラの外部への出力が同一位相時点で行われる。
従って、実際の映像情報信号は、同一位相時点で蓄えた
瞬間の映像情報そのものを出力しているわけではないた
めに、蛍光灯照明の場合には同一照度ではなくなり、蛍
光灯照明によるフリッカが発生している映像情報信号が
入力されてしまい、誤検知が多発するという問題があ
る。
In the method in which an imaging control unit is provided to perform imaging at the time when the phases on the illuminance fluctuation cycle are the same, video information at the same phase is taken in among the video information output from the ITV camera to the outside. The storage of video information inside the ITV camera is performed near the same phase,
Output to the outside of the TV camera is performed at the same phase.
Therefore, the actual video information signal does not necessarily output the video information itself at the moment stored at the same phase, so that in the case of fluorescent lamp illumination, the illuminance is not the same, and flicker due to the fluorescent lamp illumination occurs. However, there is a problem that the video information signal is input, and erroneous detection frequently occurs.

【0010】本発明の目的は、周期的な照明変動が発生
している環境においても、この周期的な照明変動による
フリッカ等に起因する誤検知を防止して、移動物体をオ
ンラインで確実に識別することができる画像監視装置を
提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to prevent a false detection caused by flicker or the like due to a periodic illumination fluctuation and to reliably identify a moving object online even in an environment where a periodic illumination fluctuation occurs. It is an object of the present invention to provide an image monitoring apparatus capable of performing the above.

【0011】本発明の他の目的は、映像情報に対してフ
リッカ発生防止対策機能を備えたITVカメラを使用し
て監視対象領域を撮影した映像情報に基づいて該撮影対
象領域内の移動物体を監視する場合に、ITVカメラの
シャッター速度が速いためにフリッカ防止対策機能が機
能しない状態において、フリッカによる誤検知を防止す
ることができる画像監視装置を提供することにある。
Another object of the present invention is to detect a moving object in a shooting target area based on video information obtained by shooting a monitoring target area using an ITV camera having a function of preventing flickering of the video information. An object of the present invention is to provide an image monitoring apparatus capable of preventing erroneous detection due to flicker in a state where a flicker prevention countermeasure function does not function due to a high shutter speed of an ITV camera when monitoring.

【0012】[0012]

【課題を解決するための手段】本発明は、周期的な照明
変動が発生する環境で監視対象領域をフリッカ防止対策
機能付きのTVカメラで撮影して該監視領域中の変化を
画像で監視する画像監視装置である。
SUMMARY OF THE INVENTION According to the present invention, in an environment where periodic illumination fluctuations occur, an area to be monitored is photographed by a TV camera having a function for preventing flicker and a change in the area is monitored by an image. It is an image monitoring device.

【0013】この画像監視装置は、ITVカメラから出
力される映像情報について周期的な照明変動の影響の有
無を判定するための制御情報を取得する。この制御情報
には、例えばTVカメラにおけるシャッター速度情報を
用い、各撮影シーン毎にこのシャッター速度情報に基づ
いて周期的な照明変動の影響が対策されているか否かを
判定する情報とする。そして、この制御情報を参照する
ことにより、対策機能が機嚢して周期的な照明変動の影
響が存在しない映像情報であると判定した場合には、処
理対象であるある時刻に取り込んだ映像情報による第1
の入力画像と、その前の時刻に取り込んだ映像情報によ
る第2の入力画像をそのまま画像処理して移動物体の監
視を行う。
This image monitoring apparatus obtains control information for determining whether or not there is an influence of periodic illumination fluctuation on video information output from an ITV camera. The control information uses, for example, shutter speed information of a TV camera, and is used as information for determining whether or not the influence of periodic illumination fluctuation is taken for each shooting scene based on the shutter speed information. Then, by referring to this control information, if the countermeasure function determines that the image information does not have the effect of the periodic illumination fluctuation due to the case, the image information captured at a certain time to be processed is determined. By the first
And the second input image based on the video information captured at the previous time is processed as it is to monitor the moving object.

【0014】一方、周期的な照明変動の影響が存在する
映像情報であると判定した場合には、該撮影シーンの画
像処理を省略(パス)する手法か、または、照明変動周
期上の同一位相で次の映像情報を取り込んで画像処理す
る手法か、または、ある時刻に取り込んだ映像情報の第
1の入力画像と、その前の時刻に取り込んだ映像情報で
取り込み時刻の差が変動周期上の同一位相となる時に取
り込んだ映像情報を選択してその画像を第2の入力画像
として画像処理を行う手法と判定する。
On the other hand, if it is determined that the video information is affected by the periodic illumination fluctuation, the image processing of the photographed scene is omitted (passed) or the same phase in the illumination fluctuation cycle is used. The next video information is fetched and the image processing is performed, or the difference between the first input image of the video information fetched at a certain time and the video information fetched at the previous time is changed in the fluctuation cycle. It is determined that the video information captured when the phase is the same is selected and the image is processed as the second input image.

【0015】第1の入力画像と第2の入力画像との差分
を行って差分画像データを作成し、この差分画像の濃度
頻度分布から2値化のしきい値を自動決定して2値画像
を作成して変化部を抽出する。抽出した変化部からノイ
ズを除去した2値画像を用いて、隣接した領域にある2
値画像を統合する。
A difference between the first input image and the second input image is generated to generate difference image data, and a threshold for binarization is automatically determined from the density frequency distribution of the difference image to generate a binary image. Is created to extract the changed part. Using a binary image from which noise has been removed from the extracted changed portion, a binary image in an adjacent region is used.
Merge value images.

【0016】最後に、統合した領域の特徴量を算出して
抽出物体を判定し、外乱を除外して移動物体を検出す
る。検出した移動物体は、表示制御部によってリアルタ
イムで表示装置に表示し、識別した所期の物体が写って
いる映像を映像モニタ等の表示装置でオンライン監視で
きるようにする。
Finally, the extracted object is determined by calculating the characteristic amount of the integrated area, and a moving object is detected without disturbance. The detected moving object is displayed on the display device in real time by the display control unit, so that an image of the identified intended object can be monitored online on a display device such as a video monitor.

【0017】このような画像監視装置によれば、背景に
照度変動があり、更に、周期的な照明変動が存在するす
る環境で監視対象領域をITVカメラで撮影して該監視
領域中の変化を画像で監視するシステムにおいて、物体
の検知精度の要求に応じて、画像処理方法を柔軟に対応
することができる。例えば、絶対に誤検知しないように
する場合には、周期的な照明変動の影響が存在する映像
情報に基づく画像処理は省略して周期的な照明変動の影
響が存在しない映像情報のみで画像処理することによ
り、フリッカ等の影響による誤検知を除去することがで
きる。また、移動物体を見逃さないように検知する場合
には、周期的な照明変動の影響の存在の有無にかかわら
ず、照明変動の同一周期時点で入力した映像情報を用い
た画像処理を行う。ITVカメラのシャッター速度が自
動制御モードの場合には、照度変動により例えば1/6
0〜1/10000等と随時変化しているため、監視中
の全撮影シーンに周期的な照明変動の影響が発生してい
ることは少ないので、フリッカ等の影響による誤検知は
かなりの低減することが可能になる。
According to such an image monitoring apparatus, the environment to be monitored is photographed with an ITV camera in an environment where there is illuminance fluctuation in the background and periodic illumination fluctuation exists, and changes in the monitoring area are monitored. In an image monitoring system, an image processing method can be flexibly supported according to a demand for object detection accuracy. For example, when absolutely no false detection is performed, image processing based on video information that is affected by periodic illumination fluctuations is omitted, and image processing is performed using only video information that is not affected by periodic illumination fluctuations. By doing so, erroneous detection due to the influence of flicker or the like can be eliminated. In addition, when the moving object is detected so as not to be overlooked, image processing is performed using the video information input at the same cycle of the illumination fluctuation regardless of the presence or absence of the influence of the periodic illumination fluctuation. When the shutter speed of the ITV camera is in the automatic control mode, for example, 1/6
Since it changes from 0 to 1 / 10,000 at any time, the influence of the periodic illumination fluctuation rarely occurs in all the photographed scenes being monitored, so that the erroneous detection due to the influence of flicker or the like is considerably reduced. It becomes possible.

【0018】更に、画像処理においては、第1の入力画
像と第2の入力画像との差分を行って差分画像データを
作成してこの差分画像の濃度頻度分布から2値化のしき
い値を自動決定して2値画像を作成してノイズ除去を行
い、隣接した領域にある2値画像を統合してから抽出物
体を識別するので、外乱を除外し複数の物体を分離して
検知することができるので高精度な検知が可能である。
そして、検出した移動物体は、表示装置にリアルタイム
で表示されるので、監視者は、所期の移動物体が写って
いる映像をオンライン監視することが可能になる。
Furthermore, in the image processing, a difference between the first input image and the second input image is calculated to generate difference image data, and a binarization threshold value is determined from the density frequency distribution of the difference image. Automatically determine and create a binary image, remove noise, integrate binary images in adjacent areas, and identify the extracted object. Therefore, it is necessary to exclude disturbance and detect multiple objects separately. Therefore, highly accurate detection is possible.
Then, since the detected moving object is displayed on the display device in real time, the observer can online monitor the video in which the intended moving object is captured.

【0019】[0019]

【発明の実施の形態】以下、本発明の一実施形態を図面
を用いて説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to the drawings.

【0020】図1は、本発明の一実施形態を示す画像監
視装置のブロック図である。この画像監視装置におい
て、ITVカメラ100は、監視対象シーンを撮影して
映像情報信号を出力する。このITVカメラ100は、
1/250sのシャッタ速度までは映像情報信号に対し
てフリッカ対策処理を行うフリッカ対策処理機能を備
え、また、シャッター速度については自動制御機能と手
動制御機能を備えているものとする。画像入力部800
は、前記ITVカメラ100から出力される映像情報と
撮影タイミング情報を保持する。この画像入力部800
は、前後する2つの映像情報の画像に基づいて差分画像
データを作成するために必要な少なくとも2撮影シーン
分の映像情報とその撮影タイミング情報を蓄積して保持
するメモリを備える。
FIG. 1 is a block diagram of an image monitoring apparatus showing one embodiment of the present invention. In this image monitoring apparatus, the ITV camera 100 shoots a monitoring target scene and outputs a video information signal. This ITV camera 100
Up to a shutter speed of 1/250 s, a flicker countermeasure processing function for performing flicker countermeasure processing on the video information signal is provided, and an automatic control function and a manual control function are provided for the shutter speed. Image input unit 800
Holds video information and shooting timing information output from the ITV camera 100. This image input unit 800
Is provided with a memory for accumulating and storing video information for at least two photographing scenes necessary for generating difference image data based on images of two preceding and succeeding video information and its photographing timing information.

【0021】カメラ制御情報出力部400は、ITVカ
メラ100から各撮影時のシャッター速度情報を取り込
んで出力する。
The camera control information output unit 400 captures and outputs shutter speed information at the time of each photographing from the ITV camera 100.

【0022】処理手法判定部600は、各撮影シーン毎
のシャッター速度を判定し、該撮影シーンの映像情報に
はフリッカ等の周期的な照明変動の影響が存在していな
い(フリッカ対策処理済み)と判定した場合には、画像
入力部800で入力した画像情報のうち、処理対象であ
る第1の入力画像としてある時刻に取り込んだ映像情報
と、第2の入力画像としてその前の時刻に取り込んだ映
像情報の画像をそのまま入力画像として画像処理を行う
手法を使用すると判定し、差分画像作成部1000で第
1の入力画像と第2の入力画像の差分をとって差分画像
データを作成するように画像入力部800と差分画像作
成部1000に指示する。また、フリッカ等の周期的な
照明変動の影響が存在するフリッカ対策未処理の映像情
報が出力されていると判定した場合には、画像入力部8
00で入力した第1の入力画像と第2の入力画像の差分
画像データ作成処理を省略(パス)し、ITVカメラ1
00で撮影した次の撮影シーン(望ましくは照明変動周
期上の同一位相)の映像情報信号を取得する撮影ステッ
プに戻るか、または、画像入力部800で入力して保持
している映像情報の中から、第1の入力画像としてある
時刻に取り込んだシーンと、その前の時刻に取り込んだ
第2の入力画像の取り込み時刻の差が照明変動周期上の
同一位相となる時に取り込んだ映像情報を選択してフリ
ッカ等を低減した2撮影シーンの入力画像として処理を
行う手法を使用すると判定して、差分画像作成部100
0でこの第1の入力画像と第2の入力画像との差分を行
って差分画像データを作成するように指示する。
The processing method determination unit 600 determines the shutter speed for each shooting scene, and the video information of the shooting scene is free from the effects of periodic illumination fluctuation such as flicker (flicker countermeasure processing has been performed). When it is determined that the image information input by the image input unit 800 is the video information captured at a certain time as the first input image to be processed and the video information captured at a previous time as the second input image, It is determined that the method of performing image processing using the image of the video information as an input image as it is is used, and the difference image creation unit 1000 creates difference image data by calculating the difference between the first input image and the second input image. Then, the image input unit 800 and the difference image creation unit 1000 are instructed. If it is determined that video information that has not been subjected to flicker countermeasures and is affected by periodic illumination fluctuations such as flicker has been output, the image input unit 8
The difference image data creation processing of the first input image and the second input image input at 00 is omitted (passed), and the ITV camera 1
Returning to the photographing step of acquiring a video information signal of the next photographed scene (preferably the same phase in the illumination fluctuation cycle) photographed in 00, or in the video information input and held by the image input unit 800 From, the video information captured when the difference between the capture time of the scene captured at a certain time as the first input image and the capture time of the second input image captured at the previous time becomes the same in the illumination fluctuation cycle is selected. Then, it is determined that a method of performing processing as an input image of two shooting scenes in which flicker or the like is reduced is used, and the difference image creating unit 100
At 0, an instruction is made to make a difference between the first input image and the second input image to create difference image data.

【0023】次に、物体抽出部2000は、差分画像作
成部1000で作成した差分画像データの濃度頻度分布
から2値化のしきい値を自動的に決定して2値画像を作
成する。物体検出部3000は、前記物体抽出部200
0で作成した2値画像のノイズを除去して隣接の2値画
像を統合した後に、統合領域の特徴量を算出して抽出物
体を識別し、所期の移動物体の検出処理を行う。
Next, the object extracting unit 2000 automatically determines a threshold for binarization from the density frequency distribution of the difference image data created by the difference image creating unit 1000, and creates a binary image. The object detection unit 3000 includes the object extraction unit 200
After removing the noise of the binary image created in step 0 and integrating the adjacent binary images, the feature amount of the integrated area is calculated, the extracted object is identified, and the intended moving object detection process is performed.

【0024】物体検出部3000で所期の移動物体を検
出すると、表示制御部4000は、検知データをメモリ
等に格納し、格納したデータの画像情報や特徴量等の情
報を用いて、表示装置5000にリアルタイムに表示す
る制御を行う。
When an intended moving object is detected by the object detecting unit 3000, the display control unit 4000 stores the detected data in a memory or the like, and uses the stored data, such as image information and feature information, to display a display device. The control for displaying in real time at 5000 is performed.

【0025】これらのITVカメラ100,カメラ制御
情報出力部400,処理手法判定部600,画像入力部
800,差分画像作成部1000,物体抽出部200
0,物体検出部3000が順次繰り返して処理を実行す
ることにより、表示制御部4000は、表示装置500
0に検知結果をリアルタイムに表示し、監視者は、識別
された所期の移動物体が写っている映像をモニタ等の表
示装置でオンライン監視することができる。
These ITV camera 100, camera control information output unit 400, processing method determination unit 600, image input unit 800, difference image creation unit 1000, object extraction unit 200
0, the object detection unit 3000 sequentially and repeatedly executes the processing, so that the display control unit 4000
At 0, the detection result is displayed in real time, and the observer can monitor the image of the identified moving object on-line on a display device such as a monitor.

【0026】図2は、周期的な照明変動とITVカメラ
のシャッター速度が変化した場合の映像情報の出力のタ
イミングを示す説明図であり、蛍光灯による照明変動の
例である。供給電力が50Hz(または60Hz)の地域に
おいては、蛍光灯には周期的な照度220の変動が発生
し、山から山まで(または谷から谷まで)の1周期T
は、50Hz(または60Hz)の場合は100(または1
20)周期/秒である。
FIG. 2 is an explanatory diagram showing a timing of outputting video information when a periodic illumination variation and a shutter speed of an ITV camera change, and is an example of illumination variation by a fluorescent lamp. In an area where the supply power is 50 Hz (or 60 Hz), the fluorescent lamp periodically fluctuates in illuminance 220, and one cycle T from mountain to mountain (or from valley to valley).
Is 100 (or 1) for 50 Hz (or 60 Hz)
20) Period / sec.

【0027】いま、ITVカメラのシャッター速度が1
/60sの場合の映像情報信号230は、1/60秒毎
に出力され、1/100sの場合の映像情報信号240
は1/100秒毎に出力され、同様に、1/250sの
場合の映像情報信号250は1/250秒毎に出力さ
れ、1/500sの場合の映像映像信号260は1/5
00秒毎に出力され、1/1000sの場合の映像情報
信号270は1/1000秒毎に出力される。従って、
シャッター速度が小さければ(低速であれば)、ある時
刻で出力してから次の出力までの時間が長く、大きけれ
ば(高速であれば)時間が短いので、映像情報信号の出
力の時間間隔は、シャッター速度が高速な程少なくなっ
てしまい、各映像情報信号毎に例えばフリッカ対策等の
処理を実現しようとしても、高速なシャッター速度では
実現することが困難である。
Now, the shutter speed of the ITV camera is 1
The video information signal 230 in the case of / 60 s is output every 1/60 second, and the video information signal 240 in the case of 1/100 s
Is output every 1/100 second, and similarly, the video information signal 250 for 1/250 s is output every 1/250 second, and the video image signal 260 for 1/500 s is 1/5
It is output every 00 seconds, and the video information signal 270 for 1 / 1000s is output every 1/1000 seconds. Therefore,
If the shutter speed is low (low speed), the time from output at a certain time to the next output is long, and if it is high (high speed), the time is short. However, the higher the shutter speed, the smaller the number. For example, it is difficult to realize a process such as a measure against flicker for each video information signal at a high shutter speed.

【0028】図3は、前記カメラ制御情報出力部400
の内部構成の一実施形態を示すブロック図である。IT
Vカメラ100が監視対象領域を撮影して映像情報信号
を出力すると、シャッター速度モード判定部420は該
撮影シーンのシャッター速度が固定モードであるか、ま
たは自動制御モードであるかどうかを判定し、自動制御
モードであればITVカメラ100から該撮影シーンの
シャッター速度情報を取得してシャッター速度識別部4
40に出力し、固定モードの場合には、ITVカメラ1
00に予め設定されている固定値を示す値をシャッター
速度出力部460に出力する。シャッター速度識別部4
40は、該撮影シーンのシャッター速度情報を識別して
識別値(例えば、9種類の変化であれば“1”〜
“9”)をシャッター速度出力部460に出力する。
FIG. 3 shows the camera control information output unit 400.
FIG. 2 is a block diagram illustrating an embodiment of the internal configuration of the embodiment. IT
When the V camera 100 shoots the monitoring target area and outputs a video information signal, the shutter speed mode determining unit 420 determines whether the shutter speed of the shooting scene is in the fixed mode or the automatic control mode, In the automatic control mode, the shutter speed information of the shooting scene is acquired from the ITV camera 100, and the shutter speed identification unit 4
40, and in the case of the fixed mode, the ITV camera 1
A value indicating a fixed value preset to 00 is output to shutter speed output section 460. Shutter speed identification unit 4
Reference numeral 40 denotes a shutter speed information of the shooting scene and an identification value (for example, “1” to 9 for 9 kinds of changes)
“9”) is output to the shutter speed output unit 460.

【0029】処理手法判定部600は、シャッター速度
出力部460から出力された値に応じて映像情報をどの
ように処理するかを判定する。
The processing method determining section 600 determines how to process video information according to the value output from the shutter speed output section 460.

【0030】図4は、前記シャッター速度出力部460
で処理するシャッター速度取得処理手順の一実施形態を
示すフローチャートである。
FIG. 4 shows the shutter speed output unit 460.
6 is a flowchart showing an embodiment of a shutter speed acquisition processing procedure to be executed in FIG.

【0031】先ず、ステップ500で、ITVカメラ1
00のシャッター速度が固定モードか自動制御モードか
を判定し、固定モードの場合には、ステップ515で、
ITVカメラ100に予め設定された値、例えば1/6
0に設定されていれば1/60sを、1/100に設定
すれば1/100sの値を出力する。自動制御モードの
場合には、ステップ505でシャッター速度の識別値を
判定し、例えば9種類に変化すると識別した場合は、識
別値が“1”の場合はステップ510で1/60sを、
識別値が“2”の場合はステップ520で1/100s
を、識別値が“3”の場合はステップ530で1/25
0sを、識別値が“4”の場合はステップ540で1/
500sを、識別値が“5”の場合はステップ550で
1/1000sを、識別値が“6”の場合はステップ5
60で1/2500sを、識別値が“7”の場合はステ
ップ570で1/5000sを、識別値が“8”の場合
はステップ580で1/10000sを、識別値が
“9”の場合はステップ590で1/17500sのシ
ャッター速度の値をそれぞれ取得して出力する。
First, in step 500, the ITV camera 1
It is determined whether the shutter speed of 00 is a fixed mode or an automatic control mode.
A value preset in the ITV camera 100, for example, 1/6
If it is set to 0, it outputs 1 / 60s, and if it is set to 1/100, it outputs a value of 1 / 100s. In the case of the automatic control mode, the identification value of the shutter speed is determined in step 505. For example, if it is determined that the shutter speed changes to 9 types, if the identification value is “1”, 1 / 60s is determined in step 510,
If the discrimination value is “2”, 1 / 100s in step 520
If the identification value is “3”, 1/25 in step 530
0s, and if the identification value is “4”, 1 /
500 s, if the identification value is “5”, 1/1000 s in step 550; if the identification value is “6”, step 5
60, 1/2500 s. If the identification value is “7”, 1/5000 s in step 570. If the identification value is “8”, 1/10000 s in step 580. If the identification value is “9”, At step 590, a shutter speed value of 1/1500 s is obtained and output.

【0032】図5は、本発明においてある撮影シーンの
シャッター速度値を表示装置5000に表示する場合の
説明図であり、OA機器480が設置されている事務室
を蛍光灯470で照明する例である。PC等のOA機器
480が設置されている事務室を蛍光灯470で照明し
ながらITVカメラ100で撮影し、該撮影シーンの映
像と該シーン撮影時のシャッター速度値を画面右下のシ
ャッター速度表示欄490に(例えば、シャッター速度
=1/500)表示した状態を示している。表示形態
は、シャッター速度がわかる表示であれば何でもよい。
シャッター速度が1/500の例は明るい撮影シーンで
あり、ITVカメラ100からの映像情報信号の出力間
隔が短いために、フリッカ対策処理を行うことができ
ず、そのために、蛍光灯470のちらつきによってOA
機器480にきらきらと反射し、反射面に輝度変化を生
じさせる。
FIG. 5 is an explanatory diagram of a case where the shutter speed value of a certain photographic scene is displayed on the display device 5000 according to the present invention, in which the office where the OA equipment 480 is installed is illuminated by the fluorescent lamp 470. is there. The office where the OA equipment 480 such as a PC is installed is photographed with the ITV camera 100 while illuminating with the fluorescent lamp 470, and the image of the photographed scene and the shutter speed value at the time of photographing the scene are displayed at the lower right of the screen. A column 490 (for example, shutter speed = 1/500) is shown. The display form may be any display as long as the display shows the shutter speed.
An example in which the shutter speed is 1/500 is a bright shooting scene, and the output interval of the video information signal from the ITV camera 100 is short, so that it is not possible to perform the flicker countermeasure process. OA
The light is reflected brilliantly on the device 480, causing a change in luminance on the reflection surface.

【0033】図6は、前記処理手法判定部600の内部
構成の一実施形態を示すブロック図である。シャッター
速度チェック部620は、カメラ制御情報出力部400
から出力される監視対象領域撮影時のシャッター速度情
報の値により、シャッター速度をチェックする。次に、
周期的な照明変動によるちらちき対策判定部640は、
前記チェック結果を用いて該処理対象シーンの映像情報
にフリッカ等の周期的な照明変動の影響が存在する否か
を判定する。この判定基準は、この実施形態では、IT
Vカメラ100が映像情報信号に対するフリッカ等の周
期的な照明変動によるちらつきを防止するフリッカ対策
処理を実行することができるシャッター速度(1/25
0s)とした。処理手法決定部660は、ちらつき対策
判定部660がフリッカ等の周期的な照明変動による影
響が存在しないと判定すると、処理対象である第1の入
力画像としてある時刻に取り込んだ映像情報と、第2の
入力画像としてその前の時刻に取り込んだ映像情報をそ
のまま入力画像として画像処理を行う手法に決定する。
一方、フリッカ等の周期的な照明変動の影響が存在する
と判定すると、入力した映像情報とその前に取り込んだ
映像情報との画像処理を省略する手法に決定し、ITV
カメラ100から次の撮影シーン(望ましくは照明変動
周期上の同一位相)の映像情報を入力するか、または、
既に入力して蓄積している映像情報の中から、第1の入
力画像としてある時刻に取り込んだ映像情報と、その前
の時刻に取り込んだ第2の入力画像の取り込み時刻の差
が照明変動周期上の同一位相となる時に取り込んだ映像
情報を選択してフリッカ等を低減した映像情報を入力画
像として処理する手法に決定する。後者の処理手法は、
過去の多数の撮影シーンの映像情報が必要になることか
ら、この手法を選択できるようにするためには、画像入
力部800に多数の映像情報を保存しておくメモリを設
けることが必要である。処理手法決定部660は、決定
した手法により差分画像データを作成する処理を行うよ
うように画像入力部800と差分画像作成部1000に
指示する。
FIG. 6 is a block diagram showing an embodiment of the internal structure of the processing method determining section 600. The shutter speed check unit 620 includes the camera control information output unit 400
The shutter speed is checked based on the value of the shutter speed information at the time of shooting of the monitoring target area output from. next,
The flicker measure determination unit 640 due to the periodic illumination fluctuation,
Using the check result, it is determined whether or not the image information of the processing target scene is affected by a periodic illumination change such as flicker. This criterion is, in this embodiment, IT
A shutter speed (1/25) at which the V-camera 100 can execute a flicker countermeasure process for preventing flicker due to periodic illumination fluctuations such as flicker on the video information signal.
0s). When the flicker countermeasure determination unit 660 determines that there is no influence due to periodic illumination fluctuation such as flicker, the processing method determination unit 660 determines whether the image information captured at a certain time as the first input image to be processed is The video information captured at the previous time as the second input image is determined as a method of performing image processing as the input image as it is.
On the other hand, if it is determined that there is an influence of periodic illumination fluctuation such as flicker, a method of omitting the image processing of the input video information and the video information captured before it is determined.
The video information of the next shooting scene (preferably the same phase on the illumination fluctuation cycle) is input from the camera 100, or
From the video information already input and stored, the difference between the video information captured at a certain time as the first input image and the capture time of the second input image captured at the previous time is the illumination fluctuation cycle. The video information fetched when the phase is the same as above is selected, and a method of processing the video information in which flicker or the like is reduced as an input image is determined. The latter processing method is
Since video information of a large number of past shooting scenes is required, it is necessary to provide a memory for storing a large number of video information in the image input unit 800 so that this method can be selected. . The processing technique determination unit 660 instructs the image input unit 800 and the difference image creation unit 1000 to perform processing for creating difference image data according to the determined technique.

【0034】図7は、前記処理手法決定部660におけ
る決定手順の一実施形態を示すフローチャートである。
ステップ700でシャッター速度の値をチェックし、処
理対象シーンの撮影がフリッカ等の対策処理済みの映像
情報を出力することができるシャッター速度であれば、
即ち、1/60,1/100,1/250であれば、ス
テップ710でフリッカ対策処理実施済みのフラグを設
定し、ステップ720で取り込だ時刻の入力映像情報を
そのまま用いる処理手法に決定する。
FIG. 7 is a flowchart showing an embodiment of the determining procedure in the processing method determining section 660.
In step 700, the value of the shutter speed is checked, and if the shooting of the processing target scene is a shutter speed capable of outputting video information on which measures against flicker and the like have been processed,
That is, if it is 1/60, 1/100, or 1/250, a flag indicating that flicker countermeasure processing has been performed is set in step 710, and a processing method is determined in step 720 that uses the input video information at the captured time as it is. .

【0035】一方、処理対象シーンの撮影がフリッカ等
の対策処理を実施できないシャッター速度であれば、即
ち、1/500,1/1000,1/2500,1/5
000,1/10000,1/17500であれば、ス
テップ730でフリッカ対策処理未実施のフラグを設定
する。ステップ740では映像情報にフリッカ等の影響
が発生している対象撮影シーンの画像処理を省略するか
否かを判定し、省略する場合にはステップ700へ戻
り、省略しない場合はステップ750で照明変動周期上
の位相が同一時点で入力した映像情報を使用して画像処
理する手法に決定する。
On the other hand, if the shooting of the processing target scene is a shutter speed at which countermeasure processing such as flicker can not be performed, that is, 1/500, 1/1000, 1/2500, 1/5.
If it is 000, 1/10000, 1/17500, in step 730, a flag indicating that the flicker countermeasure processing has not been performed is set. In step 740, it is determined whether or not to omit the image processing of the target shooting scene in which the influence of flicker or the like has occurred on the video information. If it is omitted, the process returns to step 700; A method of performing image processing using video information input at the same point in time on a periodic basis is determined.

【0036】当該対象撮影シーンの画像処理を省略して
次の対象撮影シーンの映像情報と該映像情報に対応する
シャッター速度を参照して処理を実行するときには、画
像処理を省略した対象撮影シーンの映像情報を第2の入
力画像として画像入力部800に保持し、この対象撮影
シーンに後続する照明変動周期上の同一位相の映像情報
を選択してこれを第1の入力画像として取り込む処理を
行うようにすれば、次の画像処理までの間隔を短くして
監視抜けを軽減することができる。この選択処理は、該
装置を設置する地域の商用電源周波数などから照明変動
の周期を判断して、タイマーにより、画像処理を省略し
た対象撮影シーンの撮影時点から所定時間後(照明変動
周期上の同一位相)に生成した映像情報信号を取り込む
ようにすれば良い。
When executing the processing by referring to the video information of the next target shooting scene and the shutter speed corresponding to the video information while omitting the image processing of the target shooting scene, the processing of the target shooting scene for which the image processing is omitted is performed. The video information is held in the image input unit 800 as the second input image, and the video information having the same phase on the illumination fluctuation cycle subsequent to the target shooting scene is selected and taken in as the first input image. By doing so, it is possible to shorten the interval until the next image processing and reduce the monitoring omission. In this selection processing, the cycle of the illumination fluctuation is determined from the commercial power frequency of the area where the device is installed, and the timer is used. Video information signals generated at the same phase may be taken in.

【0037】因に、照明変動周期上の同一位相の時点の
映像情報とは、例えば50Hzの地域では、第1の入力画
像の取り込み時刻と第2の入力画像の取り込み時刻との
差が10ミリ秒の整数倍で入力した映像である。尚、ス
テップ740で対象撮影シーンの画像処理を省略するの
は、周期的な照明変動の影響が存在しない映像情報のみ
で画像処理することにより、フリッカ等の影響を除去し
て絶対に誤検知しないようにするためである。また、対
象撮影シーンの画像処理を省略しないで処理の対象にす
ればその撮影シーンに限れば周期的な照明変動の影響が
存在することになるが、ITVカメラ100のシャッタ
ー速度が自動制御モードの場合には、照度変動により例
えば1/60〜1/10000等と随時変化しているた
めに、監視中の全撮影シーンでみれば周期的な照明変動
の影響が発生していることは少ないので、フリッカ等の
影響による誤検知はかなり低減することが可能になる。
このように、移動物体の検知精度の要求に応じて柔軟に
処理手法の選択をすればよい。ここで、フリッカ等の影
響の有無を判定する基準は、使用するITVカメラ10
0の型式(対策処理機能)に応じてシャッター速度の値
により適宜に設定すればよい。
The image information at the same phase in the illumination fluctuation cycle is, for example, in a region of 50 Hz, the difference between the time of capturing the first input image and the time of capturing the second input image is 10 mm. This is a video input in integer multiples of seconds. It should be noted that the image processing of the target photographing scene is omitted in step 740 because image processing is performed only on video information that does not have the effect of periodic illumination fluctuation, thereby eliminating the influence of flicker and the like and never detecting erroneously. That's why. If the image processing of the target shooting scene is not skipped and the processing is performed, the influence of the periodic illumination fluctuation exists only in the shooting scene. However, the shutter speed of the ITV camera 100 is set to the automatic control mode. In such a case, since the light intensity changes as needed, for example, 1/60 to 1 / 10,000 or the like, the influence of the periodic illumination change rarely occurs in all monitoring scenes being monitored. It is possible to considerably reduce erroneous detection due to the influence of flicker and the like.
In this way, the processing method may be flexibly selected according to the requirement of the detection accuracy of the moving object. Here, the criterion for determining the presence or absence of the influence of flicker or the like is based on the ITV camera 10 to be used.
What is necessary is just to set suitably according to the value of a shutter speed according to the type of 0 (countermeasure processing function).

【0038】ステップ740,750の処理は、フリッ
カ対策未実施の映像情報に対する画像処理手法を予め設
定しておくことにより、選択的ではなく、何れかを固定
的に行うようにすることができる。
The processing of steps 740 and 750 can be performed not fixedly but fixedly by setting in advance an image processing method for video information for which flicker countermeasures have not been taken.

【0039】図8は、前記画像入力部800の内部構成
の一実施形態を示すブロック図である。ITVカメラ1
00が監視対象領域を撮影して出力する画像情報信号
は、A/D変換部810により取り込んでA/D変換
し、1つのタイミングで取り込んだ映像情報を基準の入
力画像Fi−1としてメモリ820に格納し、もう一方
のタイミングで取り込んだ映像情報を処理対象の入力画
像Fiとしてメモリ860に格納する。メモリ820,
860に格納する映像情報は、継続的に入力する新しい
映像情報で順次更新する。
FIG. 8 is a block diagram showing an embodiment of the internal configuration of the image input unit 800. ITV camera 1
The image information signal which is captured and output from the monitoring target area by the A / D converter 810 is A / D converted, and the video information captured at one timing is used as a reference input image Fi-1 in the memory 820. And the video information captured at the other timing is stored in the memory 860 as an input image Fi to be processed. Memory 820,
The video information stored in 860 is sequentially updated with continuously input new video information.

【0040】図9は、前記物体抽出部2000の内部構
成の一実施形態を示すブロック図である。差分画像作成
部1000により2つの映像情報の画像間の画素毎の差
を算出して作成した差分画像データに対して、濃度頻度
分布算出部2100によって差分画像の濃度頻度分布を
算出し、ノイズ除去部2200が濃度頻度分布Hj(j
=0,1,……n)を(数1)で平滑化してノイズ除去
を行う。nは濃度の最大値である。
FIG. 9 is a block diagram showing an embodiment of the internal configuration of the object extracting unit 2000. The density frequency distribution of the difference image is calculated by the density frequency distribution calculation unit 2100 for the difference image data generated by calculating the difference of each pixel between the images of the two pieces of video information by the difference image generation unit 1000, and noise is removed. The unit 2200 generates the density frequency distribution H j (j
= 0, 1,... N) is smoothed by (Equation 1) to remove noise. n is the maximum value of the density.

【0041】 Hj =(Hj-1 + 2Hj + Hj+1 )/4−1 但し、j=1,…n−1 H0 =(2H0 + H1 )/3−1 max=Hn =(2Hn + Hn-1 )/3−1 ……(数1) 2値化しきい値算出部2300は、ノイズ除去部220
0で作成した濃度頻度分布から差分画像作成部1000
で算出した差分画像データの2値化しきい値を自動的に
算出して2値化部2400に供給し、この2値化部24
00はこのしきい値を参照して差分画像データを2値化
処理して2値画像を作成する。これにより、変化のあっ
た物体領域が抽出される。ここで、監視場所が暗く、移
動物体が存在しても差分画像作成部1000で差分画像
データとして抽出できないITVカメラ100を用いた
場合には、差分画像データを抽出することができる画像
情報信号が得られる明るさに照明を点灯するようにして
もよい。
H j = (H j-1 + 2H j + H j + 1 ) / 4-1 where j = 1,..., N-1 H 0 = (2H 0 + H 1 ) / 3-1 max = H n = (2H n + H n-1) / 3-1 ...... ( Equation 1) binarization threshold calculation unit 2300, a noise removing unit 220
0 from the density frequency distribution created in step 0.
Is automatically calculated and supplied to the binarization unit 2400, and the binarization unit 24
Reference numeral 00 refers to the threshold value to binarize the difference image data to create a binary image. Thereby, the changed object region is extracted. Here, when the ITV camera 100 that cannot be extracted as difference image data by the difference image creation unit 1000 even when the monitoring place is dark and a moving object exists is used, an image information signal from which the difference image data can be extracted is output. The lighting may be turned on at the obtained brightness.

【0042】ここで、(数1)で算出したmax(最大
濃度)が所定値以下の場合には、変化が無いと判定し
て、ノイズ除去部2200,2値化しきい値算出部23
00,2値化部2400及び物体検出部3000での処
理を行わないようにしても良い。例えば、CCD型カメ
ラを自動シャッター制御モードで屋内の昼間の環境(ま
たは蛍光灯照明)を撮影した映像情報では、画像濃度ma
x(最大濃度)が約6〜12階調程度の場合には変化が
無いと判定する。
Here, if the maximum (maximum density) calculated by (Equation 1) is equal to or less than a predetermined value, it is determined that there is no change, and the noise removal unit 2200 and the binarization threshold calculation unit 23
The processing in the 00, binarization unit 2400 and the object detection unit 3000 may not be performed. For example, in video information obtained by photographing a CCD camera in an indoor daytime environment (or fluorescent light illumination) in an automatic shutter control mode, the image density ma
When x (maximum density) is about 6 to 12 gradations, it is determined that there is no change.

【0043】図10は、前記2値化しきい値算出部23
00において2値化のしきい値を算出するための一実施
形態を示す説明図である。
FIG. 10 shows the binarized threshold value calculating section 23.
FIG. 9 is an explanatory diagram showing an embodiment for calculating a binarization threshold value in 00.

【0044】2値化しきい値算出部2300は、ノイズ
除去部2200で平滑化した濃度頻度分布から求めた最
大濃度値max2310と下限値thmin2340から、2値
化のしきい値(th)を自動的に算出する。
The binarization threshold value calculation unit 2300 automatically calculates a binarization threshold value (th) from the maximum density value max2310 and the lower limit value thmin2340 obtained from the density frequency distribution smoothed by the noise removal unit 2200. Is calculated.

【0045】先ず、移動物体等が存在して変化部分の領
域が多い場合は、平滑化した濃度頻度分布は、図10の
(a)に示すようになる。最大濃度max2310と下限
値thmin2340の中央値2320を算出する。算出し
た中央値2320が上限値2330より大きい場合は2
値化のしきい値thを上限値2330とし、上限値233
0未満の場合は、2値化のしきい値thを中央値2320
とする。
First, when there is a moving object or the like and there are many areas of the changing portion, the smoothed density frequency distribution is as shown in FIG. A median value 2320 between the maximum density max2310 and the lower limit value thmin2340 is calculated. 2 if the calculated median value 2320 is larger than the upper limit value 2330
The threshold value th of the binarization is set to the upper limit value 2330, and the upper limit value 233
If it is less than 0, the threshold value th of the binarization is set to the median value of 2320.
And

【0046】一方、変化部分の領域が少ない場合、即
ち、変化部分の濃度が少ない場合は、図10の(b)に
示すような濃度頻度分布となる。この場合の2値化しき
い値th2370も、図10の(a)と同様に算出する。
即ち、最大濃度max2350と下限値2340の中央値
2370を算出して、中央値2370が上限値2330
より大きい場合は2値化のしきい値thを上限値2330
とし、上限値2330未満の場合は2値化のしきい値th
を中央値2370とする。また、図10の(a)に示す
場合は、画像処理におけるモード法による2値化しきい
値の決定方法で行ってもよい。
On the other hand, when the area of the changed portion is small, that is, when the density of the changed portion is small, the density frequency distribution is as shown in FIG. In this case, the binarization threshold value th2370 is calculated in the same manner as in FIG.
That is, the median value 2370 between the maximum density max 2350 and the lower limit value 2340 is calculated, and the median value 2370 is calculated as the upper limit value 2330.
If it is larger than the threshold value th of the binarization, the upper limit value 2330
If the value is less than the upper limit value 2330, the threshold value for binarization th
Is the median value 2370. Further, the case shown in FIG. 10A may be performed by a method of determining a binarization threshold value by a mode method in image processing.

【0047】ここで、下限値thmin2340は、監視対
象の正常な画像から予め算出した正常状態での白色ノイ
ズの最大値の値とする。また、監視対象画像の正常状態
におけるノイズの最大濃度を示す値ならば何でもよい。
同様に、上限値2330は、監視対象の正常な画像から
予め算出した正常状態での白色ノイズの最大値の値に所
定値を加算した値とする。また、監視対象画像の正常状
態におけるノイズの最大濃度を示す値に所定値を加算し
た値ならば何でもよい。例えば、CCD型カメラを自動
シャッター制御モードで屋内で昼間の環境(または蛍光
灯照明)を撮影した映像情報での画像では、上限値23
30は約14〜20階調程度で、下限値thmin2340
は約5〜8階調程度である。
Here, the lower limit value thmin 2340 is a maximum value of white noise in a normal state calculated in advance from a normal image to be monitored. Further, any value may be used as long as the value indicates the maximum noise density in the normal state of the monitoring target image.
Similarly, the upper limit value 2330 is a value obtained by adding a predetermined value to the maximum value of white noise in a normal state calculated in advance from a normal image to be monitored. In addition, any value may be used as long as a predetermined value is added to the value indicating the maximum noise density in the normal state of the monitoring target image. For example, in an image of video information obtained by shooting a daytime environment (or fluorescent light illumination) indoors using a CCD camera in an automatic shutter control mode, the upper limit value is 23.
30 is about 14 to 20 gradations, and the lower limit value is thmin 2340.
Is about 5 to 8 gradations.

【0048】図11は、前記物体検出部3000の内部
構成の一実施形態を示すブロック図である。微小面積除
去部3100は、物体抽出部2000における2値化部
2400で作成した2値画像のうち、抽出対象に不適切
な微小面積の領域をノイズとして除去して変化領域のみ
の2値画像を作成する。作成した変化領域のみの2値画
像は、抽出対象物体が分離している場合が多いので、2
値画像統合処理部3200によりこれらの分離している
領域のうち隣接位置の2値画像を1つの物体として統合
する。特徴量算出部3300は、2値画像統合処理部3
200で統合した領域における2値画像や濃淡画像の特
徴量を算出する。物体識別部3400は、前記特徴量算
出部3300で算出した特徴量により移動物体を識別す
る。この物体識別部3400で所期の移動物体を識別す
ると、所期の移動物体が存在するとして表示制御部40
00へ出力する。
FIG. 11 is a block diagram showing an embodiment of the internal configuration of the object detection unit 3000. The small area removing unit 3100 removes, as noise, a small area that is inappropriate for the extraction target from the binary image created by the binarizing unit 2400 in the object extracting unit 2000, and removes the binary image of only the changed area. create. Since the created binary image of only the change region is often separated from the extraction target object,
The value image integration processing unit 3200 integrates binary images at adjacent positions in these separated areas as one object. The feature amount calculation unit 3300 includes a binary image integration processing unit 3
In step 200, the feature amount of the binary image or the gray image in the integrated area is calculated. The object identification unit 3400 identifies a moving object based on the feature amount calculated by the feature amount calculation unit 3300. When the intended moving object is identified by the object identification unit 3400, the display control unit 40 determines that the intended moving object exists.
Output to 00.

【0049】ここで、微小面積除去部3100が変化領
域のみの2値画像を作成するのは、例えば、抽出対象が
人物の場合には、人物に相応する大きさの面積をもつ領
域であり、撮影対象の視野範囲に追随する。従って、抽
出したいサイズを視野範囲に対応して適切に設定すれば
よい。サイズの設定は、視野範囲に比率した自動算出で
もよく、オフラインにより予め人手で指定してもよい。
微小面積除去部3100がノイズとして除去する対象と
なる微少面積は、人物抽出の場合には、設定した人物サ
イズの0.15%〜0.25%程度のものである。
Here, the reason why the small area removing unit 3100 creates a binary image of only the change area is, for example, an area having an area corresponding to a person when the extraction target is a person. Follow the field of view of the subject. Therefore, the size to be extracted may be set appropriately in accordance with the visual field range. The setting of the size may be automatically calculated in proportion to the visual field range, or may be manually designated in advance offline.
The small area to be removed by the small area removing unit 3100 as noise is about 0.15% to 0.25% of the set person size in the case of extracting a person.

【0050】図12は、前記2値画像統合処理部320
0が複数の2値画像から物体として矩形画像を生成する
ときの一実施形態を示す説明図である。
FIG. 12 shows the binary image integration processing section 320.
0 is an explanatory diagram showing an embodiment when a rectangular image is generated as an object from a plurality of binary images.

【0051】例えば、移動物体が人物である場合、微小
面積除去部3100が微小面積を除外して抽出した2値
画像は、周囲の明るさ,人物の服装の色,背景色により
人物の全体形状を忠実に抽出することはまれであり、通
常、人物の頭部の一部3210,3290や胴体の一部
3220や脚部の一部3230を矩形3240の付近に
集中して抽出する。同様に、別の人物の頭部の一部32
50や胴体の一部3260や脚部の一部3270を矩形
3280付近に集中して抽出する。因に、矩形324
0,3280は、抽出した隣接各部の外接形状である。
For example, when the moving object is a person, the binary image extracted by the minute area removing unit 3100 excluding the minute area is based on the surrounding brightness, the color of the clothes of the person, and the background color. It is rare that a part of a person's head 3210, 3290, a part of a body 3220, or a part of a leg 3230 is concentrated and extracted in the vicinity of a rectangle 3240. Similarly, part 32 of another person's head
50, a part 3260 of the body, and a part 3270 of the leg are concentrated and extracted in the vicinity of the rectangle 3280. By the way, rectangle 324
0,3280 is the circumscribed shape of each extracted adjacent part.

【0052】図13は、前記2値画像統合処理部320
0が、複数の2値画像を物体として矩形3240や矩形
3280に統合する手順の一実施形態を示すフローチャ
ートである。
FIG. 13 shows the binary image integration processing section 320.
0 is a flowchart illustrating an embodiment of a procedure for integrating a plurality of binary images into rectangles 3240 and 3280 as objects.

【0053】ステップ3205で、微小面積除去部31
00で作成した2値画像のラベリングを行う。1〜Ln
までのラベルをつけると、総ラベル数はLnとなる。
In step 3205, the small area removing unit 31
Labeling of the binary image created in 00 is performed. 1 to Ln
When the labels up to are added, the total number of labels becomes Ln.

【0054】総ラベル数Lnの2値画像の処理を繰り返
すために、ステップ3207でラベル番号を(i)を初
期化する。
In order to repeat the processing of the binary image having the total number of labels Ln, the label number (i) is initialized in step 3207.

【0055】次に、ステップ3215で、ラベル番号を
1つ大きく(iを増加)し、ステップ3217で、総て
のラベルの画像処理が終了したか否かをチェックし、終
了していない場合は、i番目のラベルの2値画像に対し
てステップ3225以降の処理を行う。
Next, in step 3215, the label number is incremented by one (i is increased). In step 3217, it is checked whether or not the image processing has been completed for all the labels. , The process from step 3225 on is performed on the binary image of the i-th label.

【0056】ステップ3225では、i番目のラベルの
2値画像に対し、最大座標及び最小座標を算出する。
In step 3225, the maximum coordinates and the minimum coordinates are calculated for the binary image of the i-th label.

【0057】ステップ3227では、i番目のラベルの
2値画像とi+1番目〜Ln番目のラベルの2値画像の
X方向とY方向の距離が許容範囲内か否かをチェック
し、許容範囲内の場合は、ステップ3235で許容範囲
内のラベル総てをi番目のラベルに加え、加えたラベル
を抹消する。その後、ステップ3245で、i番目〜L
n番目のラベルについて、昇順にソートしてステップ3
225へ戻り、新たにi番目から再度の処理を行う。こ
れにより、次々と許容範囲内のラベルの2値画像が統合
されていく。
In step 3227, it is checked whether the distance between the binary image of the ith label and the binary image of the (i + 1) th to Lnth labels in the X direction and the Y direction is within the allowable range. In this case, in step 3235, all the labels within the allowable range are added to the i-th label, and the added label is deleted. Then, in step 3245, the i-th to L-th
For the nth label, sort in ascending order, step 3
The process returns to 225, and the process is newly performed again from the i-th. As a result, the binary images of the labels within the allowable range are successively integrated.

【0058】ステップ3227で、許容範囲よりも遠い
場合には、ステップ3215へ戻り、ラベル番号を1つ
大きく(iを増加)して、総てラベルの2値画像に対す
る処理が終了するまで繰り返す。
If it is determined in step 3227 that the distance is larger than the allowable range, the flow returns to step 3215, in which the label number is increased by one (i is increased), and the processing is repeated until the processing for all the binary images of the labels is completed.

【0059】図14は、ステップ3225でラベルが付
された2値画像の最大座標及び最小座標を算出する処理
及びステップ3227で許容範囲内であるか否かをチェ
ックする処理の一実施形態を示す説明図である。例え
ば、2個のラベル、即ち、ラベル3210が付された2
値画像とラベル3290が付された2値画像の例で示
す。まず、ラベル3210が付された2値画像の外接矩
形3255の左上座標(l1x,l1y)と右下座標(r1x,r
1y)及びラベル3290が付された2値画像の外接矩形
3265の左上座標(l2x,l2y)と右下座標(r2x,r2
y)を算出する。ラベル3210が付された2値画像の
許容範囲内にラベル3290が付された2値画像がある
か否かは、ラベル3210が付された2値画像の外接矩
形3255の左上座標(l1x,l1y)と右下座標(r1x,r
1y)及びラベル3290の2値画像の外接矩形3265
の左上座標(l2x,l2y)と右下座標(r2x,r2y)から、
最も近い位置の外接矩形3255の座標(l1x,r1y)と
外接矩形3265の座標(r2x,l2y)の距離を算出す
る。座標(l1x,r1y)と座標(r2x,l2y)のX方向の距
離3275とY方向の距離3285が許容範囲内にあれ
ば、同一ラベルの2値画像として統合する。X方向の距
離3275の許容範囲は、例えば、移動物体が縦に長い
人物の場合は、X方向は約5〜15程度とし、Y方向は
約5〜10程度とし、または、X方向は約5〜15程度
とし、Y方向も約5〜15程度としてもよい。何れにし
ても、どこまでの範囲内を統合するかにより、適切に設
定すればよい。
FIG. 14 shows an embodiment of the processing for calculating the maximum and minimum coordinates of the labeled binary image in step 3225 and the processing for checking in step 3227 whether the binary image is within the allowable range. FIG. For example, two labels, i.e., 2 with label 3210
An example of a binary image with a value image and a label 3290 is shown. First, upper left coordinates (l1x, l1y) and lower right coordinates (r1x, r1) of the circumscribed rectangle 3255 of the binary image to which the label 3210 is attached.
1y) and the upper left coordinates (l2x, l2y) and lower right coordinates (r2x, r2) of the circumscribed rectangle 3265 of the binary image to which the label 3290 is attached.
y) is calculated. Whether or not there is a binary image with the label 3290 within the allowable range of the binary image with the label 3210 is determined by the upper left coordinates (l1x, l1y) of the circumscribed rectangle 3255 of the binary image with the label 3210. ) And lower right coordinates (r1x, r
1y) and the circumscribed rectangle 3265 of the binary image of the label 3290
From the upper left coordinates (l2x, l2y) and lower right coordinates (r2x, r2y) of
The distance between the coordinates (l1x, r1y) of the closest circumscribed rectangle 3255 and the coordinates (r2x, l2y) of the circumscribed rectangle 3265 is calculated. If the distance 3275 in the X direction and the distance 3285 in the Y direction between the coordinates (l1x, r1y) and the coordinates (r2x, l2y) are within the allowable range, they are integrated as a binary image having the same label. The allowable range of the distance 3275 in the X direction is, for example, about 5 to 15 in the X direction, about 5 to 10 in the Y direction, or about 5 in the X direction when the moving object is a vertically long person. About 15 and the Y direction may be about 5 to 15. In any case, an appropriate setting may be made depending on how far the range is integrated.

【0060】図15は、特徴量算出部3300の内部構
成の一実施形態を示すブロック図である。この特徴量算
出部3300は、2値画像統合処理部3200で統合し
た領域の2値画像及び濃淡画像から特徴量を算出する。
FIG. 15 is a block diagram showing an embodiment of the internal configuration of the feature value calculation unit 3300. The feature amount calculation unit 3300 calculates a feature amount from the binary image and the grayscale image of the area integrated by the binary image integration processing unit 3200.

【0061】特徴量は、先ず、2値画像を用いて、面積
算出部3310で算出した面積と、縦横比算出部332
0で算出した縦横比と、直前移動距離算出部3330で
算出した直前からの移動距離と、始点移動距離算出部3
340で算出した出現始点からの移動距離であり、次
に、濃淡画像を用いて輝度算出部3350で算出した輝
度分布であり、これらを、i−1回目,i回目,i+1
回目毎に順次繰り返して時系列で算出する。
First, the feature amount is calculated by using the area calculated by the area calculation unit 3310 using the binary image and the aspect ratio calculation unit 332.
0, the moving distance from immediately before calculated by the immediately preceding moving distance calculating section 3330, and the starting point moving distance calculating section 3
It is the moving distance from the appearance start point calculated in 340, and the brightness distribution calculated in the brightness calculation unit 3350 using the grayscale image. These are the (i-1) -th, i-th, and i + 1
The calculation is performed in a time series by repeatedly repeating each time.

【0062】面積算出部3310は、微小面積除去部3
100で算出した2値画像データに基づいて画素数を計
算して面積を算出する。縦横比算出部3320は、X方
向に投影してX軸の位置毎の画素数を累積したX投影分
布と、Y方向に投影してY軸の位置毎の画素数を累積し
たY投影分布の割合を縦横比として算出する。直前移動
距離算出部3330及び始点移動距離算出部3340
は、移動した矩形領域の2つの重心から算出した直前か
らの移動距離や出現始点からの移動距離を算出する。輝
度算出部3350は、濃淡画像の平均輝度や輝度分散を
算出する。
The area calculating section 3310 is provided with the small area removing section 3
The area is calculated by calculating the number of pixels based on the binary image data calculated in step 100. The aspect ratio calculation unit 3320 calculates an X projection distribution obtained by projecting in the X direction and accumulating the number of pixels for each position on the X axis, and a Y projection distribution obtained by projecting in the Y direction and accumulating the number of pixels for each position on the Y axis. The ratio is calculated as the aspect ratio. Immediately preceding moving distance calculating section 3330 and starting point moving distance calculating section 3340
Calculates the moving distance from immediately before calculated from the two centroids of the moved rectangular area and the moving distance from the appearance start point. The luminance calculator 3350 calculates the average luminance and the luminance variance of the grayscale image.

【0063】図16は、直前移動距離算出部3330及
び始点移動距離算出部3340に算出方法の一実施形態
を示す説明図である。直前移動距離算出部3330は、
2値画像統合処理部3200で統合した矩形領域328
0の重心を用いて、i+1回目の重心(p3で示す重心
3520で、3回目の重心とする)と、i回目の重心
(p2で示す重心3510で、2回目の重心とする)の
間の距離をi+1回目の直前移動距離3540として算
出(但し、1回目の移動距離=0)し、i回目とi−1
回目の重心(p1で示す重心3500で、1回目の重心
とする)間の距離をi回目の直前移動距離3530とし
て算出する。以下、同様にi+2回目以降についても算
出する。
FIG. 16 is an explanatory diagram showing an embodiment of a calculation method for the immediately preceding moving distance calculating section 3330 and the starting point moving distance calculating section 3340. The immediately preceding movement distance calculation unit 3330 calculates
Rectangular area 328 integrated by binary image integration processing unit 3200
Using the center of gravity of 0, the center of gravity between the (i + 1) -th center of gravity (the center of gravity 3520 indicated by p3 is the third center of gravity) and the center of gravity of the i-th time (center of gravity 3510 indicated by p2 is the second center of gravity) The distance is calculated as the immediately preceding movement distance 3540 of the (i + 1) -th time (however, the first movement distance = 0).
The distance between the centroid (the centroid 3500 indicated by p1 and the first centroid) is calculated as the immediately preceding movement distance 3530 of the i-th time. Hereinafter, calculation is similarly performed for the (i + 2) th and subsequent times.

【0064】始点移動距離算出部3340は、1回目の
重心3500のp1(最初の出現位置)を基準にして、
2回目の重心までの移動距離3530を、3回目の重心
までの移動距離3550を、同様に4回目以降をそれぞ
れ算出する。
The starting point moving distance calculating section 3340 calculates the first point of gravity 3500 based on p1 (the first appearance position).
The moving distance 3530 to the second center of gravity, the moving distance 3550 to the third center of gravity, and the fourth and subsequent times are calculated in the same manner.

【0065】ここで、所期の検出対象が人物の場合に
は、例えば、昼間の屋内環境で目視で明らかに確認でき
る通常の速度で移動している人物を検出する場合は、直
前移動距離のしきい値を約20〜30画素、縦横比を約
3:1とすればよい。これらのしきい値は、監視対象領
域での姿勢の動き状態等によりオフラインで適切に変更
しても良い。
Here, when the intended detection target is a person, for example, when detecting a person moving at a normal speed that can be clearly confirmed visually in an indoor environment in the daytime, the immediately preceding movement distance is used. The threshold value may be about 20 to 30 pixels, and the aspect ratio may be about 3: 1. These threshold values may be appropriately changed off-line according to the state of movement of the posture in the monitoring target area.

【0066】図17は、物体識別部3400の識別手順
の一実施形態を示すフローチャートである。まず、ステ
ップ3600で面積をチェックし、面積が所定値以下の
場合にはステップ3610で縦横比を用いて物体の形状
が縦長か否かをチェックし、形状が縦長の場合には、ス
テップ3620で直前移動距離をチェックし、直前から
の移動距離が所定値以下であれば、ステップ3630で
始点からの移動距離をチェックし、出現始点からの移動
距離が所定値以上であれば、ステップ3640で輝度分
布をチェックし、輝度分布が一様でない場合にはステッ
プ3650で人物と判断する。
FIG. 17 is a flowchart showing an embodiment of the identification procedure of the object identification section 3400. First, the area is checked in step 3600. If the area is equal to or smaller than a predetermined value, it is checked in step 3610 whether the shape of the object is vertically long using the aspect ratio. If the shape is vertically long, in step 3620 The immediately preceding moving distance is checked. If the moving distance from immediately before is equal to or less than a predetermined value, the moving distance from the starting point is checked in step 3630. If the moving distance from the appearance starting point is equal to or more than the predetermined value, the luminance is determined in step 3640. The distribution is checked, and if the luminance distribution is not uniform, it is determined in step 3650 that the person is a person.

【0067】ステップ3640で輝度分布が一様である
と判定した場合は、ステップ3660で明るい輝度分布
か否かをチェックし、明るい輝度分布の場合にはステッ
プ3670でスポット的な光と判断する。ステップ36
60で明るい輝度分布ではないと判定した場合は、ステ
ップ3680で影等の暗い物体と判断する。
If it is determined in step 3640 that the brightness distribution is uniform, it is checked in step 3660 whether the brightness distribution is bright. If the brightness distribution is bright, it is determined in step 3670 that the light is spot-like. Step 36
If it is determined in step 60 that the distribution is not a bright luminance distribution, it is determined in step 3680 that the object is a dark object such as a shadow.

【0068】ステップ3630で始点からの距離が所定
値未満と判定した場合は、ステップ3700で規則的な
動きか否かをチェックし、規則的な動きの場合にはステ
ップ3710でカーテンや掛札等の規則的な動きの物体
と判断する。ステップ3700で規則的な動きでないと
判定した場合は、ステップ3640の判定を行う。
If it is determined in step 3630 that the distance from the starting point is less than the predetermined value, it is checked in step 3700 whether the movement is a regular movement. Judge as an object that moves regularly. If it is determined in step 3700 that the movement is not regular, the determination in step 3640 is performed.

【0069】ステップ3620で直前からの移動距離が
所定値を越えていると判定した場合は、ステップ372
0で高速な移動物体と判断して、ステップ3730で飛
来物や落下物等と判断する。
If it is determined in step 3620 that the moving distance from immediately before exceeds a predetermined value, step 372
If it is 0, it is determined that the object is a high-speed moving object.

【0070】ステップ3610で形状が縦長ではないと
判定し、ステップ3740で形状が横長であると判定し
た場合は、ステップ3750でその他の外乱と判断し、
ステップ3740で形状が横長ではないと判定した場合
にはステップ3620の判定を行う。
If it is determined in step 3610 that the shape is not vertically long, and if it is determined in step 3740 that the shape is horizontally long, it is determined in step 3750 that other disturbance has occurred.
If it is determined in step 3740 that the shape is not horizontally long, the determination in step 3620 is performed.

【0071】ステップ3600で面積が所定値より大き
いと判定した場合は、ステップ3750でその他の外乱
と判断する(過大面積の画像の物体の移動はあり得ない
と仮定して)。
If it is determined in step 3600 that the area is larger than the predetermined value, it is determined in step 3750 that another disturbance has occurred (assuming that there is no movement of the object of the image having an excessively large area).

【0072】図18は、輝度算出部3350における輝
度分布識別手順の一実施形態を示すフローチャートであ
る。輝度算出部3350は、2値画像統合処理部320
0で統合した矩形領域の2値画像として抽出された領域
に限定(マスク処理)して輝度値を算出する。即ち、ス
テップ3800では、ラベルi番目に限定して入力画像
及び/または差分画像の平均輝度及び輝度分散を算出す
る。ステップ3810では、ステップ3800で算出し
た輝度分散をチェックし、所定値より大きい場合は、ス
テップ3820で現ラベルと直前ラベルの画像の平均輝
度を比較してその差が所定値より大きい場合には、ステ
ップ3830でi番目の輝度分布は一様ではないと判断
し、その差が所定値以下の場合には、ステップ3840
でi番目の輝度分布は一様であると判断する。ステップ
3810で輝度分布が所定値以下である場合は、ステッ
プ3840でi番目の輝度分布は一様であると判断す
る。
FIG. 18 is a flowchart showing one embodiment of a luminance distribution identifying procedure in the luminance calculating section 3350. The brightness calculation unit 3350 includes a binary image integration processing unit 320
The luminance value is calculated by limiting (masking) the area extracted as a binary image of the rectangular area integrated with 0 (mask processing). That is, in step 3800, the average luminance and the luminance variance of the input image and / or the difference image are calculated only for the i-th label. In step 3810, the luminance variance calculated in step 3800 is checked, and if it is larger than a predetermined value, the average luminance of the image of the current label is compared with the average luminance of the image of the immediately preceding label in step 3820, and if the difference is larger than the predetermined value, In step 3830, it is determined that the i-th luminance distribution is not uniform, and if the difference is equal to or smaller than a predetermined value, step 3840
It is determined that the i-th luminance distribution is uniform. If the luminance distribution is equal to or smaller than the predetermined value in step 3810, it is determined in step 3840 that the i-th luminance distribution is uniform.

【0073】ステップ3850で総てのラベルの画像に
ついて処理を終了したか否かをチェックし、終了してい
ない場合はステップ3800へ戻り、終了している場合
はステップ3860へ進む。
At step 3850, it is checked whether or not the processing has been completed for all the label images. If the processing has not been completed, the flow returns to step 3800; if completed, the processing proceeds to step 3860.

【0074】ステップ3860では全ラベルに関して輝
度分布が一様であるか否かをチェックし、一様であると
判断した場合は、ステップ3880で輝度分布が一様で
あると最終決定する。ステップ3860で一様ではない
と判断した場合は、一様ではないと最終決定する。ステ
ップ3860では全ラベルに関して輝度分布が一様であ
るか否かをチェックしたが、全ラベルではなくて、8割
以上のラベルでも良く、オフラインで適切に指定しても
良い。
In step 3860, it is checked whether or not the luminance distribution is uniform for all the labels. If it is determined that the luminance distribution is uniform, it is finally determined in step 3880 that the luminance distribution is uniform. If it is determined in step 3860 that the data is not uniform, it is finally determined that the data is not uniform. In step 3860, whether or not the luminance distribution is uniform for all the labels is checked. However, not all of the labels but 80% or more of the labels may be used, or the labels may be appropriately designated off-line.

【0075】図19は、表示装置5000に識別した結
果を表示する一実施形態を示す説明図であり、人物とそ
の移動軌跡の例である。表示制御部4000は、検出し
た所期の移動物体の表示制御行い、物体識別部3400
で識別した結果を表示装置5000にオンライン表示す
る。物体識別部3400が、i−1回目,i回目,i+
1回目等毎に時系列で人物を識別すると、表示制御部4
000は、i+1回目の検知人物3280を表示装置5
000に表示し、更に、直前移動距離算出部3330で
算出したi−1回目とi回目の直前からの移動距離39
00と、i回目とi+1回目の直前からの移動距離39
10を表示し、更に、始点移動距離算出部3340で算
出した始点(出現時点)からi+1回目の移動距離39
20を表示装置5000に表示する。これにより、監視
者は、例えば、人物監視の場合には、検知人物及び該人
物の移動状態を表示装置5000により画像形態でオン
ラインで把握することができる。また、表示装置500
0が遠隔地にある場合には、RS−232C等のデータ
回線を使用して人物を検知したことをテレビ電話等に報
知して、電話回線等を経由した通信により遠方の表示装
置に表示するようにすることもできる。
FIG. 19 is an explanatory diagram showing an embodiment in which the identification result is displayed on the display device 5000, and is an example of a person and a movement locus thereof. The display control unit 4000 controls the display of the detected intended moving object, and the object identification unit 3400
Is displayed online on the display device 5000. The object identification unit 3400 performs the (i−1) -th, i-th, i +
When the person is identified in time series at each first time, the display control unit 4
000 indicates the (i + 1) th detected person 3280 on the display device 5
000, and furthermore, the moving distance 39 from immediately before the (i−1) -th and i-th times calculated by the immediately preceding moving distance calculating unit 3330.
00 and the moving distance 39 from immediately before the i-th and i + 1-th times
10 is displayed, and furthermore, the (i + 1) th moving distance 39 from the starting point (the present time) calculated by the starting point moving distance calculating unit 3340.
20 is displayed on the display device 5000. Thus, for example, in the case of monitoring a person, the monitor can grasp the detected person and the moving state of the person in the form of an image on the display device 5000 online. The display device 500
When 0 is in a remote place, the fact that a person has been detected using a data line such as RS-232C is notified to a videophone or the like, and is displayed on a distant display device by communication via the telephone line or the like. You can also do so.

【0076】[0076]

【発明の効果】本発明によれば、周期的な照明変動が発
生する環境においてTVカメラで監視対象領域を撮影し
て監視領域中の変化を画像で監視する画像監視装置にお
いて、TVカメラから出力される映像情報に周期的な照
明変動による影響が存在するか否かを判断することがで
きる制御情報、例えばシャッター速度情報を用いて、各
映像情報毎に前記シャッター速度情報を判定して周期的
な照明変動の影響が存在するか否可を判定し、影響が存
在しない場合には、処理対象である第1の入力画像とし
てある時刻に取り込んだ映像情報と、第2の入力画像と
してその前の時刻に取り込んだ映像情報をそのまま入力
画像として画像処理を行い、一方、シャッター速度情報
が周期的な照明変動の影響が存在することを意味してい
る場合には、該映像情報に基づく画像処理を省略して次
の映像情報を入力して画像処理を行うか、または第1の
入力画像としてある時刻に取り込んだ映像情報と、その
前の時刻に取り込んだ第2の入力画像の取り込み時刻の
差が照明変動周期上の同一位相となる時に取り込んだ映
像情報を選択して画像処理を行う。このような画像処理
によって移動物体の検知を実行すれば、周期的な照明変
動の影響による誤検知を少なくして、物体検知精度の要
求に応じた移動物体の検知が可能になる効果がある。例
えば、絶対誤検知しないようにする場合には、周期的な
照明変動の影響が存在する映像情報に基づく画像処理は
省略して周期的な照明変動の影響が存在しない後続する
映像情報で画像処理することにより、フリッカ等の影響
による誤検知を除去することができる効果がある。ま
た、移動物体を見逃さないで検知しようとする場合に
は、周期的な照明変動の存在有無にかかわらず、照明変
動周期上の同一位相の時点で入力した映像情報を用いた
画像処理を行うようにする。
According to the present invention, in an image surveillance apparatus for photographing an area to be monitored by a TV camera in an environment where periodic illumination fluctuations occur and monitoring the change in the monitored area with an image, an output from the TV camera is provided. Using control information, for example, shutter speed information, which can determine whether or not the influence of the periodic illumination fluctuation exists in the video information to be performed, the shutter speed information is determined for each video information, and the It is determined whether or not there is an influence of a large illumination variation, and if there is no influence, the video information captured at a certain time as the first input image to be processed and the previous input as the second input image The image information captured at the time is processed as an input image without any processing. On the other hand, if the shutter speed information indicates that the influence of the periodic illumination fluctuation exists, the image processing is performed. The image processing based on the information is omitted and the next video information is input to perform the image processing, or the video information captured at a certain time as the first input image and the second input captured at the previous time Image processing is performed by selecting image information captured when the difference between the image capturing times is the same in the illumination fluctuation cycle. If the detection of a moving object is performed by such image processing, erroneous detection due to the influence of periodic illumination fluctuation is reduced, and there is an effect that a moving object can be detected according to a request for object detection accuracy. For example, when absolute detection is not to be performed, the image processing based on the video information having the influence of the periodic illumination fluctuation is omitted and the image processing is performed with the subsequent video information having no influence of the periodic illumination fluctuation. By doing so, there is an effect that erroneous detection due to the influence of flicker or the like can be removed. In addition, when trying to detect a moving object without overlooking it, image processing using video information input at the same phase in the illumination fluctuation cycle is performed regardless of the presence or absence of periodic illumination fluctuation. To

【0077】監視対象環境の撮影に使用するITVカメ
ラのシャッター速度が自動制御モードの場合には、照度
変動によりシャッター速度は例えば1/60〜1/10
000s等と随時変化しているために、監視中の全撮影
シーンに周期的な照明変動の影響が発生していることは
少ないので、フリッカ等の影響による誤検知はかなりの
低減が可能になる効果がある。
When the shutter speed of the ITV camera used for photographing the environment to be monitored is in the automatic control mode, the shutter speed is, for example, 1/60 to 1/10 due to illuminance fluctuation.
000 s, etc., the influence of the periodic illumination fluctuation rarely occurs in all the photographed scenes being monitored, so that erroneous detection due to the influence of flicker or the like can be considerably reduced. effective.

【0078】更に、画像処理においては、第1の入力画
像と第2の入力画像との差分を行って差分画像データを
作成し、この差分画像データの濃度頻度分布から2値化
のしきい値を自動決定して2値画像を作成してノイズ除
去を行い、隣接した領域にある2値画像を統合してから
抽出物体を識別するので、外乱を除去して複数の物体を
分離して検知することができるので、高精度な物体検知
が可能になる効果がある。
Further, in the image processing, difference between the first input image and the second input image is made to generate difference image data, and a binarization threshold value is obtained from the density frequency distribution of the difference image data. Is automatically determined, a binary image is created, noise is removed, and the extracted objects are identified after integrating the binary images in adjacent areas. Therefore, disturbances are removed and multiple objects are separated and detected. Therefore, there is an effect that highly accurate object detection becomes possible.

【0079】そして、移動物体を検出すると、表示制御
部によってリアルタイムで表示装置に表示するので、監
視者は、識別された所期の移動物体が写っている映像を
モニタ等の表示装置でオンライン監視することが可能に
なる効果がある。
When a moving object is detected, the image is displayed on the display device in real time by the display control unit, so that the observer can monitor the image of the identified moving object on-line on a display device such as a monitor. There is an effect that can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態を示す画像監視装置のブロ
ック図である。
FIG. 1 is a block diagram of an image monitoring apparatus according to an embodiment of the present invention.

【図2】周期的な照明変動とITVカメラのシャッター
速度が変化した場合の映像情報出力のタイミング関係を
示す説明図である。
FIG. 2 is an explanatory diagram showing a timing relationship of video information output when periodic illumination fluctuation and a shutter speed of an ITV camera change.

【図3】本発明になる画像監視装置におけるカメラ制御
情報出力部の内部構成の一実施形態を示すブロック図で
ある。
FIG. 3 is a block diagram showing an embodiment of an internal configuration of a camera control information output unit in the image monitoring device according to the present invention.

【図4】本発明になる画像監視装置おけるシャッター速
度出力部で算出するシャッター速度算出手順の一実施形
態を示すフローチャートである。
FIG. 4 is a flowchart illustrating an embodiment of a shutter speed calculation procedure calculated by a shutter speed output unit in the image monitoring device according to the present invention.

【図5】本発明になる画像監視装置おける撮影シーンの
出力信号から算出したシャッター速度値を表示装置に表
示する場合の説明図である。
FIG. 5 is an explanatory diagram when a shutter speed value calculated from an output signal of a shooting scene in the image monitoring device according to the present invention is displayed on a display device.

【図6】本発明になる画像監視装置における処理手法判
定部の内部構成の一実施形態を示すブロック図である。
FIG. 6 is a block diagram illustrating an embodiment of an internal configuration of a processing method determination unit in the image monitoring device according to the present invention.

【図7】本発明になる画像監視装置における処理手法決
定部の決定手順の一実施形態を示すフローチャートであ
る。
FIG. 7 is a flowchart illustrating an embodiment of a determining procedure of a processing method determining unit in the image monitoring device according to the present invention.

【図8】本発明になる画像監視装置における画像入力部
の内部構成の一実施形態を示すブロック図である。
FIG. 8 is a block diagram showing an embodiment of an internal configuration of an image input unit in the image monitoring device according to the present invention.

【図9】本発明になる画像監視装置における物体抽出部
の内部構成の一実施形態を示すブロック図である。
FIG. 9 is a block diagram showing one embodiment of an internal configuration of an object extracting unit in the image monitoring device according to the present invention.

【図10】本発明になる画像監視装置における2値化し
きい値算出部において2値化のしきい値を算出するため
の一実施形態を示す説明図である。
FIG. 10 is an explanatory diagram showing an embodiment for calculating a binarization threshold in a binarization threshold calculator in the image monitoring device according to the present invention.

【図11】本発明になる画像監視装置における物体検出
部の内部構成の一実施形態を示すブロック図である。
FIG. 11 is a block diagram showing an embodiment of an internal configuration of an object detection unit in the image monitoring device according to the present invention.

【図12】本発明になる画像監視装置における2値画像
統合処理部において複数の2値画像から物体としての矩
形を生成するときの一実施形態を示す説明図である。
FIG. 12 is an explanatory diagram illustrating an embodiment when a binary image integration processing unit in the image monitoring apparatus according to the present invention generates a rectangle as an object from a plurality of binary images.

【図13】本発明になる画像監視装置における2値画像
統合処理部が、複数の2値画像を物体としての矩形に統
合する手順の一実施例を示すフローチャートである。
FIG. 13 is a flowchart showing an embodiment of a procedure in which the binary image integration processing unit in the image monitoring apparatus according to the present invention integrates a plurality of binary images into a rectangle as an object.

【図14】本発明になる画像監視装置において2値画像
の最大座標及び最小座標を算出して、2値画像間の距離
が許容範囲内であるか否かをチェックする場合の一実施
形態を示す説明図である。
FIG. 14 illustrates an embodiment in which the image monitoring apparatus according to the present invention calculates maximum coordinates and minimum coordinates of a binary image and checks whether or not the distance between the binary images is within an allowable range. FIG.

【図15】本発明になる画像監視装置における特徴量算
出部の内部構成の一実施形態を示すブロック図である。
FIG. 15 is a block diagram illustrating an embodiment of an internal configuration of a feature amount calculation unit in the image monitoring device according to the present invention.

【図16】本発明になる画像監視装置における直前移動
距離算出部及び始点移動距離算出部における距離算出の
一実施形態を示す説明図である
FIG. 16 is an explanatory diagram showing one embodiment of distance calculation in the immediately preceding moving distance calculating unit and the starting point moving distance calculating unit in the image monitoring device according to the present invention.

【図17】本発明になる画像監視装置における物体識別
部の識別手順の一実施形態を示すフローチャートであ
る。
FIG. 17 is a flowchart illustrating an embodiment of an identification procedure of an object identification unit in the image monitoring device according to the present invention.

【図18】本発明になる画像監視装置の輝度算出部にお
ける輝度分布識別手順の一実施形態を示すフローチャー
トである。
FIG. 18 is a flowchart illustrating an embodiment of a luminance distribution identification procedure in the luminance calculation unit of the image monitoring device according to the present invention.

【図19】本発明になる画像監視装置において表示装置
に識別した結果を表示する一実施形態を示す説明図であ
る。
FIG. 19 is an explanatory diagram showing an embodiment in which the identification result is displayed on the display device in the image monitoring device according to the present invention.

【符号の説明】[Explanation of symbols]

100…ITVカメラ、400…カメラ制御情報出力
部、600…処理手法判定部、800…画像入力部、1
000…差分画像作成部、2000…物体抽出部、30
00…物体検出部、4000…表示制御部、3200…
表示装置。
100: ITV camera, 400: camera control information output unit, 600: processing method determination unit, 800: image input unit, 1
000: difference image creation unit, 2000: object extraction unit, 30
00: object detection unit, 4000: display control unit, 3200:
Display device.

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】照明変動が発生する環境で監視対象領域を
TVカメラで撮影して該監視対象領域中の物体の映像情
報を入力し、前後する2つの映像情報による2つの入力
画像の差分画像データを作成して前記監視対象領域中の
移動物体の有無を監視する画像監視装置において、 前記TVカメラからの映像情報について照明変動の影響
の有無を判定するための制御情報を取得する照明変動影
響情報出力手段と、この照明変動影響情報出力手段から
出力される制御情報に基づいて処理手法を判定する処理
手法判定手段と、この処理手法判定手段における判定結
果に従って差分画像データの作成手法を変える差分画像
作成手段とを設けたことを特徴とする画像監視装置。
1. A monitoring target area is photographed by a TV camera in an environment where illumination fluctuations occur, video information of an object in the monitoring target area is input, and a difference image between two input images based on two preceding and succeeding video informations. An image monitoring device that creates data and monitors the presence or absence of a moving object in the monitoring target area, wherein the control information for determining whether or not the video information from the TV camera is affected by the illumination variation is acquired. An information output unit, a processing method determining unit that determines a processing method based on the control information output from the illumination variation influence information output unit, and a difference that changes a method of creating difference image data according to a determination result of the processing method determining unit. An image monitoring apparatus, comprising: an image creation unit.
【請求項2】請求項1において、前記差分画像作成手段
は、照明変動の影響がないときには処理対象である第1
の入力画像とその直前に取り込んだ第2つの入力画像を
用いて両画像の差分である差分画像データを作成し、照
明変動の影響があるときには前記差分画像データの作成
を省略することを特徴とする画像監視装置。
2. The method according to claim 1, wherein said difference image creating means is a processing target when there is no influence of illumination fluctuation.
The difference image data which is the difference between the two images is created by using the input image and the second input image captured immediately before, and the creation of the difference image data is omitted when there is an influence of illumination fluctuation. Image monitoring device.
【請求項3】請求項1において、前記差分画像作成手段
は、照明変動の影響がないときには処理対象である第1
の入力画像とその直前に取り込んだ第2の入力画像を用
いて両画像の差分である差分画像データを作成し、照明
変動の影響があるときには前記差分画像データの作成を
省略し、前記第1の入力画像の映像情報を取り込んだ照
明変動周期上の同一位相で次の映像情報を取り込んで該
映像情報の入力画像との間の差分画像データ作成処理を
行うことを特徴とする画像監視装置。
3. The method according to claim 1, wherein the difference image creating means is a processing target when there is no influence of illumination fluctuation.
The difference image data that is the difference between the two images is created using the input image of the first and the second input images captured immediately before, and the creation of the difference image data is omitted when there is an influence of illumination fluctuation, and the first image is omitted. An image monitoring apparatus characterized in that the next image information is fetched at the same phase on the illumination fluctuation cycle in which the image information of the input image is fetched, and a difference image data creation process is performed between the fetched image information and the input image.
【請求項4】請求項1において、前記差分画像作成手段
は、照明変動の影響がないときには処理対象である第1
の入力画像とその直前に取り込んだ第2の入力画像を用
いて両画像の差分である差分画像データを作成し、照明
変動の影響があるときには照明変動周期上の同一位相で
予め取り込んだ入力画像を選択して前記差分画像データ
を作成することを特徴とする画像監視装置。
4. The apparatus according to claim 1, wherein said difference image creating means is a processing target when there is no influence of illumination fluctuation.
The difference image data which is the difference of both images is created using the input image of the above and the second input image just before the input image, and when there is an influence of the illumination variation, the input image previously captured at the same phase on the illumination variation cycle And generating the difference image data by selecting.
【請求項5】請求項1において、前記差分画像作成手段
は、照明変動の影響があるときには照明変動周期上の同
一位相で取り込んだ映像情報の入力画像を選択して前記
差分画像データを作成するかまたは該差分画像データの
作成を省略することを特徴とする画像監視装置。
5. The difference image creation means according to claim 1, wherein said difference image creation means creates the difference image data by selecting an input image of video information taken in the same phase on an illumination variation cycle when there is an influence of illumination variation. Or an image monitoring apparatus characterized in that creation of the difference image data is omitted.
【請求項6】請求項1項において、前記照明変動影響情
報出力手段は、前記TVカメラのシャッター速度情報を
使用することを特徴とする画像監視装置。
6. An image monitoring apparatus according to claim 1, wherein said illumination fluctuation influence information output means uses shutter speed information of said TV camera.
【請求項7】請求項1において、前記処理手法判定手段
は、TVカメラのシャッター速度情報に応じて差分画像
データ作成の処理手法を変えることを特徴とする画像監
視装置。
7. An image monitoring apparatus according to claim 1, wherein said processing method determining means changes a processing method for generating differential image data according to shutter speed information of a TV camera.
【請求項8】請求項1〜7の1項において、前記TVカ
メラで撮影して生成した少なくとも2撮影シーン分の映
像情報を蓄積するメモリを備えたことを特徴とする画像
監視装置。
8. An image monitoring apparatus according to claim 1, further comprising a memory for storing video information of at least two photographing scenes generated by photographing with said TV camera.
【請求項9】映像情報に対してフリッカ発生防止対策機
能を備えたTVカメラにより照明変動が存在する環境で
監視対象領域を撮影して該監視対象領域中の物体の映像
情報を入力し、前後する2つの映像情報による2つの入
力画像の差分画像データを作成して前記監視対象領域中
の移動物体の有無を監視する画像監視装置において、 前記TVカメラからの映像情報について照明変動の影響
の有無を判定するための制御情報としてシャッター速度
情報を取得する照明変動影響情報出力手段と、この照明
変動影響情報出力手段から出力されるシャッター速度情
報に基づいて画像処理手法を判定する処理手法判定手段
と、この処理手法判定手段における判定結果に従って差
分画像データの作成手法を変える差分画像作成手段とを
設けたことを特徴とする画像監視装置。
9. A video camera which has a function of preventing flickering of video information, captures an image of an area to be monitored in an environment where illumination fluctuations exist, and inputs video information of an object in the area to be monitored. An image monitoring apparatus that creates difference image data of two input images based on two pieces of video information and monitors the presence or absence of a moving object in the monitoring target area, wherein the video information from the TV camera is not affected by illumination fluctuation. An illumination variation influence information output unit that obtains shutter speed information as control information for judging, and a processing method determination unit that determines an image processing method based on the shutter speed information output from the illumination variation influence information output unit. A difference image creating means for changing a method of creating difference image data in accordance with a result of the judgment by the processing method judging means. Image monitoring device.
【請求項10】請求項6または6または9において、前
記TVカメラは、シャッター速度自動制御機能を備えた
ことを特徴とする画像監視装置。
10. An image monitoring apparatus according to claim 6, wherein said TV camera has an automatic shutter speed control function.
JP9093700A 1997-04-11 1997-04-11 Image monitoring device Pending JPH10289321A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9093700A JPH10289321A (en) 1997-04-11 1997-04-11 Image monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9093700A JPH10289321A (en) 1997-04-11 1997-04-11 Image monitoring device

Publications (1)

Publication Number Publication Date
JPH10289321A true JPH10289321A (en) 1998-10-27

Family

ID=14089689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9093700A Pending JPH10289321A (en) 1997-04-11 1997-04-11 Image monitoring device

Country Status (1)

Country Link
JP (1) JPH10289321A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7116801B2 (en) 2002-11-01 2006-10-03 Pixart Imagning Inc. Image qualification for optical navigation sensor
JP2007503956A (en) * 2003-09-05 2007-03-01 バリアン・メディカル・システムズ・テクノロジーズ・インコーポレイテッド Apparatus and method for tracking a moving object and monitoring its position
JP2008015814A (en) * 2006-07-06 2008-01-24 Megachips System Solutions Inc Image analysis device and object recognition method
JP2008158790A (en) * 2006-12-22 2008-07-10 Matsushita Electric Works Ltd Human body detecting device
JP2010226259A (en) * 2009-03-19 2010-10-07 Rhythm Watch Co Ltd Detection system and signal processing method thereof
WO2010131714A1 (en) * 2009-05-13 2010-11-18 リズム時計工業株式会社 Detection system, signal processing method of detection system, and smoke sensor
JP2013098797A (en) * 2011-11-01 2013-05-20 Toshiba Corp Information output device, detection device, program and information output method
US9232928B2 (en) 1998-10-23 2016-01-12 Varian Medical Systems, Inc. Method and system for predictive physiological gating
US10646188B2 (en) 1998-10-23 2020-05-12 Varian Medical Systems, Inc. Method and system for radiation application
US10667727B2 (en) 2008-09-05 2020-06-02 Varian Medical Systems, Inc. Systems and methods for determining a state of a patient

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9232928B2 (en) 1998-10-23 2016-01-12 Varian Medical Systems, Inc. Method and system for predictive physiological gating
US10646188B2 (en) 1998-10-23 2020-05-12 Varian Medical Systems, Inc. Method and system for radiation application
US7142695B2 (en) 2002-11-01 2006-11-28 Pixart Imaging Inc. Image qualification for optical navigation sensor
US7116801B2 (en) 2002-11-01 2006-10-03 Pixart Imagning Inc. Image qualification for optical navigation sensor
JP2007503956A (en) * 2003-09-05 2007-03-01 バリアン・メディカル・システムズ・テクノロジーズ・インコーポレイテッド Apparatus and method for tracking a moving object and monitoring its position
JP2008015814A (en) * 2006-07-06 2008-01-24 Megachips System Solutions Inc Image analysis device and object recognition method
JP2008158790A (en) * 2006-12-22 2008-07-10 Matsushita Electric Works Ltd Human body detecting device
US10667727B2 (en) 2008-09-05 2020-06-02 Varian Medical Systems, Inc. Systems and methods for determining a state of a patient
JP2010226259A (en) * 2009-03-19 2010-10-07 Rhythm Watch Co Ltd Detection system and signal processing method thereof
WO2010131714A1 (en) * 2009-05-13 2010-11-18 リズム時計工業株式会社 Detection system, signal processing method of detection system, and smoke sensor
US8773533B2 (en) 2009-05-13 2014-07-08 Rhythm Watch Co., Ltd. Detection system, signal processing method of detection system, and smoke sensor
JP2010268161A (en) * 2009-05-13 2010-11-25 Rhythm Watch Co Ltd Detection system, signal processing method of detection system, and smoke sensor
JP2013098797A (en) * 2011-11-01 2013-05-20 Toshiba Corp Information output device, detection device, program and information output method

Similar Documents

Publication Publication Date Title
JP3123587B2 (en) Moving object region extraction method using background subtraction
US6711279B1 (en) Object detection
US5151945A (en) Determination of ambient light level changes in visual images
JP2001333420A (en) Image supervisory method and device
JPH05181970A (en) Moving image processor
JPH1141589A (en) Method and system for supervising mobile object
JP2008077517A (en) Camera block detection system
JP5277805B2 (en) Object extraction device, object extraction method, and object extraction program
JPH10289321A (en) Image monitoring device
JP2009140307A (en) Person detector
Saglam et al. Real-time adaptive camera tamper detection for video surveillance
JPH0779429A (en) Picture monitor equipment
JP3134845B2 (en) Apparatus and method for extracting object in moving image
JP6189284B2 (en) Image sensing device
JP2000306684A (en) Image monitor device and its illumination control method
JPH09293141A (en) Mobile object detection device
JPH05143737A (en) Method and device for identification with motion vector
JP3423886B2 (en) Moving object monitoring device
JPH0514891A (en) Image monitor device
KR100518298B1 (en) Apparatus and method for operating day/night mode of monitoring camera using a measuring brightness in invisible interval area
JP3532769B2 (en) Image monitoring device
JP3736836B2 (en) Object detection method, object detection apparatus, and program
JP4828265B2 (en) Image sensor
JP2002290959A (en) Method and device for detecting invader
JPH05183901A (en) Moving body monitor device