JP2012208878A - Image monitoring device - Google Patents
Image monitoring device Download PDFInfo
- Publication number
- JP2012208878A JP2012208878A JP2011075702A JP2011075702A JP2012208878A JP 2012208878 A JP2012208878 A JP 2012208878A JP 2011075702 A JP2011075702 A JP 2011075702A JP 2011075702 A JP2011075702 A JP 2011075702A JP 2012208878 A JP2012208878 A JP 2012208878A
- Authority
- JP
- Japan
- Prior art keywords
- shielding
- area
- image
- unit
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012806 monitoring device Methods 0.000 title claims abstract 3
- 230000005856 abnormality Effects 0.000 claims abstract description 85
- 238000012544 monitoring process Methods 0.000 claims abstract description 78
- 238000001514 detection method Methods 0.000 claims abstract description 61
- 238000003384 imaging method Methods 0.000 claims abstract description 30
- 238000000605 extraction Methods 0.000 claims abstract description 21
- 239000002131 composite material Substances 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 238000009434 installation Methods 0.000 abstract description 4
- 230000003068 static effect Effects 0.000 abstract 2
- 238000000034 method Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000005192 partition Methods 0.000 description 8
- 230000002159 abnormal effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Alarm Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、監視空間を撮像した画像を用いて侵入者を異常検知するとともに侵入者の検知を妨げる遮蔽物の存在を異常検知する画像監視装置に関する。 The present invention relates to an image monitoring apparatus that detects an intruder abnormally using an image obtained by imaging a monitoring space and detects the presence of an obstruction that prevents the intruder from being detected abnormally.
従来、撮像部が撮像した画像を処理して侵入者を検知する画像センサにおいて、侵入検知を継続的に行うために撮像部の視野を遮る遮蔽物の存在を異常検知していた。 Conventionally, in an image sensor that detects an intruder by processing an image captured by an imaging unit, the presence of a shielding object that blocks the field of view of the imaging unit is detected abnormally in order to continuously detect intrusion.
特許文献1に記載の画像センサにおいては、画像を区分した判定ブロックごとに現画像と基準画像との類似度が判定され、類似度の小さい判定ブロック数が所定数以上であれば視野を遮る異常と判定される。 In the image sensor described in Patent Literature 1, the degree of similarity between the current image and the reference image is determined for each determination block into which the image is divided, and the visual field is blocked if the number of determination blocks with a low similarity is equal to or greater than a predetermined number It is determined.
またこの画像センサにおいては、判定ブロックごとにカウンタが設けられて、類似度が小さな判定ブロックのカウンタが増加され及び類似度が大きな判定ブロックのカウンタが減少されて、カウンタ値がしきい値以上である判定ブロック数が所定数以上であれば異常と判定される。これにより、一時的な環境変化による誤判定することなく視野を遮る障害物が置かれたことを判定していた。 Further, in this image sensor, a counter is provided for each determination block, the counter of the determination block having a low similarity is increased, and the counter of the determination block having a high similarity is decreased, so that the counter value exceeds the threshold value. If a certain number of determination blocks is greater than or equal to a predetermined number, it is determined as abnormal. As a result, it was determined that an obstacle that obstructed the field of view was placed without erroneous determination due to a temporary environmental change.
しかしながら従来技術によると、居住者が敷地内にある程度の大きさを有しているが隙間があり監視の妨げにならない自転車や脚立などの物品を置いても視野を遮る異常と判定されてしまうため、居住者の利便性を低下させる可能性があった。 However, according to the prior art, a resident who has a certain size in the premises, but has a gap and does not interfere with monitoring, it is judged as an abnormality that obstructs the field of view even if an article such as a bicycle or a stepladder is placed. , Could reduce the resident's convenience.
すなわちこれらの物品が置かれると、侵入者を遮る程度の大きさを有していることから所定数以上の判定ブロックにて類似度が小さくなってしまい、また静止しているためカウンタは増加し続け、その存在が異常と判定されてしまうのである。 In other words, when these items are placed, the degree of similarity is reduced in a predetermined number or more of judgment blocks because they are large enough to block intruders, and the counter increases because they are stationary. Subsequently, the existence is determined to be abnormal.
本発明は、上記問題を鑑みてなされたものであり、侵入検知の性能を維持しながら所定物品の設置を許容することにより、正規利用者の利便性を向上可能な画像監視装置を実現することを目的とする。 The present invention has been made in view of the above problems, and realizes an image monitoring apparatus capable of improving the convenience of a regular user by allowing installation of a predetermined article while maintaining intrusion detection performance. With the goal.
かかる課題を解決するために、本発明は、監視空間を撮像した画像を用いて侵入者を検知する画像監視装置において、監視空間を順次撮像する撮像部と、少なくとも所定時刻に撮像された背景画像を記憶する記憶部と、所定時刻以降に撮像された監視画像を背景画像と比較して変化領域を抽出する変化領域抽出部と、変化領域の外形を所定図形にて近似して物体領域を検出する物体領域検出部と、前後する時刻に検出された物体領域のうち特徴が互いに類似する物体領域を対応付け、対応付けた物体領域ごと検出位置から移動距離を算出する移動距離算出部と、物体領域の移動距離を予め設定された静止判定値と比較するとともに当該物体領域に占める変化領域の割合を算出して予め設定された遮蔽容認値と比較し、移動距離が静止判定値未満且つ割合が遮蔽容認値以上であるときに侵入者の検知を妨げる遮蔽物があると判定する遮蔽異常判定部と、を備えたことを特徴とする画像監視装置を提供する。 In order to solve such a problem, the present invention provides an image monitoring apparatus that detects an intruder using an image obtained by imaging a monitoring space, an imaging unit that sequentially images the monitoring space, and a background image captured at least at a predetermined time. A change area extraction section that extracts a change area by comparing a monitoring image captured after a predetermined time with a background image, and detects an object area by approximating the outline of the change area with a predetermined figure An object region detecting unit that associates object regions with similar characteristics among object regions detected at preceding and following times, and a moving distance calculating unit that calculates a moving distance from a detection position for each associated object region, Compare the moving distance of the area with a preset stillness judgment value, calculate the ratio of the changed area in the object area, and compare it with the preset shielding tolerance value. And ratio to provide an image monitoring apparatus characterized by comprising a, and determining shielding abnormality determining unit that there is an interrupting object interfering with the detection of the intruder when it is shielded acceptable value or more.
かかる画像監視装置において、物体領域検出部は、予め設定された許容範囲内で互いに近接して検出された複数の変化領域があるときは当該複数の変化領域のまとまりに対して物体領域を検出することが好ましい。 In such an image monitoring apparatus, when there are a plurality of change areas detected in proximity to each other within a preset allowable range, the object area detection unit detects the object area with respect to the group of the plurality of change areas. It is preferable.
また、遮蔽異常判定部は、移動距離が静止判定値未満且つ割合が遮蔽容認値未満である物体領域を侵入者の検知を妨げない低遮蔽物領域と判定し、変化領域抽出部は、低遮蔽物領域内の背景画像を監視画像にて置換することが好ましい。 In addition, the shielding abnormality determination unit determines that the object region whose moving distance is less than the stationary determination value and the ratio is less than the shielding allowance value is a low shielding object region that does not hinder the detection of the intruder, and the change region extraction unit is a low shielding unit. It is preferable to replace the background image in the object area with the monitoring image.
また、遮蔽異常判定部は、低遮蔽物領域にて抽出された変化領域を記憶部に記憶させ、当該記憶後に抽出される変化領域と記憶された変化領域を合わせた合成変化領域を用いて割合を算出することが好ましい。 In addition, the shielding abnormality determination unit stores the change region extracted in the low shielding object region in the storage unit, and uses the combined change region obtained by combining the change region extracted after the storage and the stored change region. Is preferably calculated.
また、遮蔽異常判定部は、低遮蔽物領域を記憶部に記憶させ、当該記憶後に検出される物体領域と記憶された低遮蔽物領域の重複領域に占める合成変化領域の割合を算出して遮蔽物の判定を行なうことが好ましい。 Further, the shielding abnormality determination unit stores the low shielding object region in the storage unit, calculates the ratio of the combined change region in the overlapping region of the object region detected after the storage and the stored low shielding object region, and shields it. It is preferable to determine the object.
侵入検知の性能を維持しながら隙間が多い自転車や脚立などの設置を許容できるので、正規利用者の利便性を向上させた画像監視装置を実現できる。 Since the installation of bicycles or stepladders with many gaps can be allowed while maintaining the performance of intrusion detection, an image monitoring apparatus with improved convenience for authorized users can be realized.
以下、本発明の画像監視装置の好適な実施形態の一例として、建物外周を監視して侵入者および遮蔽物を検知すると警備センターに通報する外周監視システム1について説明する。 Hereinafter, as an example of a preferred embodiment of the image monitoring apparatus of the present invention, an outer periphery monitoring system 1 that notifies the security center when an intruder and a shield are detected by monitoring the outer periphery of a building will be described.
<外周監視システム1の構成>
図1は外周監視システム1の全体図である。外周監視システム1は画像センサー2、認証装置3、携帯端末4、コントローラー5及びセンター装置6を含んで構成される。
<Configuration of outer periphery monitoring system 1>
FIG. 1 is an overall view of the outer periphery monitoring system 1. The outer periphery monitoring system 1 includes an image sensor 2, an authentication device 3, a mobile terminal 4, a controller 5, and a center device 6.
画像センサー2及び認証装置3は通信線を介してコントローラー5に接続され、コントローラー5は電話回線又はインターネット回線等の広域通信網を介して警備センター等の遠隔地に設置されたセンター装置6と接続される。 The image sensor 2 and the authentication device 3 are connected to a controller 5 via a communication line, and the controller 5 is connected to a center device 6 installed at a remote place such as a security center via a wide-area communication network such as a telephone line or an internet line. Is done.
画像センサー2は屋外に設置されて監視空間である建物外周を監視する。画像センサー2は、監視空間への侵入者を検知すると侵入異常信号を出力し、侵入者の検知を阻害する遮蔽物を検知すると遮蔽異常信号を出力する。画像センサー2が出力したこれらの異常信号はコントローラー5を介してセンター装置6に送信される。 The image sensor 2 is installed outdoors and monitors the outer periphery of the building which is a monitoring space. The image sensor 2 outputs an intrusion abnormality signal when it detects an intruder into the monitoring space, and outputs a shielding abnormality signal when it detects a shield that obstructs the detection of the intruder. These abnormal signals output from the image sensor 2 are transmitted to the center device 6 via the controller 5.
認証装置3は監視空間内の携帯端末4と通信を行なうことにより監視空間内の居住者や従業員などの正規利用者を認証する。正規利用者が所持する携帯端末4は予め認証装置3に登録され、認証装置3は登録された携帯端末4を検出すると認証信号をコントローラー5経由で画像センサー2に出力する。画像センサー2は人を検知したときに認証信号の有無を参照して正規利用者か侵入者かを判別する。 The authentication device 3 authenticates regular users such as residents and employees in the monitoring space by communicating with the mobile terminal 4 in the monitoring space. The mobile terminal 4 possessed by the authorized user is registered in the authentication device 3 in advance, and when the authentication device 3 detects the registered mobile terminal 4, it outputs an authentication signal to the image sensor 2 via the controller 5. When the image sensor 2 detects a person, the image sensor 2 determines whether the user is an authorized user or an intruder by referring to the presence or absence of an authentication signal.
図2は画像センサー2の構成を示したブロック図である。画像センサー2は撮像部21、記憶部22及び通信部24が制御部23に接続されてなる。 FIG. 2 is a block diagram showing the configuration of the image sensor 2. The image sensor 2 includes an imaging unit 21, a storage unit 22, and a communication unit 24 connected to a control unit 23.
撮像部21はいわゆる監視カメラである。撮像部21は、監視空間を所定の時間間隔で順次撮像して監視画像を生成し、撮像した監視画像を制御部23に順次出力する。撮像間隔は例えば1/5秒である。以下この撮像間隔で刻まれる時間の単位を時刻と称する。 The imaging unit 21 is a so-called surveillance camera. The imaging unit 21 sequentially captures the monitoring space at a predetermined time interval to generate a monitoring image, and sequentially outputs the captured monitoring image to the control unit 23. The imaging interval is 1/5 second, for example. Hereinafter, the unit of time recorded at this imaging interval is referred to as time.
記憶部22は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。記憶部22は、各種プログラムや各種データを記憶し、制御部23との間でこれらの情報を入出力する。各種データには、背景画像221、物体情報222、容認遮蔽物情報223及びカメラパラメーター224が含まれる。 The storage unit 22 is a storage device such as a ROM (Read Only Memory) or a RAM (Random Access Memory). The storage unit 22 stores various programs and various data, and inputs / outputs such information to / from the control unit 23. The various data includes a background image 221, object information 222, acceptable shielding object information 223, and camera parameters 224.
制御部23は、CPU(Central Processing Unit)、DSP(Digital Signal
Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、記憶部22からプログラムを読み出して実行することで変化領域抽出部231、物体領域検出部232、物体領域追跡部233、侵入異常判定部234及び遮蔽異常判定部235として機能する。
The control unit 23 includes a CPU (Central Processing Unit) and a DSP (Digital Signal).
Processor, a control unit such as MCU (Micro Control Unit), and the like, by reading a program from the storage unit 22 and executing it, a change region extraction unit 231, an object region detection unit 232, an object region tracking unit 233, an intrusion It functions as an abnormality determination unit 234 and a shielding abnormality determination unit 235.
通信部24はコントローラー5との間の通信回路及びドライバソフトフェアから構成され、通信部24の一方には制御部23、他方にはコントローラー5がそれぞれ接続される。制御部23からの異常信号等は通信部24を介してコントローラー5に送信され、コントローラー5からの認証信号等は通信部24を介して制御部23に入力される。 The communication unit 24 includes a communication circuit between the controller 5 and driver software. The control unit 23 is connected to one of the communication units 24 and the controller 5 is connected to the other. An abnormal signal or the like from the control unit 23 is transmitted to the controller 5 via the communication unit 24, and an authentication signal or the like from the controller 5 is input to the control unit 23 via the communication unit 24.
以下、記憶部22に記憶される背景画像221、物体情報222、容認遮蔽物情報223及びカメラパラメーター224について説明する。 Hereinafter, the background image 221, the object information 222, the acceptable shielding object information 223, and the camera parameter 224 stored in the storage unit 22 will be described.
背景画像221は監視空間の背景のみが撮像されている画像である。背景画像221は、異常検知処理に先立って無人時の監視画像から生成されて記憶部22に記憶され、以降適宜に更新される。背景画像221には侵入者、正規利用者、新たに持ち込まれた遮蔽物が含まれておらず、背景画像221を監視画像と比較することによってこれらの物体の出現によって監視画像が変化した部分を変化領域として検出できる。 The background image 221 is an image in which only the background of the monitoring space is captured. Prior to the abnormality detection process, the background image 221 is generated from an unattended monitoring image, stored in the storage unit 22, and thereafter appropriately updated. The background image 221 does not include an intruder, a regular user, or a newly brought-in shield, and by comparing the background image 221 with the monitoring image, a portion where the monitoring image has changed due to the appearance of these objects is displayed. It can be detected as a change area.
物体情報222は、各時刻の監視画像から検出された物体の領域(物体領域)の検出位置及び特徴量を物体ごとに対応付けたデータである。物体領域は変化領域の外形を近似した領域である。物体領域の特徴量は物体領域の大きさ、物体領域の形状、物体領域における監視画像の輝度ヒストグラムなどである。また各時刻において検出された物体領域のうち同一物体により生じた物体領域は追跡処理によって対応付けられ、物体情報222の各要素は物体ごとの識別符号(物体ID)と対応付けて管理される。検出位置は物体領域の移動距離算出及び追跡に用いられ、特徴量は追跡に用いられる。 The object information 222 is data in which the detection position and the feature amount of the object area (object area) detected from the monitoring image at each time are associated with each object. The object area is an area that approximates the outer shape of the change area. The feature amount of the object area includes the size of the object area, the shape of the object area, the luminance histogram of the monitoring image in the object area, and the like. In addition, object regions generated by the same object among the object regions detected at each time are associated by tracking processing, and each element of the object information 222 is managed in association with an identification code (object ID) for each object. The detection position is used for calculating and tracking the movement distance of the object region, and the feature amount is used for tracking.
容認遮蔽物情報223は遮蔽物のうち遮蔽の程度が低いために異常とせず容認された遮蔽物(低遮蔽物)の情報である。容認遮蔽物情報223には低遮蔽物の物体領域(低遮蔽物領域)及び当該低遮蔽物領域内にて抽出された変化領域が含まれる。 The acceptable shielding object information 223 is information on a shielding object (low shielding object) that is accepted without being abnormal because the degree of shielding is low. The acceptable shielding object information 223 includes an object area (low shielding object area) of the low shielding object and a change area extracted in the low shielding object area.
カメラパラメーター224は、撮像部21の設置位置及び撮像方向といった外部パラメーター、撮像部21の焦点距離、画角、レンズ歪みその他のレンズ特性や、撮像素子の画素数といった内部パラメーターを含む。実際に計測するなどして得られたこれらのパラメーターが予め設定されて記憶部22に記憶されている。公知のピンホールカメラモデル等のカメラモデルにカメラパラメーター224を適用することにより、監視画像中の画素位置を撮像部21の撮像面における座標(撮像面座標)と実空間における座標(実座標)との間で座標変換することが可能となる。以下、撮像面座標から実座標への変換を逆透視変換、実座標から撮像面座標への変換を透視変換と称する。 The camera parameters 224 include external parameters such as the installation position and imaging direction of the imaging unit 21, internal parameters such as the focal length, field angle, lens distortion, and other lens characteristics of the imaging unit 21, and the number of pixels of the imaging device. These parameters obtained by actual measurement are preset and stored in the storage unit 22. By applying the camera parameter 224 to a camera model such as a known pinhole camera model, the pixel position in the monitoring image is represented by coordinates on the imaging surface of the imaging unit 21 (imaging surface coordinates) and coordinates in the real space (real coordinates). It is possible to convert coordinates between the two. Hereinafter, conversion from imaging surface coordinates to real coordinates is referred to as reverse perspective transformation, and conversion from actual coordinates to imaging surface coordinates is referred to as perspective transformation.
以下、制御部23がその機能として有する変化領域抽出部231、物体領域検出部232、物体領域追跡部233、侵入異常判定部234及び遮蔽異常判定部235について説明する。 Hereinafter, the change region extraction unit 231, the object region detection unit 232, the object region tracking unit 233, the intrusion abnormality determination unit 234, and the shielding abnormality determination unit 235 that the control unit 23 has as functions thereof will be described.
変化領域抽出部231は、撮像部21から入力された監視画像を背景画像221と比較して当該監視画像における変化領域を検出し、検出した変化領域を物体領域検出部232及び遮蔽異常判定部235に出力する。 The change area extraction unit 231 detects the change area in the monitoring image by comparing the monitoring image input from the imaging unit 21 with the background image 221, and detects the change area in the object area detection unit 232 and the shielding abnormality determination unit 235. Output to.
具体的には変化領域抽出部231は背景差分処理により変化領域を抽出する。すなわち変化領域抽出部231は、監視画像と背景画像221の対応する画素間で画素値の差の絶対値を算出し、差の絶対値が差分閾値以上である画素のうち互いに隣接する画素をひとまとまりにして変化領域を検出する。差分閾値は事前実験に基づき予め設定される。 Specifically, the change area extraction unit 231 extracts a change area by background difference processing. That is, the change area extraction unit 231 calculates the absolute value of the difference between the pixel values between the corresponding pixels of the monitoring image and the background image 221, and selects adjacent pixels among pixels whose absolute value of the difference is equal to or greater than the difference threshold. Change areas are detected together. The difference threshold is set in advance based on a preliminary experiment.
別の実施形態において変化領域抽出部231は背景相関処理により変化領域を抽出する。すなわち変化領域抽出部231は、上記差に代えて画素値の相関値を算出し、相関値が予め設定された相関閾値以下である画素を変化領域として検出する。 In another embodiment, the change area extraction unit 231 extracts a change area by background correlation processing. That is, the change area extraction unit 231 calculates a correlation value of pixel values instead of the difference, and detects a pixel whose correlation value is equal to or less than a preset correlation threshold as a change area.
また変化領域抽出部231は、変化領域を正確に検出し続けるために、監視画像を用いて背景画像221を適宜更新することで背景画像221を監視空間の環境変化に適応させる。 In addition, the change area extraction unit 231 adapts the background image 221 to environmental changes in the monitoring space by appropriately updating the background image 221 using the monitoring image in order to continue to detect the changing area accurately.
具体的には変化領域抽出部231は、後述する遮蔽異常判定部235により容認された低遮蔽物領域内の背景画像221を監視画像で置き換える。この更新により低遮蔽物が背景画像221に取り込まれて当該低遮蔽物による変化領域が抽出されなくなる。そのため容認された低遮蔽物領域に新たな物体が現れたとき、当該物体の物体領域が容認された低遮蔽物による変化領域を含んで不当に大きくなることを防止でき、後述する遮蔽判定を正しく行なうことが可能となる。なお容認された低遮蔽物を背景画像221に取り込むことは当該低遮蔽物の追跡終了をも意味する。 Specifically, the change region extraction unit 231 replaces the background image 221 in the low shielding object region accepted by the shielding abnormality determination unit 235 described later with a monitoring image. By this update, the low shielding object is taken into the background image 221 and the changed area due to the low shielding object is not extracted. Therefore, when a new object appears in the accepted low shielding object area, it is possible to prevent the object area of the object from being unduly enlarged including the changed area due to the accepted low shielding object. Can be performed. Incorporating the accepted low shielding object into the background image 221 also means the end of tracking of the low shielding object.
さらに変化領域抽出部231は監視空間の明るさ変動などに対応するために追跡中の物体領域を除いた監視画像を背景画像221にて更新(置換、平均化処理など)してもよい。 Further, the change area extraction unit 231 may update (replace, average, etc.) the monitor image excluding the object area being tracked with the background image 221 in order to cope with the brightness fluctuation of the monitor space.
物体領域検出部232は、侵入者の大きさ及び形状に設定された物体枠内に包含される変化領域の統合を許容して、変化領域の外形を所定図形にて近似して物体領域を検出し、検出された物体領域を物体領域追跡部233、侵入異常判定部234及び遮蔽異常判定部235に出力する。物体枠は侵入者の最大サイズを模した矩形(例えば縦2m×横1m)とすることができ、物体領域は変化領域の外接矩形とすることができる。別の実施形態においては矩形に代えて楕円とすることもできる。 The object area detection unit 232 detects the object area by allowing the integration of the change areas included in the object frame set to the size and shape of the intruder and approximating the outline of the change area with a predetermined figure. The detected object area is output to the object area tracking unit 233, the intrusion abnormality determining unit 234, and the shielding abnormality determining unit 235. The object frame can be a rectangle imitating the maximum size of an intruder (for example, 2 m long × 1 m wide), and the object region can be a circumscribed rectangle of the change region. In another embodiment, an ellipse may be used instead of a rectangle.
侵入者が隙間のある遮蔽物の背後を通過すると、侵入者の像と対応する位置において互いに近接する複数の変化領域が抽出される。図3は脚立30の背後を通過している侵入者31が撮像された監視画像32を背景差分処理して得られた差分画像33から物体領域を検出する様子を示したものである。処理時点で脚立30の像は既に背景画像221に取り込まれており、侵入者31の像と対応する部分から複数の変化領域34(斜線部)が抽出されている。 When the intruder passes behind the shield with a gap, a plurality of change regions that are close to each other are extracted at positions corresponding to the intruder image. FIG. 3 shows a state in which an object region is detected from a difference image 33 obtained by performing background difference processing on a monitoring image 32 in which an intruder 31 passing behind a stepladder 30 is captured. At the time of processing, the image of the stepladder 30 is already captured in the background image 221, and a plurality of change areas 34 (hatched portions) are extracted from the portion corresponding to the image of the intruder 31.
物体領域検出部232は、差分画像33の各位置に物体枠35(一点鎖線)を設定して包含する変化領域の面積を算出し、面積がピークを示す物体枠の位置にて当該物体枠に包含される変化領域に同一のラベルを付与する。同一のラベルが付与された変化領域は同一の物体により生じたひとまとまりの変化領域と認識されることになる。図3に示した例では、複数の変化領域34のそれぞれに同一のラベルが付与される。 The object area detection unit 232 calculates the area of the change area including the object frame 35 (one-dot chain line) at each position of the difference image 33 and calculates the area of the object frame where the area shows a peak. The same label is given to the included change area. The change areas to which the same label is assigned are recognized as a group of change areas generated by the same object. In the example illustrated in FIG. 3, the same label is assigned to each of the plurality of change regions 34.
ここで画像上において侵入者の見かけ上の大きさは撮像部21からの距離によって変化するため、物体領域検出部232は画像上の各位置に応じた見かけ上の大きさで物体枠を設定する。すなわち物体領域検出部232は実空間の大きさで予め設定された物体枠を監視画像における見かけ上の大きさに透視変換して各位置に物体枠を設定する。なお各変化領域の最下端を侵入者の足下位置(接地面)と仮定し、物体領域検出部232は各変化領域の最下端を物体枠の最下端とする位置のみに物体枠を設定すればよい。 Here, since the apparent size of the intruder on the image varies depending on the distance from the imaging unit 21, the object region detection unit 232 sets the object frame with an apparent size corresponding to each position on the image. . That is, the object region detection unit 232 performs perspective conversion of an object frame preset in real space size to an apparent size in the monitoring image, and sets the object frame at each position. It is assumed that the lowest end of each change area is the intruder's foot position (ground plane), and the object area detection unit 232 sets the object frame only at the position where the lowest end of each change area is the lowest end of the object frame. Good.
また物体領域検出部232は統合処理の対象とならなかった各変化領域に対してそれぞれ個別のラベルを付与する。 In addition, the object area detection unit 232 assigns individual labels to each change area that is not the target of the integration process.
こうして各変化領域にラベルを付与した物体領域検出部232は、ラベルごとに変化領域を包含する最小の矩形を物体領域として求める。図3に例示した複数の変化領域34に対してはこれらのまとまりに外接する矩形の物体領域36が検出される。 In this way, the object area detection unit 232 that assigns a label to each change area obtains, as the object area, the smallest rectangle that includes the change area for each label. For the plurality of change regions 34 illustrated in FIG. 3, a rectangular object region 36 circumscribing these groups is detected.
他方、図4〜図6は変化領域の分裂が生じない場合の例である。図4は遮蔽されずに撮像された侵入者41の像、侵入者41の像と対応して抽出された変化領域44、及び変化領域44に基づき検出された侵入者41の物体領域46を示している。図5は衝立50の像、衝立50の像と対応して抽出された変化領域54、及び変化領域54に基づき検出された衝立50の物体領域56を示している。図6は脚立60の像、脚立60の像と対応して抽出された変化領域64、及び変化領域64に基づき検出された脚立60の物体領域66を示している。 On the other hand, FIGS. 4 to 6 are examples in the case where the change region is not split. FIG. 4 shows an image of the intruder 41 captured without being blocked, a change area 44 extracted corresponding to the image of the intruder 41, and an object area 46 of the intruder 41 detected based on the change area 44. ing. FIG. 5 shows an image of the partition 50, a change area 54 extracted corresponding to the image of the partition 50, and an object area 56 of the partition 50 detected based on the change area 54. FIG. 6 shows an image of the stepladder 60, a change area 64 extracted corresponding to the image of the stepladder 60, and an object area 66 of the stepladder 60 detected based on the change area 64.
物体領域追跡部233は追跡処理により物体領域の移動距離を算出する移動距離算出部である。物体領域追跡部233は、前後する時刻の監視画像から検出された物体領域のうち互いに特徴が類似する物体領域を対応付け、対応付けられた物体領域の検出位置から当該物体領域の移動距離を算出し、算出した移動距離を侵入異常判定部234及び遮蔽異常判定部235に出力する。また物体領域追跡部233は追跡処理のために物体ID、物体領域の検出位置の履歴、物体領域の特徴量を物体情報222に記憶させる。物体領域が複数同時に存在する場合、上記処理は各物体領域に対して行なわれる。 The object area tracking unit 233 is a movement distance calculation unit that calculates the movement distance of the object area by tracking processing. The object region tracking unit 233 associates object regions having similar characteristics among the object regions detected from the monitoring images at the preceding and following times, and calculates the movement distance of the object region from the detected position of the associated object region. Then, the calculated movement distance is output to the intrusion abnormality determination unit 234 and the shielding abnormality determination unit 235. The object area tracking unit 233 stores the object ID, the history of the detected position of the object area, and the feature amount of the object area in the object information 222 for the tracking process. When a plurality of object areas exist simultaneously, the above process is performed for each object area.
侵入異常判定部234は、移動距離が予め設定された静止判定値以上である物体領域に基づいて侵入異常信号を出力する。すなわち侵入異常判定部234は、各時刻における各物体領域の移動距離を静止判定値と比較するとともに当該時刻における認証信号の有無を確認し、移動距離が静止判定値以上の物体領域があり、且つ認証信号が確認されない場合に監視空間に侵入者が存在するとして侵入異常信号を出力する。他方、移動距離が静止判定値を超える物体領域がない場合及び認証信号が確認された場合、侵入異常判定部234は侵入異常信号を出力しない。 The intrusion abnormality determining unit 234 outputs an intrusion abnormality signal based on an object region whose moving distance is equal to or greater than a preset stationary determination value. That is, the intrusion abnormality determination unit 234 compares the moving distance of each object region at each time with the stationary determination value, confirms the presence or absence of an authentication signal at the time, and has an object region whose moving distance is equal to or larger than the stationary determination value, and When the authentication signal is not confirmed, an intrusion abnormality signal is output as an intruder exists in the monitoring space. On the other hand, when there is no object region whose moving distance exceeds the stationary determination value and when the authentication signal is confirmed, the intrusion abnormality determining unit 234 does not output the intrusion abnormality signal.
なお侵入異常判定部234は、さらに物体領域の大きさ、動き、物体領域における監視画像と背景画像221のテクスチャの類似性などを用いて物体領域の外乱属性値及び人属性値を算出し、外乱属性値よりも人属性値の方が高いことを侵入異常信号の出力条件に加えることもできる。 The intrusion abnormality determination unit 234 further calculates the disturbance attribute value and the human attribute value of the object region using the size, movement, and texture similarity of the monitoring image and the background image 221 in the object region. It can be added to the output condition of the intrusion abnormality signal that the human attribute value is higher than the attribute value.
遮蔽異常判定部235は、移動距離を予め設定された静止判定値と比較するとともに物体領域に占める変化領域の割合(遮蔽度)を算出して当該遮蔽度を予め設定された遮蔽容認値と比較し、移動距離が静止判定値未満、且つ遮蔽度が遮蔽容認値以上の物体領域があるときに遮蔽異常信号を出力する。他方、移動距離が静止判定値未満である物体領域がない場合、及び遮蔽度が遮蔽容認値以上である物体領域がない場合、遮蔽異常判定部235は遮蔽異常信号を出力しない。 The shielding abnormality determination unit 235 compares the moving distance with a preset stillness determination value, calculates the ratio of the change area in the object region (shielding degree), and compares the shielding degree with a preset shielding tolerance value. Then, when there is an object region whose moving distance is less than the stationary determination value and whose shielding degree is greater than or equal to the shielding tolerance value, a shielding abnormality signal is output. On the other hand, when there is no object region whose moving distance is less than the stationary determination value and when there is no object region whose shielding degree is equal to or greater than the shielding acceptance value, the shielding abnormality determination unit 235 does not output a shielding abnormality signal.
具体的には遮蔽異常判定部235は、物体領域中の変化領域数を当該物体領域の総画素数で除して遮蔽度を算出する。遮蔽容認値は例えば30%相当の画素数に設定することができる。 Specifically, the shielding abnormality determination unit 235 calculates the shielding degree by dividing the number of change regions in the object region by the total number of pixels in the object region. The shielding tolerance value can be set to the number of pixels equivalent to 30%, for example.
このように移動距離と遮蔽度に基づき遮蔽異常信号を出力することで、現に侵入者の検知を妨げる遮蔽物が存在するときは遮蔽異常信号を出力でき且つ侵入者の検知を妨げない遮蔽物が存在しても遮蔽異常信号を出力しない制御が可能となる。そのため、侵入者の検知性能を損ねることなく、正規利用者の利便性向上を図ることが可能となる。 In this way, by outputting a shielding abnormality signal based on the moving distance and the shielding degree, when there is a shielding object that actually prevents intruder detection, there is a shielding object that can output a shielding abnormality signal and does not interfere with intruder detection. Control that does not output a shielding abnormality signal even if it exists is possible. Therefore, it is possible to improve the convenience of authorized users without impairing intruder detection performance.
例えば図5に示した衝立50の例では、物体領域56の移動距離は略0であり、変化領域54が物体領域56の殆どを占めているため遮蔽容認値よりも高い遮蔽度が算出される。そのため衝立50は侵入者の検知を妨げる遮蔽物であるとして遮蔽異常信号が出力される。実際、衝立50の存在を放置していると、その背後を通る侵入者の追跡が途絶して移動距離が正しく算出できなくなったり、該侵入者の物体領域が欠損して物体領域の特徴量が正しく抽出・判定できなくなったりして侵入者の検知性能が低下する。遮蔽異常信号を出力して衝立50の存在を知らせることで衝立50を排除するなどの対処が可能になる。 For example, in the example of the partition 50 shown in FIG. 5, the moving distance of the object region 56 is approximately 0, and the change region 54 occupies most of the object region 56, so that the degree of shielding higher than the shielding allowable value is calculated. . For this reason, the screen 50 outputs a shielding abnormality signal on the assumption that the partition 50 is a shielding object that prevents intruder detection. In fact, if the partition 50 is left unattended, the tracking of the intruder passing behind it is interrupted and the travel distance cannot be calculated correctly, or the object area of the intruder is lost and the feature amount of the object area is reduced. Intruder detection performance deteriorates due to failure to extract and judge correctly. It is possible to take measures such as eliminating the partition 50 by outputting the shielding abnormality signal and notifying the existence of the partition 50.
図6に示した脚立60の例では、物体領域66の移動距離は略0であるが、物体領域66に占める変化領域64の割合は少ないため遮蔽容認値よりも低い遮蔽度が算出される。そのため脚立60は侵入者の検知を妨げない低遮蔽物であるとして遮蔽異常信号は出力されない。よって正規利用者が監視空間内に脚立や自転車など隙間の多い物品を置くことを容認して侵入検知を行うことができる。 In the example of the stepladder 60 shown in FIG. 6, the moving distance of the object region 66 is substantially zero, but the degree of shielding lower than the shielding tolerance is calculated because the ratio of the change region 64 to the object region 66 is small. For this reason, the stepladder 60 is a low shielding object that does not hinder the detection of an intruder, and no shielding abnormality signal is output. Therefore, it is possible to perform intrusion detection by allowing an authorized user to place an article with a large gap such as a stepladder or a bicycle in the monitoring space.
一方、図3,図4に示した侵入者31,侵入者41の例では物体領域36,物体領域46の移動距離が静止判定値以上となり遮蔽異常信号は出力されない。侵入者31,侵入者41に対しては侵入異常判定部234により侵入異常信号が出力される。 On the other hand, in the example of the intruder 31 and the intruder 41 shown in FIGS. 3 and 4, the moving distance of the object area 36 and the object area 46 is equal to or greater than the stationary determination value, and no shielding abnormality signal is output. An intrusion abnormality determination unit 234 outputs an intrusion abnormality signal to the intruder 31 and the intruder 41.
ここで、隙間の多い物品であっても複数の当該物品が画像上で重なると隙間を埋め合って侵入者の検知を妨げる場合がある。図7はこのときの様子を示すものである。そこで遮蔽異常判定部235は、移動距離が静止判定値未満であったが遮蔽度が遮蔽容認値未満である物体領域(低遮蔽物領域)72に含まれる変化領域71を容認遮蔽物情報223に記憶させ、新たに抽出された変化領域73と記憶されている変化領域71とを重ね合わせた合成変化領域75を用いて遮蔽度を算出する。こうすることにより単独では侵入検知の妨げとならない遮蔽物であっても複数が重なって侵入検知の妨げとなったときにこれを見落とすことなく遮蔽異常信号を出力できる。 Here, even if an article has many gaps, if a plurality of the articles overlap on the image, the gaps may be filled to prevent detection of an intruder. FIG. 7 shows the situation at this time. Therefore, the shielding abnormality determination unit 235 uses the change area 71 included in the object area (low shielding object area) 72 whose moving distance is less than the stationary determination value but the shielding degree is less than the shielding tolerance value as the acceptable shielding object information 223. The degree of occlusion is calculated using a composite change area 75 that is stored and superposed with the newly extracted change area 73 and the stored change area 71. By doing so, even if the shielding object does not interfere with intrusion detection by itself, a shielding abnormality signal can be output without overlooking this when a plurality overlaps and obstructs intrusion detection.
このとき遮蔽異常判定部235は、容認遮蔽物情報223に低遮蔽物領域72をも記憶させておき、新たに検出された物体領域74と記憶されている低遮蔽物領域72の重複領域76に占める合成変化領域75の割合を遮蔽度として算出する。これにより現に隙間の埋め合いが生じている領域だけで遮蔽度が算出できるので、遮蔽異常の見落としをさらに減少させることができる。 At this time, the shielding abnormality determination unit 235 stores the low shielding object region 72 in the acceptable shielding object information 223, and stores the newly detected object region 74 in the overlapping region 76 of the stored low shielding object region 72. The ratio of the combined change area 75 is calculated as the shielding degree. As a result, since the degree of shielding can be calculated only in the region where the gap is actually filled, the oversight of the shielding abnormality can be further reduced.
<外周監視システム1の動作>
画像センサー2の動作を中心に外周監視システム1の動作を説明する。
<Operation of the outer periphery monitoring system 1>
The operation of the outer periphery monitoring system 1 will be described focusing on the operation of the image sensor 2.
監視空間が無人であることを確認した管理者が画像センサー2を起動させると、撮像部21が撮像を開始し、制御部23の変化領域抽出部231は予め設定された初期化時間の間だけ撮像部21からの監視画像を平均化することにより初期の背景画像221を作成して記憶部22に記憶させる。 When an administrator who has confirmed that the monitoring space is unmanned activates the image sensor 2, the imaging unit 21 starts imaging, and the change area extraction unit 231 of the control unit 23 performs only a preset initialization time. By averaging the monitoring images from the imaging unit 21, an initial background image 221 is created and stored in the storage unit 22.
初期化時間が経過すると図8のフローチャートで示す画像監視処理が始まる。画像監視処理においては、撮像部21から制御部23に監視画像が入力されるたびにステップS10〜S18の処理が繰り返される。以下、新たな監視画像が入力された時刻を現時刻と称する。 When the initialization time elapses, the image monitoring process shown in the flowchart of FIG. 8 starts. In the image monitoring process, each time a monitoring image is input from the imaging unit 21 to the control unit 23, the processes in steps S10 to S18 are repeated. Hereinafter, the time when a new monitoring image is input is referred to as the current time.
まず制御部23は現時刻の監視画像を取得し(S10)、制御部23の変化領域抽出部231は現時刻の監視画像と背景画像221を比較して変化領域を抽出する(S11)。すなわち変化領域抽出部231は監視画像と背景画像221を差分処理して変化領域内の画素値を1、変化領域外の画素値を0に設定した差分画像を生成する。 First, the control unit 23 acquires a monitoring image at the current time (S10), and the change area extraction unit 231 of the control unit 23 compares the monitoring image at the current time with the background image 221 to extract a change area (S11). That is, the change area extraction unit 231 performs difference processing between the monitoring image and the background image 221 to generate a difference image in which the pixel value in the change area is set to 1 and the pixel value outside the change area is set to 0.
次に制御部23の物体領域検出部232は、現時刻に抽出された変化領域を基に物体領域を検出する(S12)。 Next, the object region detection unit 232 of the control unit 23 detects the object region based on the change region extracted at the current time (S12).
まず物体領域検出部232は物体枠に基づく変化領域のラベリングを行なう。すなわち物体領域検出部232は、差分画像から各変化領域の最下部座標(最大のY座標値)を求めて実空間座標系に逆透視変換し、逆透視変換した各最下部座標を底辺の各部とする実寸大の物体枠を撮像部21からの視線と垂直に設定し、設定した物体枠を透視変換して監視画像の座標系に順次設定して見かけ上の物体枠を導出し、見かけ上の各物体枠内に収まる変化領域の画素数を算出して画素数がピークとなる物体枠の設定を求める。そして物体領域検出部232は、ピークを形成した物体枠ごとに当該物体枠に収まる変化領域に同一ラベルを付与する。 First, the object area detection unit 232 labels the change area based on the object frame. That is, the object region detection unit 232 obtains the lowest coordinate (maximum Y coordinate value) of each change region from the difference image, performs inverse perspective transformation to the real space coordinate system, and converts each lowest coordinate obtained by inverse perspective transformation to each part of the base. Is set perpendicular to the line of sight from the imaging unit 21, and the set object frame is perspective-transformed and sequentially set in the coordinate system of the monitoring image to derive an apparent object frame. The number of pixels in the change area that falls within each object frame is calculated to determine the setting of the object frame that has the peak number of pixels. Then, the object area detection unit 232 assigns the same label to the change area that fits in the object frame for each object frame that forms a peak.
次に物体領域検出部232は残余の変化領域のラベリングを行なう。すなわち物体領域検出部232は、ラベル未付与の各変化領域に互いに異なるラベルを付与する。 Next, the object area detection unit 232 labels the remaining change area. In other words, the object area detection unit 232 gives different labels to each change area that has not been given a label.
続いて物体領域検出部232は、ラベルごとに当該ラベルが付与された変化領域を構成する画素のX座標、Y座標の最大値、最小値を求めてX座標最小値とY座標最小値の組及びX座標最大値とY座標最大値の組を対角2点の座標とする矩形を物体領域として検出する。また物体領域検出部232は物体領域の底辺の中点座標(足下位置に相当)を物体領域の検出位置として算出する。 Subsequently, the object region detection unit 232 obtains the maximum value and the minimum value of the X coordinate and the Y coordinate of the pixel constituting the change region to which the label is assigned for each label, and sets the X coordinate minimum value and the Y coordinate minimum value. And a rectangle having a pair of X coordinate maximum value and Y coordinate maximum value as two diagonal coordinates is detected as an object region. The object area detection unit 232 calculates the midpoint coordinates (corresponding to the foot position) of the bottom of the object area as the detection position of the object area.
検出処理を終えた物体領域検出部232は物体領域の検出結果を制御部23の物体領域追跡部233に出力する。なお、変化領域がない場合、物体領域検出部232は物体領域がない旨を物体領域追跡部233に出力する。 After the detection processing, the object region detection unit 232 outputs the detection result of the object region to the object region tracking unit 233 of the control unit 23. When there is no change area, the object area detection unit 232 outputs to the object area tracking unit 233 that there is no object area.
物体領域追跡部233は、現時刻に検出された物体領域と一時刻前に検出された物体領域との間で類似する物体領域を対応づける(S13)。そのために物体領域追跡部233は一時刻前までに検出された各物体の物体領域の検出位置及び特徴量を物体情報222として記憶部22に記憶させている。物体領域追跡部233は、現時刻に検出された各物体領域の大きさ(画素数)を求めて記憶されている各物体領域の大きさとの差を算出し、現時刻に検出された各物体領域の形状(縦横比)を求めて記憶されている各物体領域の形状との差を算出し、現時刻に検出された各物体領域の輝度ヒストグラムを求めて記憶されている各物体領域の輝度ヒストグラムとの差を算出し、記憶されている各物体領域の検出位置の履歴に現時刻の検出位置を外挿して外挿された検出位置と現時刻に検出された各物体領域の検出位置との差を算出し、物体領域の組み合わせごとにこれらの各差を予め設定された評価関数に適用して類似度を算出し、予め設定された類似度閾値を超える組み合わせを対応付ける。 The object region tracking unit 233 associates similar object regions between the object region detected at the current time and the object region detected one hour ago (S13). For this purpose, the object region tracking unit 233 stores the object region detection position and the feature amount of each object detected up to one hour ago in the storage unit 22 as object information 222. The object area tracking unit 233 obtains the size (number of pixels) of each object area detected at the current time, calculates the difference from the size of each object area stored, and calculates each object detected at the current time. Find the shape of the area (aspect ratio) and calculate the difference from the shape of each object area stored. Find the brightness histogram of each object area detected at the current time and store the brightness of each object area. Calculate the difference from the histogram, extrapolate the detection position of the current time to the history of detection positions of each object area stored, and the detection position of each object area detected at the current time For each combination of object regions, the similarity is calculated by applying each difference to a preset evaluation function, and combinations exceeding a preset similarity threshold are associated with each other.
対応付けを終えた物体領域追跡部233は、対応付け結果により物体情報222を更新する(S14)。すなわち物体領域追跡部233は、現時刻の物体領域の検出位置及び特徴量に対応付けが得られた物体情報222と同じ物体IDを付与して物体情報222に追記する。また物体領域追跡部233は、対応付けが得られなかった現時刻の物体領域を新規出現物体であるとして、当該物体領域の検出位置及び特徴量に新たな物体IDを付与して物体情報222に加える。さらに物体領域追跡部233は、対応付けが得られなかった物体情報222を消失物体であるとして、当該物体情報222を記憶部22から削除する。 After the association, the object region tracking unit 233 updates the object information 222 with the association result (S14). In other words, the object region tracking unit 233 adds the same object ID as the object information 222 obtained by associating with the detected position and feature amount of the object region at the current time and appends the object information to the object information 222. Further, the object area tracking unit 233 assumes that the object area at the current time for which the association has not been obtained is a newly appearing object, and assigns a new object ID to the detected position and feature amount of the object area to the object information 222. Add. Further, the object region tracking unit 233 determines that the object information 222 for which the association has not been obtained is a lost object, and deletes the object information 222 from the storage unit 22.
続いて物体領域追跡部233は、物体情報222を参照して各物体の検出位置からその移動距離を算出する(S15)。すなわち物体領域追跡部233は、各物体についてその検出位置を逆透視変換により実位置に変換して前後する時刻の実位置間の距離を累積して移動距離を算出する。 Subsequently, the object region tracking unit 233 refers to the object information 222 and calculates the movement distance from the detection position of each object (S15). In other words, the object region tracking unit 233 calculates the movement distance by accumulating the distance between the actual positions at the time before and after converting the detection position of each object into the actual position by inverse perspective transformation.
こうして追跡処理と移動距離算出処理が進捗すると、制御部23の侵入異常判定部234及び遮蔽異常判定部235により異常判定が行なわれる(S16)。図9を参照して異常判定処理を説明する。 When the tracking process and the movement distance calculation process progress in this way, an abnormality determination is performed by the intrusion abnormality determination unit 234 and the shielding abnormality determination unit 235 of the control unit 23 (S16). The abnormality determination process will be described with reference to FIG.
異常判定において制御部23は物体情報222に記憶されている各物体を順次注目物体に設定し、追跡中の物体についてS20〜S34のループ処理を実行する。 In the abnormality determination, the control unit 23 sequentially sets each object stored in the object information 222 as a target object, and executes the loop process of S20 to S34 for the object being tracked.
物体のループ処理において、まず侵入異常判定部234は注目物体の移動距離を静止判定閾値と比較し(S21)、移動距離が静止判定閾値未満であれば以降のステップS22〜S25をスキップする(S21にてNO→S26)。 In the object loop processing, first, the intrusion abnormality determination unit 234 compares the moving distance of the object of interest with the stationary determination threshold (S21), and skips the following steps S22 to S25 if the moving distance is less than the stationary determination threshold (S21). NO → S26).
他方、移動距離が静止判定閾値以上であれば(S21にてYES)、注目物体は侵入者の可能性があるとして、侵入異常判定部234はステップS22に処理を進める。侵入異常判定部234は注目物体の人属性値及び外乱属性値を算出してこれらの値を大小比較し(S22,S23)、人属性値が外乱属性値以上であれば注目物体は人であるとして認証信号の受信有無を確認する(S23にてYES→S24)。認証信号が受信されていなければ侵入異常判定部234は注目物体が侵入者であるとして侵入異常情報を生成して記憶部22に一時記憶させる(S24にてNO→S25)。 On the other hand, if the movement distance is equal to or greater than the stillness determination threshold (YES in S21), the intrusion abnormality determination unit 234 proceeds to step S22, assuming that the object of interest may be an intruder. The intrusion abnormality determining unit 234 calculates the human attribute value and the disturbance attribute value of the target object and compares the values (S22, S23). If the human attribute value is equal to or greater than the disturbance attribute value, the target object is a person. Is confirmed whether or not an authentication signal is received (YES in S23 → S24). If the authentication signal has not been received, the intrusion abnormality determining unit 234 generates intrusion abnormality information on the assumption that the object of interest is an intruder, and temporarily stores it in the storage unit 22 (NO in S24 → S25).
一方、人属性値が外乱属性値未満であれば注目物体は小動物等の外乱であるとして侵入異常判定部234はステップS24,S25をスキップする(S23にてNO→S26)。また認証信号を受信していれば注目物体は正規利用者であるとして侵入異常判定部234はステップS25をスキップする(S24にてYES→S26)。外乱及び正規利用者の物体領域は消失するまで追跡されることになる。 On the other hand, if the human attribute value is less than the disturbance attribute value, the intrusion abnormality determining unit 234 skips steps S24 and S25 (NO in step S23 → S26) because the object of interest is a disturbance of a small animal or the like. If the authentication signal is received, the intrusion abnormality determination unit 234 skips step S25 (YES in S24 → S26) because the object of interest is an authorized user. Disturbances and legitimate user object areas will be tracked until they disappear.
続いて遮蔽異常判定部235による注目物体の判定が行なわれる。 Subsequently, the object of interest is determined by the shielding abnormality determination unit 235.
まずステップS26,S27にて遮蔽異常判定部235は注目物体が静止物体であることを確認する。すなわち遮蔽異常判定部235は、注目物体の移動距離を静止判定閾値と比較し(S26)、移動距離が静止判定閾値以上であれば以降のステップS27〜S33をスキップする(S26にてNO→S34)。移動距離が静止判定閾値未満であれば(S26にてYES)、遮蔽異常判定部235はさらに追跡時間を静止判定時間と比較する(S27)。静止判定時間を確認するのは一時停止している移動物体を誤認しないようにするためである。静止判定時間は例えば10秒程度の時間に予め設定される。物体情報222に記憶されている注目物体の検出位置の数を追跡時間として用いることができる。追跡時間が静止判定時間未満であれば、遮蔽異常判定部235は以降のステップS28〜S33をスキップする(S27にてNO→S34)。 First, in steps S26 and S27, the shielding abnormality determination unit 235 confirms that the object of interest is a stationary object. That is, the shielding abnormality determination unit 235 compares the moving distance of the object of interest with the stationary determination threshold (S26), and skips the subsequent steps S27 to S33 if the moving distance is equal to or greater than the stationary determination threshold (NO in S26 → S34). ). If the moving distance is less than the stationary determination threshold value (YES in S26), shielding abnormality determination unit 235 further compares the tracking time with the stationary determination time (S27). The reason for confirming the stillness determination time is to prevent erroneous recognition of a moving object that is paused. The stillness determination time is set in advance to a time of about 10 seconds, for example. The number of detected positions of the target object stored in the object information 222 can be used as the tracking time. If tracking time is less than stationary determination time, shielding abnormality determination unit 235 skips subsequent steps S28 to S33 (NO in S27 to S34).
注目物体が静止物体であることが確認されると、遮蔽異常判定部235は注目物体の遮蔽度を算出する。 When it is confirmed that the target object is a stationary object, the shielding abnormality determination unit 235 calculates the degree of shielding of the target object.
すなわち遮蔽異常判定部235は、記憶部22の容認遮蔽物情報223に注目物体の物体領域と重複する低遮蔽物領域が記憶されているか否かを確認し(S28)、記憶されていればステップS11にて生成された差分画像と容認遮蔽物情報223の変化領域との論理和画像を合成変化領域として生成し(S28にてYES→S29)、注目物体の物体領域と記憶されている低遮蔽物領域との重複領域内において論理和画像の画素値が1の画素数を計数して計数結果を重複領域の画素数で除して注目物体の遮蔽度を算出する(S30)。一方、重複する低遮蔽物領域が記憶されていなければ(S28にてNO)、遮蔽異常判定部235は、合成変化領域を用いずに、注目物体の物体領域内において差分画像の画素値が1の画素数を計数して計数結果を注目物体の物体領域の画素数で除して注目物体の遮蔽度を算出する(S30)。なおステップS30において重複領域が侵入検知を妨げない程度に小さい場合は重複領域を用いずに遮蔽度を算出することもできる。この場合遮蔽異常判定部235は、重複領域の画素数が予め設定された重なり下限値(植木鉢程度の大きさに設定)より小さければ注目物体の物体領域内における論理和画像の画素値が1の画素数を計数して計数結果を注目物体の物体領域の画素数で除して注目物体の遮蔽度を算出し、重複領域の画素数が重なり下限値以上であれば上述したように重複領域内と合成変化領域とから遮蔽度を算出する。 That is, the shielding abnormality determination unit 235 checks whether or not a low shielding object region overlapping with the object region of the object of interest is stored in the acceptable shielding object information 223 of the storage unit 22 (S28). A logical sum image of the difference image generated in S11 and the change area of the acceptable occlusion object information 223 is generated as a combined change area (YES in S28 → S29), and the low occlusion stored as the object area of the object of interest. In the overlapping area with the object area, the number of pixels having a pixel value of 1 in the logical sum image is counted, and the count result is divided by the number of pixels in the overlapping area to calculate the degree of occlusion of the object of interest (S30). On the other hand, if the overlapping low occluded object region is not stored (NO in S28), the occlusion abnormality determination unit 235 uses a pixel value of 1 in the difference image within the object region of the object of interest without using the composite change region. The number of pixels is counted, and the count result is divided by the number of pixels in the object region of the target object to calculate the degree of occlusion of the target object (S30). If the overlapping area is small enough not to prevent intrusion detection in step S30, the degree of shielding can be calculated without using the overlapping area. In this case, the shielding abnormality determination unit 235 determines that the pixel value of the logical sum image in the object region of the object of interest is 1 if the number of pixels in the overlapping region is smaller than a preset overlapping lower limit value (set to the size of a flowerpot). Count the number of pixels and divide the counting result by the number of pixels in the object area of the object of interest to calculate the degree of occlusion of the object of interest. If the number of pixels in the overlap area is equal to or greater than the overlap lower limit, And the degree of occlusion is calculated from the composite change area.
続いて遮蔽異常判定部235は、算出した遮蔽度を遮蔽容認値と比較し(S31)、遮蔽度が遮蔽容認値以上であれば注目物体は侵入検知を妨げる遮蔽物であるとして遮蔽異常情報を生成して記憶部22に一時記憶させる(S31にてNO→S32)。 Subsequently, the shielding abnormality determination unit 235 compares the calculated shielding degree with the shielding tolerance value (S31), and if the shielding degree is equal to or greater than the shielding tolerance value, the shielding abnormality information is determined that the target object is a shielding object that prevents intrusion detection. Generated and temporarily stored in the storage unit 22 (NO in S31 → S32).
他方、遮蔽度が遮蔽容認値未満であれば注目物体は侵入検知を妨げない低遮蔽物であるとして、遮蔽異常判定部235はステップS32をスキップして注目物体の物体領域(低遮蔽物領域)及び変化領域の情報を新たに容認遮蔽物情報223に記憶させる(S31にてYES→S33)。 On the other hand, if the degree of occlusion is less than the occlusion tolerance value, it is assumed that the object of interest is a low occlusion object that does not prevent intrusion detection, and the occlusion abnormality determination unit 235 skips step S32 and the object area of the object of interest (low occlusion object area). And the information of a change area is newly memorize | stored in the acceptable shielding object information 223 (it is YES-> S33 in S31).
遮蔽異常判定部235がステップS32又はS33の処理を終えると、制御部23は全物体の判定が終わったか確認する(S34)。全物体の判定が終わっていなければ(S34にてNO)、制御部23はステップS20に処理を戻して次の物体の判定を開始し、全物体の判定が終わったならば(S34にてYES)、制御部23は図8のステップS17へ処理を進める。 When the shielding abnormality determination unit 235 finishes the process of step S32 or S33, the control unit 23 confirms whether the determination of all objects has been completed (S34). If determination of all objects is not completed (NO in S34), control unit 23 returns to step S20 to start determination of the next object, and determination of all objects is completed (YES in S34). ), The controller 23 advances the process to step S17 in FIG.
図8に戻り、侵入異常判定部234及び遮蔽異常判定部235は一時記憶した異常情報の有無を確認し(S17)、侵入異常情報があれば侵入異常判定部234は当該情報を通信部24に出力し、遮蔽異常情報があれば遮蔽異常判定部235は当該情報を通信部24に出力する(S17にてYES→S18)。いずれの異常情報もなければ(S17にてNO)、ステップS18はスキップされる。 Returning to FIG. 8, the intrusion abnormality determining unit 234 and the shielding abnormality determining unit 235 confirm the presence / absence of temporarily stored abnormality information (S17). If there is intrusion abnormality information, the intrusion abnormality determining unit 234 sends the information to the communication unit 24. If there is shielding abnormality information, shielding abnormality determination unit 235 outputs the information to communication unit 24 (YES in S17 → S18). If there is no abnormality information (NO in S17), step S18 is skipped.
続いて変化領域抽出部231は監視画像を用いて背景画像221を更新する(S19)。すなわち変化領域抽出部231は、監視画像から現時刻にて物体領域が検出されなかった領域を切り出して切り出した画像と背景画像221とをα:(1−α)の割合で重み付け加算して背景画像221を更新し、さらに現時刻にて低遮蔽物領域と判定された領域があれば監視画像から当該領域を切り出して、背景画像221における対応部分を切り出した画像で置換して背景画像221を更新する。ただしαは、0<α<1の範囲で予め設定された値である。 Subsequently, the change area extraction unit 231 updates the background image 221 using the monitoring image (S19). That is, the change area extraction unit 231 weights and adds the image obtained by cutting out the area in which the object area was not detected at the current time from the monitoring image and the background image 221 at a ratio of α: (1-α). The image 221 is updated, and if there is an area determined to be a low shielding object area at the current time, the area is cut out from the monitoring image, and the corresponding portion in the background image 221 is replaced with the cut out image to replace the background image 221. Update. However, α is a preset value in the range of 0 <α <1.
以上の処理を終えると、処理はステップS10へ戻され、次時刻の監視画像に対する処理が行われる。
When the above process is completed, the process returns to step S10, and the process for the monitoring image at the next time is performed.
1・・・外周監視システム
2・・・画像センサー
3・・・認証装置
4・・・携帯端末
5・・・コントローラー
6・・・センター装置
21・・・撮像部
22・・・記憶部
221・・・背景画像
222・・・物体情報
223・・・容認遮蔽物情報
224・・・カメラパラメーター
23・・・制御部
231・・・変化領域抽出部
232・・・物体領域検出部
233・・・物体領域追跡部
234・・・侵入異常判定部
235・・・遮蔽異常判定部
24・・・通信部
DESCRIPTION OF SYMBOLS 1 ... Perimeter monitoring system 2 ... Image sensor 3 ... Authentication apparatus 4 ... Portable terminal 5 ... Controller 6 ... Center apparatus 21 ... Imaging part 22 ... Memory | storage part 221. ..Background image 222... Object information 223... Acceptable shielding object information 224... Camera parameter 23... Control section 231... Change area extraction section 232. Object region tracking unit 234 ... intrusion abnormality determination unit 235 ... shielding abnormality determination unit 24 ... communication unit
Claims (5)
前記監視空間を順次撮像する撮像部と、
背景画像を記憶する記憶部と、
前記撮像された監視画像を前記背景画像と比較して変化領域を抽出する変化領域抽出部と、
前記変化領域の外形を所定図形にて近似して物体領域を検出する物体領域検出部と、
前後する時刻に検出された前記物体領域のうち特徴が互いに類似する物体領域を対応付け、対応付けた物体領域の検出位置から移動距離を算出する移動距離算出部と、
前記物体領域の前記移動距離を予め設定された静止判定値と比較するとともに当該物体領域に占める前記変化領域の割合を算出して予め設定された遮蔽容認値と比較し、前記移動距離が前記静止判定値未満且つ前記割合が前記遮蔽容認値以上であるときに前記侵入者の検知を妨げる遮蔽物があると判定する遮蔽異常判定部と、
を備えたことを特徴とする画像監視装置。 In an image monitoring device that detects an intruder using an image of a monitoring space,
An imaging unit that sequentially images the monitoring space;
A storage unit for storing a background image;
A change area extraction unit that extracts a change area by comparing the captured monitoring image with the background image;
An object region detection unit for detecting an object region by approximating the outer shape of the change region with a predetermined figure;
A movement distance calculation unit that associates object areas having similar characteristics to each other among the object areas detected at the time before and after, and calculates a movement distance from a detection position of the associated object area;
The moving distance of the object area is compared with a preset stationary determination value, and the ratio of the changed area to the object area is calculated and compared with a preset shielding tolerance value. A shielding abnormality determination unit that determines that there is a shielding object that prevents detection of the intruder when the ratio is less than the determination value and the ratio is equal to or greater than the shielding tolerance value;
An image monitoring apparatus comprising:
前記物体領域検出部は、予め設定された許容範囲内で互いに近接して検出された複数の前記変化領域があるときは当該複数の変化領域のまとまりに対して前記物体領域を検出する画像監視装置。 The image monitoring apparatus according to claim 1,
When there are a plurality of the change areas detected in proximity to each other within a preset allowable range, the object area detection unit detects the object area with respect to a group of the plurality of change areas. .
前記遮蔽異常判定部は、前記移動距離が前記静止判定値未満且つ前記割合が前記遮蔽容認値未満である物体領域を前記侵入者の検知を妨げない低遮蔽物領域と判定し、
前記変化領域抽出部は、前記低遮蔽物領域内の前記背景画像を前記監視画像にて置換する画像監視装置。 The image monitoring apparatus according to claim 1 or 2,
The shielding abnormality determination unit determines that the object area in which the moving distance is less than the stationary determination value and the ratio is less than the shielding tolerance value is a low shielding object area that does not hinder the detection of the intruder,
The change area extraction unit is an image monitoring apparatus that replaces the background image in the low shielding object area with the monitoring image.
前記遮蔽異常判定部は、前記低遮蔽物領域にて抽出された前記変化領域を前記記憶部に記憶させ、当該記憶後に抽出される前記変化領域と前記記憶された変化領域を合わせた合成変化領域を用いて前記割合を算出する画像監視装置。 The image monitoring apparatus according to claim 3.
The shielding abnormality determination unit stores the change region extracted in the low shielding object region in the storage unit, and combines the change region extracted after the storage and the stored change region. An image monitoring apparatus that calculates the ratio using a computer.
前記遮蔽異常判定部は、前記低遮蔽物領域を前記記憶部に記憶させ、当該記憶後に検出される前記物体領域と前記記憶された低遮蔽物領域の重複領域に占める前記合成変化領域の割合を算出して前記遮蔽物の判定を行なう画像監視装置。
The image monitoring apparatus according to claim 4,
The shielding abnormality determination unit stores the low shielding object region in the storage unit, and calculates a ratio of the composite change region in an overlap region of the object region and the stored low shielding object region detected after the storage. An image monitoring apparatus for calculating and determining the shielding object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011075702A JP5606979B2 (en) | 2011-03-30 | 2011-03-30 | Image monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011075702A JP5606979B2 (en) | 2011-03-30 | 2011-03-30 | Image monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012208878A true JP2012208878A (en) | 2012-10-25 |
JP5606979B2 JP5606979B2 (en) | 2014-10-15 |
Family
ID=47188516
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011075702A Active JP5606979B2 (en) | 2011-03-30 | 2011-03-30 | Image monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5606979B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014229210A (en) * | 2013-05-24 | 2014-12-08 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP2020010340A (en) * | 2015-03-23 | 2020-01-16 | 日本電気株式会社 | Monitoring device, monitoring system, monitoring method, and program |
CN111343418A (en) * | 2018-12-19 | 2020-06-26 | 发那科株式会社 | Object monitoring system with distance measuring device |
CN117596386A (en) * | 2023-12-06 | 2024-02-23 | 中云数科(广州)信息科技有限公司 | Intelligent building safety monitoring system |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104978751B (en) * | 2015-06-16 | 2017-10-31 | 电子科技大学 | Detection method of crossing the border based on camera angle |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10285586A (en) * | 1997-04-02 | 1998-10-23 | Omron Corp | Image processor, monitoring image display system, image processing method and monitoring image display method |
JP2001008189A (en) * | 1999-04-23 | 2001-01-12 | Hitachi Ltd | Mobile object monitoring device |
JP2007079659A (en) * | 2005-09-12 | 2007-03-29 | Nec Engineering Ltd | Monitoring device |
JP2010237872A (en) * | 2009-03-30 | 2010-10-21 | Sogo Keibi Hosho Co Ltd | Device, method and program for detecting person area |
-
2011
- 2011-03-30 JP JP2011075702A patent/JP5606979B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10285586A (en) * | 1997-04-02 | 1998-10-23 | Omron Corp | Image processor, monitoring image display system, image processing method and monitoring image display method |
JP2001008189A (en) * | 1999-04-23 | 2001-01-12 | Hitachi Ltd | Mobile object monitoring device |
JP2007079659A (en) * | 2005-09-12 | 2007-03-29 | Nec Engineering Ltd | Monitoring device |
JP2010237872A (en) * | 2009-03-30 | 2010-10-21 | Sogo Keibi Hosho Co Ltd | Device, method and program for detecting person area |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014229210A (en) * | 2013-05-24 | 2014-12-08 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP2020010340A (en) * | 2015-03-23 | 2020-01-16 | 日本電気株式会社 | Monitoring device, monitoring system, monitoring method, and program |
US10957052B2 (en) | 2015-03-23 | 2021-03-23 | Nec Corporation | Monitoring apparatus, monitoring system, monitoring method, and computer-readable storage medium |
CN111343418A (en) * | 2018-12-19 | 2020-06-26 | 发那科株式会社 | Object monitoring system with distance measuring device |
CN111343418B (en) * | 2018-12-19 | 2024-05-07 | 发那科株式会社 | Object monitoring system with distance measuring device |
CN117596386A (en) * | 2023-12-06 | 2024-02-23 | 中云数科(广州)信息科技有限公司 | Intelligent building safety monitoring system |
CN117596386B (en) * | 2023-12-06 | 2024-05-24 | 中云数科(广州)信息科技有限公司 | Intelligent building safety monitoring system |
Also Published As
Publication number | Publication date |
---|---|
JP5606979B2 (en) | 2014-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108629791B (en) | Pedestrian tracking method and device and cross-camera pedestrian tracking method and device | |
US10282617B2 (en) | Methods and systems for performing sleeping object detection and tracking in video analytics | |
CN109076198B (en) | Video-based object tracking occlusion detection system, method and equipment | |
US10878578B2 (en) | Exclusion zone in video analytics | |
US20190130189A1 (en) | Suppressing duplicated bounding boxes from object detection in a video analytics system | |
US10713798B2 (en) | Low-complexity motion detection based on image edges | |
US10402987B2 (en) | Methods and systems of determining object status for false positive removal in object tracking for video analytics | |
US20180047193A1 (en) | Adaptive bounding box merge method in blob analysis for video analytics | |
US10229503B2 (en) | Methods and systems for splitting merged objects in detected blobs for video analytics | |
US10223590B2 (en) | Methods and systems of performing adaptive morphology operations in video analytics | |
JPWO2017221643A1 (en) | Image processing apparatus, image processing system, image processing method, and program | |
JP5606979B2 (en) | Image monitoring device | |
JP2010206405A (en) | Image monitoring device | |
JP6579950B2 (en) | Image analysis apparatus, program, and method for detecting person appearing in captured image of camera | |
US20200134319A1 (en) | Image-based detection of offside in gameplay | |
JPWO2017221644A1 (en) | Image processing apparatus, image processing system, image processing method, and program | |
KR101840042B1 (en) | Multi-Imaginary Fence Line Setting Method and Trespassing Sensing System | |
JP5147760B2 (en) | Image monitoring device | |
KR101454644B1 (en) | Loitering Detection Using a Pedestrian Tracker | |
KR102128319B1 (en) | Method and Apparatus for Playing Video by Using Pan-Tilt-Zoom Camera | |
JP5758165B2 (en) | Article detection device and stationary person detection device | |
JP2019036213A (en) | Image processing device | |
JP5950628B2 (en) | Object detection apparatus, object detection method, and program | |
JP5142416B2 (en) | Object detection device | |
JP5865584B2 (en) | Specific person detection system and detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140812 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140819 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140827 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5606979 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |