JP2020167508A - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP2020167508A
JP2020167508A JP2019065873A JP2019065873A JP2020167508A JP 2020167508 A JP2020167508 A JP 2020167508A JP 2019065873 A JP2019065873 A JP 2019065873A JP 2019065873 A JP2019065873 A JP 2019065873A JP 2020167508 A JP2020167508 A JP 2020167508A
Authority
JP
Japan
Prior art keywords
image
region
determination period
image processing
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019065873A
Other languages
Japanese (ja)
Other versions
JP7195204B2 (en
Inventor
山口 純
Jun Yamaguchi
純 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2019065873A priority Critical patent/JP7195204B2/en
Publication of JP2020167508A publication Critical patent/JP2020167508A/en
Application granted granted Critical
Publication of JP7195204B2 publication Critical patent/JP7195204B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To suppress that an image region obtained by photographing a mobile body as a detection object such as a person is mistakenly determined as a stable region, and set a stable region 42 with high accuracy.SOLUTION: An image processing apparatus 22 detects a mobile body region indicating an image region of a mobile body from a prescribed object image among photographing images 46 obtained by sequentially photographing a prescribed space by a photographing device 32, and comprises stable region determination means 54 that compares a first difference region extracted by comparing the object image with a background image 44 obtained by photographing a background of the prescribed space with a second difference region extracted by comparing the object image with the photographing image 46 obtained by photographing before or after the object image, and sets the image region in which the second difference region is not extracted and the first difference region is extracted in a determination period as a stable region 42, which is not detected as a mobile body region. In the image processing apparatus 22, the determination period is set to a length different in accordance with a position on the photographing image 46.SELECTED DRAWING: Figure 2

Description

本発明は、カメラの設置状況に応じて移動体を検出するための判定期間を設定する画像処理装置及び画像処理プログラムに関する。 The present invention relates to an image processing device and an image processing program that set a determination period for detecting a moving object according to the installation status of a camera.

所定空間を監視する画像処理装置では、記憶した背景画像を時間経過とともに随時更新する処理が行われている(特許文献1)。しかしながら、背景画像の更新間隔が長いと、ドアの開閉や蛍光灯の点消灯等のように検出対象である人物以外の要因によって生じた変化領域を抽出したままとなり、その変化領域が人と同サイズの場合等において人以外のものを人と誤判定してしまうおそれがある。そのため、背景差分で抽出された変化領域であっても、背景画像の更新間隔よりも短い判定期間において移動のない画像領域(フレーム間差分画像において抽出されない画像領域)は移動体領域とみなさない安定領域と判定し、その安定領域では変化領域が抽出されてもその領域を移動体の検出処理から除外することが考えられる。 An image processing device that monitors a predetermined space performs a process of updating a stored background image at any time with the passage of time (Patent Document 1). However, if the background image update interval is long, the change area caused by factors other than the person to be detected, such as opening and closing the door and turning on and off the fluorescent lamp, remains extracted, and the change area is the same as that of the person. In the case of size, there is a risk that something other than a person will be mistaken for a person. Therefore, even if the change area is extracted by background subtraction, the image area that does not move in the judgment period shorter than the update interval of the background image (the image area that is not extracted in the interframe difference image) is not regarded as the moving body area and is stable. It is conceivable that the region is determined to be a region, and even if a change region is extracted in the stable region, that region is excluded from the moving object detection process.

特開2005−46811号公報Japanese Unexamined Patent Publication No. 2005-46811

しかしながら、監視空間を撮影するためのカメラの設置状況によって検出対象となる人等の移動体が写された画像領域を安定領域として誤判定してしまう問題がある。例えば、カメラの鉛直下方に伸ばした線から放射線上を移動する移動体が存在すると、実際には移動しているが撮影画像上では移動しておらず静止しているように写され、安定領域と誤判定されてしまうおそれがある。 However, there is a problem that the image area in which a moving object such as a person to be detected is captured is erroneously determined as a stable area depending on the installation condition of the camera for photographing the surveillance space. For example, if there is a moving object that moves on the radiation from a line extending vertically below the camera, it will appear to be stationary on the captured image, although it is actually moving, and it will appear as a stable area. May be misjudged.

本発明は、人等の移動体が写された画像領域を誤って安定領域と判定してしまうことを防止すると共に、移動体以外による変化領域を精度良く安定領域と判定することを目的とする。 An object of the present invention is to prevent an image region in which a moving object such as a person is captured from being mistakenly determined as a stable region, and to accurately determine a change region other than the moving object as a stable region. ..

本発明の1つの態様は、撮影装置により所定空間を順次撮影した撮影画像のうち所定の対象画像から移動体の画像領域を示す移動体領域を検出する画像処理装置であって、前記対象画像と前記所定空間の背景を撮影した背景画像とを比較して抽出された第1差分領域、及び、前記対象画像と前記対象画像の前又は後に撮影された前記撮影画像とを比較して抽出された第2差分領域、を比較し、判定期間において前記第2差分領域は抽出されず前記第1差分領域が抽出された画像領域を前記移動体領域として検出しない安定領域として設定する画像処理手段を備え、前記判定期間は、前記撮影画像上の位置に応じて異なる長さに設定されることを特徴とする画像処理装置である。 One aspect of the present invention is an image processing device that detects a moving body region indicating an image region of a moving body from a predetermined target image among captured images in which a predetermined space is sequentially photographed by the photographing device, and the target image The first difference region extracted by comparing the background image of the predetermined space with the background image, and the target image and the captured image taken before or after the target image were compared and extracted. An image processing means for comparing the second difference region and setting the image region in which the second difference region is not extracted during the determination period and the extracted first difference region is not detected as the moving body region is provided. The image processing apparatus is characterized in that the determination period is set to a different length depending on the position on the captured image.

本発明の別の態様は、撮影装置により所定空間を順次撮影した撮影画像のうち所定の対象画像から移動体の画像領域を示す移動体領域を検出する画像処理プログラムであって、コンピュータを、前記対象画像と前記所定空間の背景を撮影した背景画像とを比較して抽出された第1差分領域、及び、前記対象画像と前記対象画像の前又は後に撮影された前記撮影画像とを比較して抽出された第2差分領域、を比較し、判定期間において前記第2差分領域は抽出されず前記第1差分領域が抽出された画像領域を前記移動体領域として検出しない安定領域として設定する画像処理手段として機能させ、前記判定期間は、前記撮影画像上の位置に応じて異なる長さに設定されることを特徴とする画像処理プログラムである。 Another aspect of the present invention is an image processing program that detects a moving body region indicating an image region of a moving body from a predetermined target image among captured images in which a predetermined space is sequentially captured by a photographing device, wherein the computer is used. The first difference region extracted by comparing the target image with the background image obtained by capturing the background of the predetermined space, and the captured image captured before or after the target image are compared with each other. Image processing that compares the extracted second difference regions and sets the image region in which the second difference region is not extracted and the first difference region is extracted as a stable region that is not detected as the moving body region during the determination period. It is an image processing program that functions as a means and is characterized in that the determination period is set to a different length depending on the position on the captured image.

ここで、前記判定期間は、前記撮影画像における消失点に近い位置ほど長く設定されることが好適である。 Here, it is preferable that the determination period is set longer as the position closer to the vanishing point in the captured image.

また、前記判定期間は、前記撮影装置の設置高が前記移動体の高さに応じた基準値よりも高い場合、前記設置高が前記基準値の場合より、短く設定されることが好適である。 Further, it is preferable that the determination period is set shorter when the installation height of the photographing device is higher than the reference value corresponding to the height of the moving body and when the installation height is higher than the reference value. ..

また、前記判定期間は、前記撮影装置の俯角が小さいほど長く設定されることが好適である。 Further, it is preferable that the determination period is set longer as the depression angle of the photographing apparatus is smaller.

また、前記撮影装置の設置高に基づいて、前記撮影画像全体を床面と仮定して前記撮影装置の光学中心から当該撮影画像の各領域又は各画素に対応する前記床面の位置までの距離を算出し、当該距離が大きい領域又は画素ほど長い前記判定期間を設定することが好適である。 Further, based on the installation height of the photographing device, assuming that the entire photographed image is a floor surface, the distance from the optical center of the photographing device to the position of the floor surface corresponding to each region or each pixel of the photographed image. It is preferable to calculate and set the determination period, which is longer for a region or a pixel having a larger distance.

本発明によれば、人等の移動体が写された画像領域を誤って安定領域と判定してしまうことを防止すると共に、移動体以外による変化領域を精度良く安定領域と判定することができる。 According to the present invention, it is possible to prevent an image region in which a moving object such as a person is captured from being mistakenly determined as a stable region, and to accurately determine a change region other than the moving object as a stable region. ..

本発明の実施の形態における警備システムの構成概略図である。It is a structural schematic diagram of the security system in embodiment of this invention. 本発明の実施の形態における画像処理装置の構成概略図である。It is a structural schematic diagram of the image processing apparatus in embodiment of this invention. 本発明の実施の形態における撮影部の設置状況について説明する図である。It is a figure explaining the installation state of the photographing part in embodiment of this invention. 本発明の実施の形態における判定期間の設定処理を説明する図である。It is a figure explaining the setting process of the determination period in embodiment of this invention. 本発明の実施の形態における第1差分領域の抽出処理を説明する図である。It is a figure explaining the extraction process of the 1st difference region in embodiment of this invention. 本発明の実施の形態における安定領域の設定処理を説明する図である。It is a figure explaining the setting process of the stable region in embodiment of this invention. 本発明の実施の形態における判定期間設定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the determination period setting process in embodiment of this invention. 本発明の実施の形態における侵入者判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the intruder determination process in embodiment of this invention.

以下、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described.

図1は、本実施形態に係る警備システム10の構成概略図である。警備システム10は、店舗、オフィス、マンション、倉庫、家屋などの各監視対象物件12に設置される警備装置14、公衆電話回線などの通信網16を介して各警備装置14と接続される警備センタ装置18、及び利用者装置20とを含んで構成される。さらに、警備システム10は、監視対象物件12の監視領域を撮影した監視画像に基づいて監視対象物件12の異常を検出するための1以上の画像処理装置としての画像処理装置22、及び、画像処理装置22により撮影された監視画像を記録する録画装置24を含んで構成される。画像処理装置22及び録画装置24は警備装置14と通信可能に接続される。 FIG. 1 is a schematic configuration diagram of the security system 10 according to the present embodiment. The security system 10 is a security center connected to each security device 14 via a security device 14 installed in each monitored property 12 such as a store, office, condominium, warehouse, or house, and a communication network 16 such as a public telephone line. The device 18 and the user device 20 are included. Further, the security system 10 includes an image processing device 22 as one or more image processing devices for detecting an abnormality in the monitored property 12 based on a monitored image obtained by photographing the monitored area of the monitored property 12, and image processing. It includes a recording device 24 for recording a surveillance image taken by the device 22. The image processing device 22 and the recording device 24 are communicably connected to the security device 14.

警備装置14は、構内LANなどを介してそれ自体に接続された画像処理装置22からアラーム信号を受信すると、そのアラーム信号及び警備装置14自体の識別信号、又は、監視対象物件12あるいは異常を検出した画像処理装置22の識別信号を警備センタ装置18へ送信する。そのために、警備装置14は、画像処理装置22と通信するための通信インターフェースと、警備センタ装置18及び利用者装置20と通信するための通信インターフェースと、それらを制御するための制御ユニットを有する。 When the security device 14 receives an alarm signal from the image processing device 22 connected to itself via the premises LAN or the like, the security device 14 detects the alarm signal, the identification signal of the security device 14 itself, the monitored property 12, or an abnormality. The identification signal of the image processing device 22 is transmitted to the security center device 18. Therefore, the security device 14 has a communication interface for communicating with the image processing device 22, a communication interface for communicating with the security center device 18 and the user device 20, and a control unit for controlling them.

警備センタ装置18は、いわゆるコンピュータで構成され、通信網16を介して警備装置14と通信するための通信インターフェースと、液晶ディスプレイなどの表示装置と、ブザーやLEDなどで構成される報知部を備える。警備センタ装置18は、警備装置14から通信網16を介してアラーム信号を受信すると、そのアラーム信号を送信した警備装置14が設置された監視対象物件12及び検出された異常の内容を報知部及び表示装置を通じて監視員に報知する。 The security center device 18 is composed of a so-called computer, and includes a communication interface for communicating with the security device 14 via the communication network 16, a display device such as a liquid crystal display, and a notification unit composed of a buzzer, an LED, or the like. .. When the security center device 18 receives an alarm signal from the security device 14 via the communication network 16, the security center device 18 notifies the monitored property 12 in which the security device 14 that has transmitted the alarm signal is installed and the content of the detected abnormality. Notify the observer through the display device.

利用者装置20も、いわゆるコンピュータで構成され、通信網16を介して警備装置14と通信するための通信インターフェース、液晶ディスプレイなどの表示装置、及び、キーボードやマウスなど、警備装置14を遠隔操作するための操作コマンドを入力するためのユーザインターフェースを備える。利用者装置20は、ユーザインターフェースを介して予め登録されている監視対象物件12を観察する操作がなされると、登録されている監視対象物件12に設置された警備装置14に対して、現在撮影中の監視画像又は録画装置24に記録されている監視画像を利用者装置20に送信することを要求する各種の画像要求信号を送信する。そして、警備装置14から監視画像を受信すると、利用者装置20は要求された監視画像を表示装置に表示する。 The user device 20 is also composed of a so-called computer, and remotely operates the security device 14 such as a communication interface for communicating with the security device 14 via the communication network 16, a display device such as a liquid crystal display, and a keyboard and a mouse. It has a user interface for inputting operation commands for. When the user device 20 observes the pre-registered monitored property 12 via the user interface, the user device 20 currently photographs the security device 14 installed in the registered monitored property 12. Various image request signals requesting that the surveillance image inside or the surveillance image recorded in the recording device 24 be transmitted to the user device 20 are transmitted. Then, when the surveillance image is received from the security device 14, the user device 20 displays the requested surveillance image on the display device.

録画装置24は、HDDなどの磁気ディスク装置、DATなどの磁気テープ、DVD−RAMなどの光記録媒体のように、録画装置24に着脱自在となる記録媒体と、それら記録媒体にアクセスしてデータの読み書きを行う装置で構成される。録画装置24は、画像処理装置22が撮影した監視画像を警備装置14から受け取り、撮影時刻と関連付けて記録する。 The recording device 24 is a recording medium that can be attached to and detached from the recording device 24, such as a magnetic disk device such as an HDD, a magnetic tape such as a DAT, and an optical recording medium such as a DVD-RAM, and data by accessing the recording medium. It consists of a device that reads and writes. The recording device 24 receives the surveillance image taken by the image processing device 22 from the security device 14 and records it in association with the shooting time.

図2は、画像処理装置22の構成概略図である。 FIG. 2 is a schematic configuration diagram of the image processing device 22.

通信部30は、画像処理装置22と警備装置14との間で構内LANなどの通信ネットワークを介して各種の設定信号及び制御信号などを送受信する入出力インターフェースであり、イーサネット(登録商標)などの各種の通信インターフェース回路及びそれらを駆動するドライバソフトウェアなどで構成される。具体的には、通信部30は、後述の制御部38によって侵入者が検出された場合に、侵入者を検出したことを示す侵入アラーム信号を警備装置14に出力する。 The communication unit 30 is an input / output interface for transmitting and receiving various setting signals and control signals between the image processing device 22 and the security device 14 via a communication network such as a premises LAN, and is an input / output interface such as Ethernet (registered trademark). It consists of various communication interface circuits and driver software that drives them. Specifically, when an intruder is detected by the control unit 38 described later, the communication unit 30 outputs an intrusion alarm signal indicating that the intruder has been detected to the security device 14.

撮影部32は、CCDなどの、可視光などに感度を有する光電変換器で構成された2次元検出器と、その2次元検出器上に監視領域の像を結像する結像光学系などで構成される。撮影部32は、監視領域を撮影することによって撮影画像を取得する。本実施形態では撮影部32は、一定の時間間隔(例えば1/5秒)ごとに撮影を行うが、撮影部32の撮影方法はこれには限られない。取得された撮影画像46は記憶部34に記憶される。 The photographing unit 32 includes a two-dimensional detector composed of a photoelectric converter having sensitivity to visible light such as a CCD, and an imaging optical system that forms an image of a monitoring area on the two-dimensional detector. It is composed. The photographing unit 32 acquires a photographed image by photographing the monitoring area. In the present embodiment, the photographing unit 32 photographs at regular time intervals (for example, 1/5 second), but the photographing method of the photographing unit 32 is not limited to this. The acquired captured image 46 is stored in the storage unit 34.

監視領域に侵入者が存在する場合、撮影部32が取得した撮影画像46には、当該人物(侵入者)に相当する人領域が含まれることとなる。 When an intruder exists in the monitoring area, the captured image 46 acquired by the photographing unit 32 includes a person area corresponding to the person (intruder).

記憶部34は、半導体メモリ、磁気ディスク(HDD)、又はCD−ROM、DVD−RAMなどの光ディスクドライブ及びその記録媒体で構成される、記憶手段である。記憶部34には、画像処理装置22の各部を動作させるための画像処理プログラムが記憶される。また、図2に示される通り、記憶部34には、撮影部32の設置状況40、安定領域42、背景画像44及び撮影画像46が記憶される。これによって、記憶部34は、設置状況40を記憶する設置状況記憶手段、安定領域42を記憶する安定領域記憶手段、背景画像44を記憶する背景画像記憶手段、撮影画像46を記憶する撮影画像記憶手段として機能する。 The storage unit 34 is a storage unit composed of a semiconductor memory, a magnetic disk (HDD), an optical disk drive such as a CD-ROM or a DVD-RAM, and a recording medium thereof. The storage unit 34 stores an image processing program for operating each part of the image processing device 22. Further, as shown in FIG. 2, the storage unit 34 stores the installation status 40 of the photographing unit 32, the stable area 42, the background image 44, and the captured image 46. As a result, the storage unit 34 stores the installation status storage means for storing the installation status 40, the stable area storage means for storing the stable area 42, the background image storage means for storing the background image 44, and the captured image storage for storing the captured image 46. Functions as a means.

設置状況40は、撮影部32が設置されている状況を示す情報である。例えば、画像処理装置22を設置する作業員は、図3に示すように撮影部32が設置されている設置高H及び俯角θを計測し、設置高H及び俯角θを画像処理装置22に入力して設置状況40として記憶部34に記憶させる。また、俯角θ及び設置高Hは、自動計測によって取得するようにしてもよい。例えば、距離センサ等のセンサを使用して俯角θ及び設置高Hを計測してもよい。設置高Hは、例えば、床面から画像処理装置22までの高さを示し、俯角θは、例えば、水平面と画像処理装置22の光軸との傾き(画像処理装置22の垂直方向の角度情報)を示す。 The installation status 40 is information indicating a status in which the photographing unit 32 is installed. For example, a worker who installs the image processing device 22 measures the installation height H and the depression angle θ in which the photographing unit 32 is installed as shown in FIG. 3, and inputs the installation height H and the depression angle θ to the image processing device 22. Then, it is stored in the storage unit 34 as the installation status 40. Further, the depression angle θ and the installation height H may be acquired by automatic measurement. For example, a sensor such as a distance sensor may be used to measure the depression angle θ and the installation height H. The installation height H indicates, for example, the height from the floor surface to the image processing device 22, and the depression angle θ is, for example, the inclination of the horizontal plane and the optical axis of the image processing device 22 (angle information in the vertical direction of the image processing device 22). ) Is shown.

安定領域42は、後述する安定領域判定手段54において検出対象である人が存在しないと判定された画像領域を示す。背景画像44は、撮影画像46との背景差分を行うための基準となる画像であって、監視領域内に人物が存在していないときの撮影画像46に基づいて制御部38により作成される。背景画像44は1枚であってもよいが、複数枚の背景画像44が作成されてもよい。 The stable region 42 indicates an image region in which a person to be detected is determined not to exist by the stable region determining means 54 described later. The background image 44 is an image that serves as a reference for performing background subtraction with the captured image 46, and is created by the control unit 38 based on the captured image 46 when no person exists in the monitoring area. The background image 44 may be one, but a plurality of background images 44 may be created.

制御部38は、組み込み型のマイクロプロセッサユニットと、ROM、RAMなどのメモリと、その周辺回路とを有し、画像処理装置22の各種信号処理を実行する。図2に示されるように、制御部38は、判定期間設定手段50、抽出手段52、安定領域判定手段54、人判定手段56及び背景画像更新手段58としての機能を発揮する。制御部38がこれらの手段を発揮することで、撮影画像46において検出対象物である人に相当する画像領域である人領域が検出される。以下、制御部38が有する各手段について説明する。 The control unit 38 has a built-in microprocessor unit, memories such as ROM and RAM, and peripheral circuits thereof, and executes various signal processing of the image processing device 22. As shown in FIG. 2, the control unit 38 exerts functions as a determination period setting means 50, an extraction means 52, a stable area determination means 54, a person determination means 56, and a background image update means 58. When the control unit 38 exerts these means, the human area, which is an image area corresponding to the person to be detected, is detected in the captured image 46. Hereinafter, each means included in the control unit 38 will be described.

判定期間設定手段50は、設置状況40に基づいて安定領域42と判定するための判定期間を設定する処理を行い、撮影画像上の位置に応じて設定される判定期間を異ならせる。制御部38は、記憶部34に予め記憶された設置状況40を読み出し、撮影部32によって撮影された撮影画像全体を床面と仮定して、撮影部32の設置高H及び俯角θから撮影部32の光学中心と床面との距離Lを画素毎に算出する。例えば、逆透視変換を用いて設置高、俯角、画角とから距離Lを算出する。撮影部32と床面との距離Lの算出方法は、特に限定されるものではなく、公知の方法を適用することができる。そして、設置状況40の設置高H及び俯角θと算出された撮影部32の光学中心と床面との距離Lから撮影画像46の画素毎に安定領域と判定するための判定期間を設定する。このとき、俯角θが小さいほど判定期間を長く設定する。また、設置高Hが検出対象物の高さに応じた基準値に近づくほど判定期間を長く設定する。検出対象物の高さに応じた基準値は、検出対象物が人であれば人の身長程度の値とし、例えば200cmに設定すればよい。また、撮影部32と仮定した床面との距離Lが離れるほど判定期間を長く設定する。なお、設置高は通常、検出対象物よりも低い高さに設置されることはないが、低く設置された場合は、判定期間を設定する際、基準値で設置されたものとみなしてもよい。なお、判定期間は、画素毎ではなく、画像領域毎に設定しても良い。 The determination period setting means 50 performs a process of setting a determination period for determining the stable area 42 based on the installation status 40, and makes the determination period set different according to the position on the captured image. The control unit 38 reads out the installation status 40 stored in advance in the storage unit 34, assumes that the entire captured image captured by the photographing unit 32 is the floor surface, and starts from the installation height H and the depression angle θ of the photographing unit 32. The distance L between the optical center of 32 and the floor surface is calculated for each pixel. For example, the distance L is calculated from the installation height, depression angle, and angle of view using the reverse perspective transformation. The method for calculating the distance L between the photographing unit 32 and the floor surface is not particularly limited, and a known method can be applied. Then, a determination period for determining a stable region is set for each pixel of the captured image 46 from the installation height H of the installation status 40 and the calculated distance L between the optical center of the photographing unit 32 and the floor surface as the depression angle θ. At this time, the smaller the depression angle θ, the longer the determination period is set. Further, the determination period is set longer as the installation height H approaches the reference value according to the height of the detection object. If the object to be detected is a person, the reference value according to the height of the object to be detected may be a value of about the height of the person, and may be set to, for example, 200 cm. Further, the determination period is set longer as the distance L from the floor surface assumed to be the photographing unit 32 increases. In addition, the installation height is usually not installed at a height lower than the detection target, but if it is installed lower, it may be considered that it is installed at the reference value when setting the judgment period. .. The determination period may be set not for each pixel but for each image area.

例えば、数式(1)に基づいて判定期間を設定する。本実施の形態では、判定期間は、10フレームを基準として、各画素に俯角θ、設置高H及び距離Lに基づいて設定される係数Wに応じた調整値を加えた値に設定する。

判定期間=10[フレーム]+10[フレーム]×係数W・・・(1)
For example, the determination period is set based on the mathematical formula (1). In the present embodiment, the determination period is set to a value obtained by adding an adjustment value according to the coefficient W set based on the depression angle θ, the installation height H, and the distance L to each pixel with reference to 10 frames.

Judgment period = 10 [frame] + 10 [frame] x coefficient W ... (1)

ここで、係数Wは、俯角θに応じた係数X、設置高Hに応じた係数Y及び撮影部32と床面との距離Lに応じた係数Zに基づいて算出される。例えば、係数Xは、俯角θが36°〜45°の範囲を1〜0の数値に変換した値とする。具体的には、例えば、係数Xは、俯角θが36°未満であれば1とし、45°より大きければ0とし、36°以上45°以下の範囲において1から0に減少する値とする。また、例えば、係数Yは、設置高Hが200cm〜350cmの範囲を1〜0の数値に変換した値とする。具体的には、例えば、係数Yは、設置高Hが200cm未満であれば1、350cmより大きければ0とし、200cm以上350cm以下の範囲において1から0に減少する値とする。また、例えば、係数Zは、撮影部32と床面との距離Lが500cm〜1000cmの範囲を0〜1に変換した値とする。具体的には、例えば、係数Zは、距離Lが500cm未満であれば0とし、1000cmより大きければ1とし、500cm以上1000cm以下の範囲において0から1に増加する値とする。このようにして算出した係数X、係数Y及び係数Zを乗算して、係数W(=X×Y×Z)を算出する。 Here, the coefficient W is calculated based on the coefficient X according to the depression angle θ, the coefficient Y according to the installation height H, and the coefficient Z according to the distance L between the photographing unit 32 and the floor surface. For example, the coefficient X is a value obtained by converting a range in which the depression angle θ is 36 ° to 45 ° into a numerical value of 1 to 0. Specifically, for example, the coefficient X is set to 1 if the depression angle θ is less than 36 °, 0 if it is larger than 45 °, and a value that decreases from 1 to 0 in the range of 36 ° or more and 45 ° or less. Further, for example, the coefficient Y is a value obtained by converting a range in which the installation height H is 200 cm to 350 cm into a numerical value of 1 to 0. Specifically, for example, the coefficient Y is set to 1 if the installation height H is less than 200 cm, 0 if it is larger than 350 cm, and a value that decreases from 1 to 0 in the range of 200 cm or more and 350 cm or less. Further, for example, the coefficient Z is a value obtained by converting the range in which the distance L between the photographing unit 32 and the floor surface is 500 cm to 1000 cm into 0 to 1. Specifically, for example, the coefficient Z is set to 0 if the distance L is less than 500 cm, 1 if it is larger than 1000 cm, and a value that increases from 0 to 1 in the range of 500 cm or more and 1000 cm or less. The coefficient W (= X × Y × Z) is calculated by multiplying the coefficient X, the coefficient Y, and the coefficient Z calculated in this way.

このような処理によって、図4に示すように、撮影画像46の各画素に対応させて判定期間を設定することができる。図4では、撮影部32に近い撮影画像の画像領域では判定期間が10フレームに設定され、撮影部32から離れるにしたがって11〜19フレーム、20フレームと判定期間が長く設定されている。すなわち、撮影画像上における消失点に近い画素ほど、判定期間を長く設定する。撮影画像において、消失点よりも手前側の領域の判定期間は、消失点に近づくにつれて長く設定し、消失点よりも遠方の領域の判定期間は、消失点と同じ長さでよい。例えば、図4に示すように、撮影部32に近い画像領域(画像上の下方の領域)は、撮影部32から離れるにしたがい判定期間がだんだん長くなり、消失点以降の判定期間(画像の上方の領域)は同じ長さに設定されている。なお、消失点は、撮影画像上に存在する場合や撮影画像上に存在せず撮影面に存在する場合があるが、いずれの場合でも消失点に近い画素ほど判定期間を長く設定すればよい。また、上述した数式(1)に基づく判定期間の算出をせずに、撮影画像における消失点の位置から判定期間の長さを画素毎に異ならせて設定してもよい。 By such processing, as shown in FIG. 4, the determination period can be set corresponding to each pixel of the captured image 46. In FIG. 4, the determination period is set to 10 frames in the image region of the captured image close to the photographing unit 32, and the determination period is set to 11 to 19 frames and 20 frames as the distance from the photographing unit 32 increases. That is, the closer the pixel is to the vanishing point on the captured image, the longer the determination period is set. In the captured image, the determination period of the region in front of the vanishing point may be set longer as it approaches the vanishing point, and the determination period of the region farther than the vanishing point may be the same length as the vanishing point. For example, as shown in FIG. 4, in the image region (lower region on the image) close to the photographing unit 32, the determination period gradually becomes longer as the distance from the photographing unit 32 increases, and the determination period after the vanishing point (upper side of the image) Area) is set to the same length. The vanishing point may exist on the captured image or may not exist on the captured image but may exist on the imaging surface. In either case, the closer the pixel is to the vanishing point, the longer the determination period may be set. Further, instead of calculating the determination period based on the above-mentioned mathematical formula (1), the length of the determination period may be set differently for each pixel from the position of the vanishing point in the captured image.

ただし、判定期間の設定方法は、上記方法に限定されるものではなく、俯角θが小さいほど、設置高Hが検出対象物の高さに応じた値に近いほど、撮影部32と床面との距離Lが離れるほど判定期間が長くなるような方法であればよい。すなわち、俯角θが小さい場合は大きい場合よりも、判定期間が長く設定されている画像領域の面積が多く、設置高Hが検出対象物の高さに応じた基準値よりも高くなるほど、判定期間が短く設定された画像領域の面積が多く、撮影部32と床面との距離Lが近い画像領域よりも遠くの画像領域ほど、判定期間が長く設定される。なお、設置高Hのみで判定する場合、撮影する監視領域は同じ領域を撮影したまま設置高Hの高さを変更した場合に本処理は有効である。なお、判定期間は、俯角θのみ、又は、設置高Hのみ、又は、距離Lのみを用いて設定してもよい。 However, the method of setting the determination period is not limited to the above method, and the smaller the depression angle θ and the closer the installation height H is to the value corresponding to the height of the detection object, the more the photographing unit 32 and the floor surface are set. Any method may be used as long as the distance L increases and the determination period becomes longer. That is, when the depression angle θ is small, the area of the image area for which the determination period is set to be longer is larger than when the depression angle θ is large, and the larger the installation height H is higher than the reference value according to the height of the detection object, the longer the determination period is. The determination period is set longer as the area of the image area set to be shorter is larger and the image area farther than the image area where the distance L between the photographing unit 32 and the floor surface is short. When determining only by the installation height H, this process is effective when the height of the installation height H is changed while the same area is photographed as the monitoring area to be photographed. The determination period may be set using only the depression angle θ, only the installation height H, or only the distance L.

また、撮影部32のレンズに歪みがある場合、俯角θに対する基準範囲をレンズの歪みを考慮して設定することが好適である。例えば、係数Xを求めるための基準範囲である36°〜45°をレンズの歪みに応じて変更してもよい。また、俯角θや設置高Hのみならず、撮影部32の画角やズーム率等に基づいて判定期間を設定するようにしてもよい。また、監視空間の地形データ(監視空間の3Dデータなど)から取得した床面の傾斜情報等に基づいて判定期間を設定するようにしてもよい。 When the lens of the photographing unit 32 is distorted, it is preferable to set the reference range with respect to the depression angle θ in consideration of the distortion of the lens. For example, the reference range of 36 ° to 45 ° for obtaining the coefficient X may be changed according to the distortion of the lens. Further, the determination period may be set based not only on the depression angle θ and the installation height H, but also on the angle of view, zoom rate, and the like of the photographing unit 32. Further, the determination period may be set based on the inclination information of the floor surface acquired from the topographical data of the monitoring space (3D data of the monitoring space, etc.).

また、本実施の形態では判定期間をフレーム数で設定したが、時間として設定してもよい。例えば、判定期間=10[秒]+10[秒]×係数Wとして設定してもよい。 Further, in the present embodiment, the determination period is set by the number of frames, but it may be set as the time. For example, the determination period = 10 [seconds] + 10 [seconds] × coefficient W may be set.

抽出手段52は、撮影画像46と背景画像44との背景差分に基づいて第1差分領域を抽出する。順次撮影された撮影画像46のうち1つを対象画像として、対象画像と記憶部34に予め記憶された背景画像44とを比較して、両画像間で相違する画素からなる変化領域を抽出して二値画像(変化領域画像)を求める。ここで「両画像間で相違する画素」とは、撮影画像46と背景画像44との間で輝度値又は色成分の差が所定値以上である撮影画像46の画素を意味する。 The extraction means 52 extracts the first difference region based on the background difference between the captured image 46 and the background image 44. Using one of the sequentially captured images 46 as the target image, the target image and the background image 44 stored in advance in the storage unit 34 are compared, and a change region composed of pixels different between the two images is extracted. The binary image (change area image) is obtained. Here, the "pixels different between the two images" mean the pixels of the captured image 46 in which the difference in luminance value or color component between the captured image 46 and the background image 44 is equal to or greater than a predetermined value.

そして、抽出された変化領域が、記憶部34に記憶された安定領域42の画像領域であるか否かを判定する。変化領域が安定領域42であると判定された場合には第1差分領域として抽出せず、変化領域が安定領域42でないと判定された場合には第1差分領域として抽出する。 Then, it is determined whether or not the extracted change area is the image area of the stable area 42 stored in the storage unit 34. When the change region is determined to be the stable region 42, it is not extracted as the first difference region, and when it is determined that the change region is not the stable region 42, it is extracted as the first difference region.

例えば、図5に示すように、背景画像44には閉められたドアを写した領域A1が含まれており、撮影画像46には開けられて外部の光が漏れたドアを写した領域B1と監視空間に侵入した人を写した領域B2が含まれているとする。当該撮影画像46を対象画像とした場合、背景画像44との背景差分処理によって領域B1及び領域B2とに対応する画像領域がそれぞれ変化領域C1及び変化領域C2として抽出される。ここで、変化領域C1がすでに安定領域42として記憶部34に記憶されていた場合、変化領域C1は第1差分領域として抽出されず、人を写した領域B2に対応する変化領域C2のみが第1差分領域D2として抽出される。 For example, as shown in FIG. 5, the background image 44 includes a region A1 showing a closed door, and the captured image 46 includes a region B1 showing a door opened and leaking outside light. It is assumed that the area B2 showing a person who has invaded the surveillance space is included. When the captured image 46 is used as the target image, the image regions corresponding to the regions B1 and B2 are extracted as the change region C1 and the change region C2, respectively, by background subtraction processing with the background image 44. Here, when the change area C1 is already stored in the storage unit 34 as the stable area 42, the change area C1 is not extracted as the first difference area, and only the change area C2 corresponding to the area B2 in which a person is copied is the first. 1 Extracted as a difference region D2.

安定領域判定手段54は、抽出手段52にて第1差分領域が抽出された場合に安定領域42か否かを判定する処理を行う。対象画像の直前又は直後に撮影された撮影画像46と対象画像とを比較して第2差分領域(フレーム間差分領域)を抽出する。第2差分領域が抽出された場合には、第1差分領域と第2差分領域とを比較し、判定期間設定手段50にて設定された判定期間に亘って第1差分領域として抽出された画素であって、判定期間に亘って第2差分領域として抽出されなかった画素を安定領域42として設定する。設定された安定領域42は記憶部34に記憶させ、人判定手段56での処理対象から除外する。第2差分領域が抽出されなかった場合には安定領域42として設定せず、移動する人等による移動体領域として人判定手段56での処理に移行する。なお、第2差分領域を抽出するために対象画像と比較する撮影画像46は、対象画像が撮影された時刻から離れすぎてなければ、2フレーム以上前又は2フレーム以上後を対象としてもよい。また、対象画像の後に撮影された画像とは、侵入者判定処理をリアルタイムではなくリアルタイムより数秒前の撮影画像である対象画像を用いて侵入者判定処理を行う場合の対象画像よりも時間的に後に撮影された撮影画像のことである。 The stable region determination means 54 performs a process of determining whether or not the first difference region is the stable region 42 when the first difference region is extracted by the extraction means 52. A second difference region (inter-frame difference region) is extracted by comparing the captured image 46 captured immediately before or after the target image with the target image. When the second difference region is extracted, the first difference region and the second difference region are compared, and the pixels extracted as the first difference region over the determination period set by the determination period setting means 50. The pixels that have not been extracted as the second difference region during the determination period are set as the stable region 42. The set stable region 42 is stored in the storage unit 34 and excluded from the processing target by the person determining means 56. If the second difference region is not extracted, it is not set as the stable region 42, and the process shifts to the processing by the person determining means 56 as the moving body region by a moving person or the like. The captured image 46 to be compared with the target image for extracting the second difference region may be two frames or more before or two or more frames after, as long as the target image is not too far from the time when the target image was captured. In addition, the image captured after the target image is not in real time but in terms of time compared to the target image when the intruder determination process is performed using the target image which is a captured image several seconds before the real time. It is a photographed image taken later.

例えば、図5において変化領域C1が安定領域42とされていなかった場合、図6に示すように変化領域C1、C2が第1差分領域D1、D2として抽出される。対象画像である撮影画像46と前後に撮影された撮影画像46とのフレーム間差分画像では動かないドアを写した変化領域C1に対応する画像領域は第2差分領域として抽出されず、移動する人を写した変化領域C2に対応する画像領域は第2差分領域E2として抽出される。そこで、判定期間設定手段50において設定された判定期間を基準の時間として、第1差分領域D1として抽出されたとしても当該判定期間を超えて第2差分領域として抽出されない領域は移動しない物体に起因するものとして安定領域42として設定する。一方、第1差分領域D2として抽出され、さらに当該判定期間を超えて第2差分領域E2として抽出された領域は移動する人等に起因する移動体領域として人判定手段56の処理対象とする。 For example, when the change region C1 is not the stable region 42 in FIG. 5, the change regions C1 and C2 are extracted as the first difference regions D1 and D2 as shown in FIG. The image area corresponding to the change area C1 showing the door that does not move in the inter-frame difference image between the photographed image 46 which is the target image and the photographed image 46 photographed before and after is not extracted as the second difference area and is a moving person. The image region corresponding to the change region C2 in which the image is copied is extracted as the second difference region E2. Therefore, even if the determination period set by the determination period setting means 50 is used as the reference time and extracted as the first difference region D1, the region that is not extracted as the second difference region beyond the determination period is caused by an object that does not move. It is set as the stable region 42. On the other hand, the area extracted as the first difference area D2 and further extracted as the second difference area E2 beyond the determination period is processed by the person determination means 56 as a moving body area caused by a moving person or the like.

ここで、判定期間設定手段50において撮影部32の設置状況40に応じて判定期間を設定することで、実際には移動しているが撮影画像46では移動しておらず静止しているようにみえる画像領域を誤って安定領域42と設定することを防ぐことができる。すなわち、撮影画像上において、撮影部32の近くを撮影している画像領域よりも遠くを撮影している画像領域ほど、撮影画像の画素毎に設定される前記判定期間を長く設定することで、誤って安定領域42と設定することを防ぐことができる。例えば、撮影部32からの俯角θが小さいほど、設置高Hが検出対象物の高さに応じた値に近いほど、撮影部32と床面との距離Lが離れるほど動いている物体が静止しているようにみえ易くなるので、判定期間をより長く設定することによって動いている物体を写した画像領域を安定領域42として設定され難くしている。これによって、人等の移動する物体を写した画像領域を安定領域42と誤判定することを抑制し、さらに精度良く安定領域42を設定することができる。 Here, by setting the determination period according to the installation status 40 of the photographing unit 32 in the determination period setting means 50, it seems that the image 46 is actually moving but not moving and is stationary. It is possible to prevent the visible image area from being mistakenly set as the stable area 42. That is, by setting the determination period set for each pixel of the captured image longer in the captured image, the image region in which the image region is captured farther than the image region captured near the photographing unit 32 is set. It is possible to prevent accidentally setting the stable region 42. For example, the smaller the depression angle θ from the photographing unit 32, the closer the installation height H is to the value corresponding to the height of the object to be detected, and the farther the distance L between the photographing unit 32 and the floor surface is, the more the moving object is stationary. By setting the determination period longer, it is difficult to set the image region in which the moving object is captured as the stable region 42 because it becomes easier to see the image. As a result, it is possible to prevent the image region in which a moving object such as a person is captured from being erroneously determined as the stable region 42, and to set the stable region 42 with higher accuracy.

人判定手段56は、抽出手段52において抽出された第1差分領域が人であるか否かを判定する。人判定手段56における人の判定方法は、公知の様々な方法を適用することができる。例えば、予め検出対象となる人の特徴を表す特徴情報を記憶部34に記憶させておき、第1差分領域が当該特徴情報で表される特徴を満たすか否かによって当該第1差分領域が人であるか否かを判定することができる。特徴情報は、例えば、人らしい大きさ又は形状の画像領域であるか等の情報とすればよい。また、例えば、第1差分領域に識別子(ラベル)を付与するラベリング処理を行い、複数のフレームに亘って同一のラベルが付された第1差分領域の動きが人の動きの特徴を満たすか否かによって当該変化領域が人であるか否かを判定することもできる。 The person determining means 56 determines whether or not the first difference region extracted by the extracting means 52 is a person. As a method for determining a person in the person determining means 56, various known methods can be applied. For example, feature information representing the characteristics of a person to be detected is stored in the storage unit 34 in advance, and the first difference area is a person depending on whether or not the first difference area satisfies the feature represented by the feature information. It can be determined whether or not it is. The feature information may be, for example, information such as whether or not the image region has a human-like size or shape. Further, for example, whether or not a labeling process for assigning an identifier (label) to the first difference region is performed and the movement of the first difference region with the same label over a plurality of frames satisfies the characteristics of human movement. It is also possible to determine whether or not the change area is a person.

人判定手段56は、第1差分領域が人であると判定された場合は通信部30を介して異常を報知して侵入者検出処理を終了し、人でないと判定された場合は報知を行うことなく侵入者検出処理を終了する。 When the first difference region is determined to be a person, the person determination means 56 notifies an abnormality via the communication unit 30 to end the intruder detection process, and when it is determined that the person is not a person, the person determination means 56 notifies the person. The intruder detection process is terminated without any notice.

背景画像更新手段58は、背景画像44を更新する条件を満たしたときに撮影画像46に基づいて背景画像44を更新する。背景画像44を更新する条件は、例えば、予め設定した更新基準期間を超えて背景画像44の更新が行われず、更に対象画像の前又は後に撮影された撮影画像46と対象画像とを比較して抽出された第2差分領域(フレーム間差分領域)が当該更新基準期間に亘って閾値以下である場合に対象画像を背景画像44として更新する。 The background image updating means 58 updates the background image 44 based on the captured image 46 when the condition for updating the background image 44 is satisfied. The condition for updating the background image 44 is, for example, that the background image 44 is not updated beyond the preset update reference period, and the captured image 46 captured before or after the target image is compared with the target image. When the extracted second difference region (interframe difference region) is equal to or less than the threshold value over the update reference period, the target image is updated as the background image 44.

ここで、判定期間設定手段50で設定された判定期間に応じて更新基準期間の長さを設定してもよい。例えば、判定期間が10フレームの画像領域がある場合には更新基準期間は30フレームとし、判定期間が20フレームの画像領域がある場合には更新基準期間は60フレームとすればよい。 Here, the length of the renewal reference period may be set according to the determination period set by the determination period setting means 50. For example, if there is an image area with a determination period of 10 frames, the update reference period may be 30 frames, and if there is an image area with a determination period of 20 frames, the update reference period may be 60 frames.

以下、図7に示すフローチャートにしたがって判定期間設定処理の流れを説明する。 Hereinafter, the flow of the determination period setting process will be described with reference to the flowchart shown in FIG.

ステップS10において、設置状況40に含まれる俯角θ及び設置高Hに基づいて撮影部32と床面との距離Lを算出する。そして、ステップS12において、俯角θ及び設置高Hと算出された距離Lとに基づいて撮影画像46の画素毎に安定領域42を判定するための判定期間を設定する。 In step S10, the distance L between the photographing unit 32 and the floor surface is calculated based on the depression angle θ and the installation height H included in the installation status 40. Then, in step S12, a determination period for determining the stable region 42 for each pixel of the captured image 46 is set based on the depression angle θ, the installation height H, and the calculated distance L.

以下、図8に示すフローチャートにしたがって侵入者判定処理の流れを説明する。 Hereinafter, the flow of the intruder determination process will be described according to the flowchart shown in FIG.

ステップS20において、対象画像と背景画像44とを用いて背景差分して第1差分領域を抽出する。ステップS22では、ステップS20において第1差分領域が抽出されたらステップS24に処理を移行させ、抽出されなかったら侵入者判定処理を終了する。ステップS24では、フレーム間差分によって第2差分領域を抽出する。ステップS26において、第1差分領域と第2差分領域とを比較し、上記判定期間設定処理において設定された判定期間に亘って第1差分領域が抽出され、第2差分領域が抽出されなかった画素を安定領域42と判定する。ステップS28において、安定領域42と判定されなかった第1差分領域が残存しているか否かを判定する。第1差分領域が残存している場合にはステップS30に処理を移行させ、残存していない場合には侵入者判定処理を終了する。ステップS30において、安定領域42と判定されなかった第1差分領域を対象として人を写した画像領域であるか否かの判定を行い、人であった場合は警報を発報する。人でなかった場合は、侵入者判定処理を終了する。 In step S20, a first difference region is extracted by performing background subtraction using the target image and the background image 44. In step S22, if the first difference region is extracted in step S20, the process shifts to step S24, and if it is not extracted, the intruder determination process ends. In step S24, the second difference region is extracted by the difference between frames. In step S26, the first difference region and the second difference region are compared, the first difference region is extracted over the determination period set in the determination period setting process, and the second difference region is not extracted. Is determined to be the stable region 42. In step S28, it is determined whether or not the first difference region that has not been determined to be the stable region 42 remains. If the first difference region remains, the process shifts to step S30, and if it does not remain, the intruder determination process ends. In step S30, it is determined whether or not the first difference region, which is not determined to be the stable region 42, is an image region in which a person is photographed, and if it is a person, an alarm is issued. If it is not a person, the intruder determination process is terminated.

なお、撮影部32を、全方位(360度)を撮影領域(監視領域)とすることができる全方位カメラとしてもよい。全方位カメラは、例えば監視対象物件12の天井などに設置され、監視領域を下方とし、略鉛直下方向を光学中心とする。全方位カメラである撮影部32で撮像された撮影画像46は全方位画像であり、全体として円形の像となっており、円形の中心が光学中心に対応する位置となっている。そして、撮影画像46においては、監視領域の鉛直上方向が、撮影画像46の径方向であって光学中心から外側へ向かう方向となり、監視領域の水平方向が撮影画像46の周方向となる。監視領域に設置する際、俯角を固定(例えば、90度)して天井に設置し、光学中心が床面と垂直になる全方位カメラを適用した場合、俯角θを除いた設置高Hと距離Lに基づいて判定期間を設定すればよい。なお、光学中心が床面と垂直になるよう全方位カメラを設置した場合、判定期間は、撮影画像46の中心付近の画像領域よりも円周付近の画像領域のほうが長く設定される。 The photographing unit 32 may be an omnidirectional camera capable of setting an omnidirectional (360 degrees) as a photographing area (surveillance area). The omnidirectional camera is installed, for example, on the ceiling of the property 12 to be monitored, the monitoring area is downward, and the optical center is substantially vertically downward. The captured image 46 captured by the photographing unit 32, which is an omnidirectional camera, is an omnidirectional image, and is a circular image as a whole, and the center of the circle is a position corresponding to the optical center. Then, in the captured image 46, the vertically upward direction of the monitoring region is the radial direction of the captured image 46 and is the direction from the optical center to the outside, and the horizontal direction of the monitoring region is the circumferential direction of the captured image 46. When installing in the monitoring area, when the depression angle is fixed (for example, 90 degrees) and installed on the ceiling, and an omnidirectional camera whose optical center is perpendicular to the floor surface is applied, the installation height H and distance excluding the depression angle θ The determination period may be set based on L. When the omnidirectional camera is installed so that the optical center is perpendicular to the floor surface, the determination period is set longer in the image area near the circumference than in the image area near the center of the captured image 46.

なお、画像処理装置22は、自装置内の記憶部34に記憶された画像を画像処理するものに限定されない。例えば、他の外部装置から読み出した画像を画像処理したり、外部のカメラから受信した画像を画像処理したりする構成としてもよい。 The image processing device 22 is not limited to the one that performs image processing on the image stored in the storage unit 34 in the own device. For example, an image read from another external device may be image-processed, or an image received from an external camera may be image-processed.

以上のように、本実施の形態によれば人等の検出対象となる移動体を写した画像領域を安定領域42と誤判定することを抑制し、精度良く安定領域42を設定することができる。 As described above, according to the present embodiment, it is possible to suppress the erroneous determination of the image region in which the moving object to be detected by a person or the like is captured as the stable region 42, and to set the stable region 42 with high accuracy. ..

以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。 Although the embodiments according to the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the spirit of the present invention.

10 警備システム、12 監視対象物件、14 警備装置、16 通信網、18 警備センタ装置、20 利用者装置、22 画像処理装置、24 録画装置、30 通信部、32 撮影部、34 記憶部、38 制御部、40 設置状況、42 安定領域、44 背景画像、46 撮影画像、50 判定期間設定手段、52 抽出手段、54 安定領域判定手段、56 人判定手段、58 背景画像更新手段。 10 Security system, 12 Monitored property, 14 Security device, 16 Communication network, 18 Security center device, 20 User device, 22 Image processing device, 24 Recording device, 30 Communication unit, 32 Imaging unit, 34 Storage unit, 38 Control Unit, 40 Installation status, 42 Stable area, 44 Background image, 46 Captured image, 50 Judgment period setting means, 52 Extraction means, 54 Stable area determination means, 56 Person judgment means, 58 Background image update means.

Claims (6)

撮影装置により所定空間を順次撮影した撮影画像のうち所定の対象画像から移動体の画像領域を示す移動体領域を検出する画像処理装置であって、
前記対象画像と前記所定空間の背景を撮影した背景画像とを比較して抽出された第1差分領域、及び、前記対象画像と前記対象画像の前又は後に撮影された前記撮影画像とを比較して抽出された第2差分領域、を比較し、判定期間において前記第2差分領域は抽出されず前記第1差分領域が抽出された画像領域を前記移動体領域として検出しない安定領域として設定する画像処理手段を備え、
前記判定期間は、前記撮影画像上の位置に応じて異なる長さに設定されることを特徴とする画像処理装置。
An image processing device that detects a moving body area indicating an image area of a moving body from a predetermined target image among the shot images in which a predetermined space is sequentially shot by the shooting device.
The first difference region extracted by comparing the target image with the background image obtained by capturing the background of the predetermined space, and the captured image captured before or after the target image are compared with each other. An image in which the second difference region is not extracted during the determination period and the image region from which the first difference region is extracted is set as a stable region that is not detected as the moving body region. Equipped with processing means
The image processing apparatus, characterized in that the determination period is set to a different length depending on the position on the captured image.
請求項1に記載の画像処理装置であって、
前記判定期間は、前記撮影画像における消失点に近い位置ほど長く設定されることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus, characterized in that the determination period is set longer as the position closer to the vanishing point in the captured image.
請求項1又は2に記載の画像処理装置であって、
前記判定期間は、前記撮影装置の設置高が前記移動体の高さに応じた基準値よりも高い場合、前記設置高が前記基準値の場合より、短く設定されることを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2.
The image processing is characterized in that when the installation height of the photographing device is higher than the reference value corresponding to the height of the moving body, the determination period is set shorter than the case where the installation height is the reference value. apparatus.
請求項1〜3のいずれか1項に記載の画像処理装置であって、
前記判定期間は、前記撮影装置の俯角が小さいほど長く設定されることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3.
An image processing device characterized in that the determination period is set longer as the depression angle of the photographing device is smaller.
請求項1〜4のいずれか1項に記載の画像処理装置であって、
前記撮影装置の設置高に基づいて、前記撮影画像全体を床面と仮定して前記撮影装置の光学中心から当該撮影画像の各領域又は各画素に対応する前記床面の位置までの距離を算出し、当該距離が大きい領域又は画素ほど長い前記判定期間を設定することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 4.
Based on the installation height of the photographing device, the distance from the optical center of the photographing device to the position of the floor surface corresponding to each region or each pixel of the photographed image is calculated assuming that the entire photographed image is the floor surface. An image processing apparatus, characterized in that a region having a large distance or a pixel has a longer determination period.
撮影装置により所定空間を順次撮影した撮影画像のうち所定の対象画像から移動体の画像領域を示す移動体領域を検出する画像処理プログラムであって、
コンピュータを、
前記対象画像と前記所定空間の背景を撮影した背景画像とを比較して抽出された第1差分領域、及び、前記対象画像と前記対象画像の前又は後に撮影された前記撮影画像とを比較して抽出された第2差分領域、を比較し、判定期間において前記第2差分領域は抽出されず前記第1差分領域が抽出された画像領域を前記移動体領域として検出しない安定領域として設定する画像処理手段として機能させ、
前記判定期間は、前記撮影画像上の位置に応じて異なる長さに設定されることを特徴とする画像処理プログラム。
An image processing program that detects a moving body area indicating an image area of a moving body from a predetermined target image among captured images in which a predetermined space is sequentially shot by a shooting device.
Computer,
The first difference region extracted by comparing the target image with the background image obtained by capturing the background of the predetermined space, and the captured image captured before or after the target image are compared with each other. An image in which the second difference region is not extracted during the determination period and the image region from which the first difference region is extracted is set as a stable region that is not detected as the moving body region. To function as a processing means,
An image processing program characterized in that the determination period is set to a different length depending on the position on the captured image.
JP2019065873A 2019-03-29 2019-03-29 Image processing device and image processing program Active JP7195204B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019065873A JP7195204B2 (en) 2019-03-29 2019-03-29 Image processing device and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019065873A JP7195204B2 (en) 2019-03-29 2019-03-29 Image processing device and image processing program

Publications (2)

Publication Number Publication Date
JP2020167508A true JP2020167508A (en) 2020-10-08
JP7195204B2 JP7195204B2 (en) 2022-12-23

Family

ID=72716388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019065873A Active JP7195204B2 (en) 2019-03-29 2019-03-29 Image processing device and image processing program

Country Status (1)

Country Link
JP (1) JP7195204B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167282A (en) * 1999-12-10 2001-06-22 Toshiba Corp Device and method for extracting moving object
JP2003271972A (en) * 2002-03-14 2003-09-26 Mitsubishi Electric Corp Image processor, method for processing image, and program
WO2009005141A1 (en) * 2007-07-05 2009-01-08 Nec Corporation Object area detecting device, object area detecting system, and object area detecting method and program
JP2009104279A (en) * 2007-10-22 2009-05-14 Meidensha Corp Intruder detector
JP2015089019A (en) * 2013-10-31 2015-05-07 株式会社Jvcケンウッド Information processing device, control method, program and information system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167282A (en) * 1999-12-10 2001-06-22 Toshiba Corp Device and method for extracting moving object
JP2003271972A (en) * 2002-03-14 2003-09-26 Mitsubishi Electric Corp Image processor, method for processing image, and program
WO2009005141A1 (en) * 2007-07-05 2009-01-08 Nec Corporation Object area detecting device, object area detecting system, and object area detecting method and program
JP2009104279A (en) * 2007-10-22 2009-05-14 Meidensha Corp Intruder detector
JP2015089019A (en) * 2013-10-31 2015-05-07 株式会社Jvcケンウッド Information processing device, control method, program and information system

Also Published As

Publication number Publication date
JP7195204B2 (en) 2022-12-23

Similar Documents

Publication Publication Date Title
KR101789690B1 (en) System and method for providing security service based on deep learning
JP6127152B2 (en) Security monitoring system and corresponding alarm triggering method
JP3698420B2 (en) Image monitoring apparatus, image monitoring method, and image monitoring processing program
US7751647B2 (en) System and method for detecting an invalid camera in video surveillance
US11281900B2 (en) Devices, methods, and systems for occupancy detection
CN101640788B (en) Method and device for controlling monitoring and monitoring system
CN101888479A (en) Method and device for detecting and tracking target image
KR101454644B1 (en) Loitering Detection Using a Pedestrian Tracker
JP5030832B2 (en) Image sensor
JP7195204B2 (en) Image processing device and image processing program
JP4985742B2 (en) Imaging system, method and program
JP7290961B2 (en) Image processing device and image processing program
JP7355553B2 (en) Image processing device and image processing program
JP2012103901A (en) Intrusion object detection device
KR100982342B1 (en) Intelligent security system and operating method thereof
JP7328778B2 (en) Image processing device and image processing program
JP7101080B2 (en) Image processing equipment
JP7221092B2 (en) Image processing device and image processing program
JP7188934B2 (en) Image processing device
TW201426664A (en) Abnormal classification detection method for a video camera and a monitoring host with video image abnormal detection
JP2000341677A (en) Image monitoring device
JP7129271B2 (en) Image processing device
TW202040524A (en) Monitoring system for identifying and tracking object
JP2013090063A (en) Monitoring device, monitoring method, and monitoring program
JP2020005122A (en) Monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221213

R150 Certificate of patent or registration of utility model

Ref document number: 7195204

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150