JP2020149221A - Image processing device and image processing program - Google Patents

Image processing device and image processing program Download PDF

Info

Publication number
JP2020149221A
JP2020149221A JP2019044946A JP2019044946A JP2020149221A JP 2020149221 A JP2020149221 A JP 2020149221A JP 2019044946 A JP2019044946 A JP 2019044946A JP 2019044946 A JP2019044946 A JP 2019044946A JP 2020149221 A JP2020149221 A JP 2020149221A
Authority
JP
Japan
Prior art keywords
area
image
difference
inter
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019044946A
Other languages
Japanese (ja)
Other versions
JP7221092B2 (en
Inventor
庸平 澤井
Yohei Sawai
庸平 澤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2019044946A priority Critical patent/JP7221092B2/en
Publication of JP2020149221A publication Critical patent/JP2020149221A/en
Application granted granted Critical
Publication of JP7221092B2 publication Critical patent/JP7221092B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)

Abstract

To provide an image processing device and an image processing program capable of detecting a low-speed moving body from a photographic image by using a result of inter-frame difference processing.SOLUTION: In a security system, difference processing means 44 of an image sensor makes a circumscribed rectangle of a background difference area to be a determination area on the basis of a photographic image 36 and a background image 38. The difference processing means 44 performs inter-frame difference processing between respective photographic images 36 photographed within a difference period, and acquires a plurality of inter-frame difference images including an inter-frame difference area. Low-speed moving body determination means 46 acquires a first area being an area of the inter-frame difference area within the determination area in an object inter-frame difference image and a second area being an area of a stored inter-frame difference area within the determination area in a stored difference image obtained by storing inter-frame difference areas within a plurality of inter-frame difference images, and determines that a low-speed moving body area exists within the determination area in the case that an area increasing rate from the first area to the second area is equal to or more than a prescribed increasing rate threshold.SELECTED DRAWING: Figure 2

Description

本発明は、撮影画像内から移動体の画像領域を示す移動体領域を検出する画像処理装置及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program for detecting a moving body region indicating an image region of a moving body from within a captured image.

従来、所定領域(監視領域)をカメラで撮影して取得した撮影画像から、移動体を検出する処理が行われている。例えば、監視領域内に人物などの移動体が侵入してきた場合に、撮影画像から当該人物が抽出される。 Conventionally, a process of detecting a moving body is performed from a captured image obtained by photographing a predetermined area (monitoring area) with a camera. For example, when a moving object such as a person invades the monitoring area, the person is extracted from the captured image.

撮影画像から移動体を検出する処理としては、撮影画像と、背景画像(監視領域に移動体が存在しない画像)との間の背景差分領域を抽出する背景差分処理が行われるのが一般的である。しかし、背景差分処理では、扉の開閉や荷物の移動などが生じた場合、背景差分領域として抽出され続けるため、本来検出したい移動体の検出精度が落ちてしまう。したがって、背景差分処理の処理結果に加え、さらに、撮影画像と、過去に撮影された撮影画像である過去画像(例えば1〜数フレーム前の画像)との間のフレーム間差分領域を抽出するフレーム間差分処理の処理結果も考慮して移動体を検出する場合がある。例えば、背景差分領域として抽出され、かつ、フレーム間差分領域として抽出された画素領域に基づいて、移動体を検出する。 As a process for detecting a moving object from a captured image, background subtraction processing for extracting a background subtraction region between the captured image and a background image (an image in which no moving object exists in the monitoring area) is generally performed. is there. However, in the background subtraction processing, when the door is opened or closed or the luggage is moved, the background subtraction region is continuously extracted, so that the detection accuracy of the moving object that is originally desired to be detected is lowered. Therefore, in addition to the processing result of background subtraction processing, a frame for extracting an inter-frame difference region between a captured image and a past image (for example, an image one to several frames before) that is captured in the past. A moving object may be detected in consideration of the processing result of the inter-subtraction processing. For example, a moving body is detected based on a pixel region extracted as a background subtraction region and extracted as an interframe subtraction region.

例えば、特許文献1には、撮影画像と背景画像との間の背景差分処理、及び、撮影画像と、当該撮影画像と時間的に隣り合う過去画像との間のフレーム間差分処理によって、撮影画像から検出対象を検出する画像センサが開示されている。 For example, Patent Document 1 describes a photographed image by background subtraction processing between the photographed image and the background image, and frame subtraction processing between the photographed image and a past image that is temporally adjacent to the photographed image. An image sensor that detects a detection target is disclosed.

特開2015−46811号公報JP-A-2015-46811

監視領域に、移動速度が極端に遅い移動体(低速移動体)が存在する場合、撮影画像と過去画像とで、移動体の位置がほぼ変わらない場合がある。この場合、フレーム間差分処理は、撮影画像と過去画像との間のフレーム間差分領域を抽出するものであるから、フレーム間差分処理において、低速移動体がフレーム間差分領域として抽出されない場合がある。このように、従来、フレーム間差分処理によって、撮影画像から低速移動体を適切に検出できない場合があった。 When a moving body (low-speed moving body) having an extremely slow moving speed exists in the monitoring area, the position of the moving body may be almost the same between the captured image and the past image. In this case, since the inter-frame difference processing extracts the inter-frame difference region between the captured image and the past image, the low-speed moving body may not be extracted as the inter-frame difference region in the inter-frame difference processing. .. As described above, conventionally, there have been cases where a low-speed moving object cannot be appropriately detected from a captured image by inter-frame difference processing.

本発明の目的は、フレーム間差分処理の結果を用いて撮影画像から低速移動体を検出することにある。 An object of the present invention is to detect a low-speed moving object from a captured image by using the result of inter-frame difference processing.

本発明は、所定領域を順次撮影した撮影画像のうちの対象画像から低速移動体の画像領域を示す低速移動体領域を検出する画像処理装置であって、前記所定領域の背景を撮影した背景画像と前記対象画像との間の背景差分処理によって抽出された背景差分領域を含む判定領域を求め、前記対象画像の撮影時刻を含む差分期間内に撮影された各前記撮影画像間のフレーム間差分処理によって、複数のフレーム間差分領域を求める差分処理手段と、前記判定領域内にて、前記対象画像と他の前記撮影画像との間の前記フレーム間差分領域の面積である第1面積から、前記複数のフレーム間差分領域を蓄積した蓄積差分画像における前記フレーム間差分領域の面積である第2面積への面積増加率が増加率閾値以上である場合、該判定領域に前記低速移動体領域が有ると判定する低速移動体判定手段と、を備えることを特徴とする画像処理装置である。 The present invention is an image processing device that detects a low-speed moving body region indicating an image region of a low-speed moving body from a target image among captured images in which a predetermined region is sequentially captured, and is a background image obtained by capturing the background of the predetermined region. A determination area including a background subtraction region extracted by background subtraction processing between the target image and the target image is obtained, and frame-to-frame difference processing between the captured images captured within the difference period including the shooting time of the target image. From the difference processing means for obtaining a plurality of inter-frame subtraction regions and the first area which is the area of the inter-frame subtraction region between the target image and the other captured image in the determination region. When the area increase rate to the second area, which is the area of the inter-frame difference region in the accumulated difference image in which a plurality of inter-frame subtraction regions are accumulated, is equal to or greater than the increase rate threshold, the low-speed moving body region is present in the determination region. It is an image processing apparatus including a low-speed moving body determining means for determining.

望ましくは、前記低速移動体領域が有ると判定された前記蓄積差分画像における前記判定領域内の前記フレーム間差分領域に基づいて、前記背景差分領域を整形するラベル整形手段と、をさらに備えることを特徴とする。 Desirably, a label shaping means for shaping the background subtraction region based on the inter-frame subtraction region in the determination region in the accumulated difference image determined to have the low-speed moving body region is further provided. It is a feature.

望ましくは、前記フレーム間差分処理によって、安定判定期間、前記フレーム間差分領域として抽出されなかった画像領域を安定領域と判定し、前記低速移動体領域が有ると判定された判定領域外の画像領域であって、前記安定領域と判定された画像領域を用いて前記背景画像を更新する背景画像更新手段をさらに備えることを特徴とする。 Desirably, the image region outside the determination region determined to have the low-speed moving body region is determined to be the stable region by the inter-frame difference processing, and the image region not extracted as the inter-frame difference region during the stability determination period is determined. The background image update means for updating the background image using the image region determined to be the stable region is further provided.

望ましくは、前記差分処理手段は、前記判定領域の面積に占める前記第1面積の割合が小さいほど、前記差分期間を大きい値に設定する、ことを特徴とする。 Desirably, the difference processing means is characterized in that the smaller the ratio of the first area to the area of the determination area, the larger the difference period is set.

望ましくは、前記判定領域内の前記背景差分領域の面積を示す第3面積を求め、前記第1面積と前記第3面積との差が面積差閾値以下である場合、前記判定領域に前記低速移動体領域が無いと判定する、ことを特徴とする。 Desirably, a third area indicating the area of the background subtraction region in the determination region is obtained, and when the difference between the first area and the third area is equal to or less than the area difference threshold value, the slow movement to the determination region is performed. It is characterized in that it is determined that there is no body area.

また、本発明は、所定領域を順次撮影した撮影画像のうちの対象画像から低速移動体の画像領域を示す低速移動体領域を検出するための画像処理プログラムであって、コンピュータを、前記所定領域の背景を撮影した背景画像と前記対象画像との間の背景差分処理によって抽出された背景差分領域を含む判定領域を求め、前記対象画像の撮影時刻を含む差分期間内に撮影された各前記撮影画像間のフレーム間差分処理によって、複数のフレーム間差分領域を求める差分処理手段と、前記判定領域内にて、前記対象画像と他の前記撮影画像との間の前記フレーム間差分領域の面積である第1面積から、前記複数のフレーム間差分領域を蓄積した蓄積差分画像における前記フレーム間差分領域の面積である第2面積への面積増加率が増加率閾値以上である場合、該判定領域に前記低速移動体領域が有ると判定する低速移動体判定手段と、として機能させることを特徴とする画像処理プログラムである。 Further, the present invention is an image processing program for detecting a low-speed moving body region indicating an image region of a low-speed moving body from a target image among captured images in which a predetermined region is sequentially captured. A determination area including a background subtraction area extracted by background subtraction processing between the background image obtained by photographing the background of the target image and the target image is obtained, and each of the above-mentioned photographs taken within the difference period including the shooting time of the target image. With the difference processing means for obtaining a plurality of inter-frame subtraction regions by inter-frame subtraction processing between images, and the area of the inter-frame subtraction region between the target image and the other captured image in the determination region. When the area increase rate from a certain first area to the second area, which is the area of the inter-frame difference area in the accumulated difference image in which the plurality of inter-frame difference areas are accumulated, is equal to or more than the increase rate threshold, the determination area is set to the determination area. It is an image processing program characterized by functioning as a low-speed moving body determination means for determining that there is a low-speed moving body region.

本発明によれば、フレーム間差分処理の結果を用いて撮影画像から低速移動体を検出することができる。 According to the present invention, a low-speed moving body can be detected from a captured image by using the result of inter-frame difference processing.

本実施形態に係る警備システムの構成概略図である。It is a block diagram of the security system which concerns on this embodiment. 本実施形態に係る画像センサの構成概略図である。It is a block diagram of the image sensor which concerns on this embodiment. 対象画像(a)、背景画像(b)、及び、背景差分画像(c)を示す図である。It is a figure which shows the target image (a), the background image (b), and the background subtraction image (c). 複数の撮影画像と、複数のフレーム間差分画像を示す図である。It is a figure which shows a plurality of photographed images, and the difference image between a plurality of frames. 対象フレーム間差分画像(a)、及び、蓄積差分画像(b)を示す図である。It is a figure which shows the difference image (a) between target frames, and the accumulation difference image (b). 移動体の速度が速い場合における、複数の撮影画像と、複数のフレーム間差分画像を示す図である。It is a figure which shows a plurality of photographed images, and a plurality of frame-to-frame difference images when the speed of a moving body is high. 移動体の速度が速い場合における、対象フレーム間差分画像(a)、及び、蓄積差分画像(b)を示す図である。It is a figure which shows the difference image (a) between target frames, and the accumulation difference image (b) when the speed of a moving body is fast. 移動体の速度が速い場合における、対象フレーム間差分画像(a)、及び、背景差分画像(b)を示す図である。It is a figure which shows the inter-frame difference image (a) and background subtraction image (b) when the speed of a moving body is fast. 背景差分画像(a)、蓄積差分画像(b)、及び、更新された判定領域を示す図である。It is a figure which shows the background subtraction image (a), the accumulation difference image (b), and the updated determination area. 本実施形態に係る低速移動体検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the low-speed moving body detection processing which concerns on this embodiment.

以下、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described.

図1は、本実施形態に係る警備システム10の構成概略図である。警備システム10は、店舗、オフィス、マンション、倉庫、家屋などの各監視対象物件12に設置される警備装置14、公衆電話回線などの通信網16を介して各警備装置14と接続される警備センタ装置18、及び利用者装置20とを含んで構成される。さらに、警備システム10は、監視対象物件12の監視領域を撮影した監視画像に基づいて監視対象物件12の異常を検出するための1以上の画像処理装置としての画像センサ22、及び、画像センサ22により撮影された監視画像を記録する録画装置24を含んで構成される。画像センサ22及び録画装置24は警備装置14と通信可能に接続される。 FIG. 1 is a schematic configuration diagram of a security system 10 according to the present embodiment. The security system 10 is a security center connected to each security device 14 via a security device 14 installed in each monitored property 12 such as a store, office, condominium, warehouse, or house, and a communication network 16 such as a public telephone line. The device 18 and the user device 20 are included. Further, the security system 10 includes an image sensor 22 as one or more image processing devices for detecting an abnormality in the monitored property 12 based on a monitored image obtained by capturing the monitored area of the monitored property 12, and an image sensor 22. It is configured to include a recording device 24 for recording a surveillance image taken by the user. The image sensor 22 and the recording device 24 are communicably connected to the security device 14.

警備装置14は、構内LANなどを介してそれ自体に接続された画像センサ22からアラーム信号を受信すると、そのアラーム信号及び警備装置14自体の識別信号、又は、監視対象物件12あるいは異常を検出した画像センサ22の識別信号を警備センタ装置18へ送信する。そのために、警備装置14は、画像センサ22と通信するための通信インターフェースと、警備センタ装置18及び利用者装置20と通信するための通信インターフェースと、それらを制御するための制御ユニットを有する。 When the security device 14 receives an alarm signal from the image sensor 22 connected to itself via the premises LAN or the like, the security device 14 detects the alarm signal, the identification signal of the security device 14 itself, the monitored property 12, or an abnormality. The identification signal of the image sensor 22 is transmitted to the security center device 18. Therefore, the security device 14 has a communication interface for communicating with the image sensor 22, a communication interface for communicating with the security center device 18 and the user device 20, and a control unit for controlling them.

警備センタ装置18は、いわゆるコンピュータで構成され、通信網16を介して警備装置14と通信するための通信インターフェースと、液晶ディスプレイなどの表示装置と、ブザーやLEDなどで構成される報知部を備える。警備センタ装置18は、警備装置14から通信網16を介してアラーム信号を受信すると、そのアラーム信号を送信した警備装置14が設置された監視対象物件12及び検出された異常の内容を報知部及び表示装置を通じて監視員に報知する。 The security center device 18 is composed of a so-called computer, and includes a communication interface for communicating with the security device 14 via the communication network 16, a display device such as a liquid crystal display, and a notification unit composed of a buzzer, an LED, or the like. .. When the security center device 18 receives an alarm signal from the security device 14 via the communication network 16, the security center device 18 notifies the monitored property 12 in which the security device 14 that has transmitted the alarm signal is installed, and the content of the detected abnormality. Notify the observer through the display device.

利用者装置20も、いわゆるコンピュータで構成され、通信網16を介して警備装置14と通信するための通信インターフェース、液晶ディスプレイなどの表示装置、及び、キーボードやマウスなど、警備装置14を遠隔操作するための操作コマンドを入力するためのユーザインターフェースを備える。利用者装置20は、ユーザインターフェースを介して予め登録されている監視対象物件12を観察する操作がなされると、登録されている監視対象物件12に設置された警備装置14に対して、現在撮影中の監視画像又は録画装置24に記録されている監視画像を利用者装置20に送信することを要求する各種の画像要求信号を送信する。そして、警備装置14から監視画像を受信すると、利用者装置20は要求された監視画像を表示装置に表示する。 The user device 20 is also composed of a so-called computer, and remotely operates the security device 14 such as a communication interface for communicating with the security device 14 via the communication network 16, a display device such as a liquid crystal display, and a keyboard and a mouse. It has a user interface for inputting operation commands for. When the user device 20 observes the pre-registered monitored property 12 via the user interface, the user device 20 currently photographs the security device 14 installed in the registered monitored property 12. Various image request signals requesting that the surveillance image inside or the surveillance image recorded in the recording device 24 be transmitted to the user device 20 are transmitted. Then, when the surveillance image is received from the security device 14, the user device 20 displays the requested surveillance image on the display device.

録画装置24は、HDDなどの磁気ディスク装置、DATなどの磁気テープ、DVD−RAMなどの光記録媒体のように、録画装置24に着脱自在となる記録媒体と、それら記録媒体にアクセスしてデータの読み書きを行う装置で構成される。録画装置24は、画像センサ22が撮影した監視画像を警備装置14から受け取り、撮影時刻と関連付けて記録する。 The recording device 24 is a recording medium that can be attached to and detached from the recording device 24, such as a magnetic disk device such as an HDD, a magnetic tape such as a DAT, and an optical recording medium such as a DVD-RAM, and data by accessing the recording medium. It consists of a device that reads and writes. The recording device 24 receives the surveillance image taken by the image sensor 22 from the security device 14 and records it in association with the shooting time.

図2は、画像センサ22の構成概略図である。画像センサ22は、所定領域(監視領域)を撮影して撮影画像を取得した上で、撮影画像から移動体を示す移動体領域を検出する。本実施形態では、画像センサ22は、撮影画像の中から、移動体のうち、特に人物(侵入者)を示す移動体領域を検出する。特に、本実施形態に係る画像センサ22は、移動速度が極端に遅い低速移動体を示す低速移動体領域を検出可能となっている。以下、画像センサ22の詳細について説明する。 FIG. 2 is a schematic configuration diagram of the image sensor 22. The image sensor 22 captures a predetermined region (monitoring region) to acquire a captured image, and then detects a moving body region indicating a moving body from the captured image. In the present embodiment, the image sensor 22 detects a moving body region indicating a person (intruder) among moving bodies from the captured image. In particular, the image sensor 22 according to the present embodiment can detect a low-speed moving body region indicating a low-speed moving body whose moving speed is extremely slow. The details of the image sensor 22 will be described below.

通信部30は、画像センサ22と警備装置14との間で構内LANなどの通信ネットワークを介して各種の設定信号及び制御信号などを送受信する入出力インターフェースであり、イーサネット(登録商標)などの各種の通信インターフェース回路及びそれらを駆動するドライバソフトウェアなどで構成される。具体的には、通信部30は、後述の信号処理部42によって人物が検出された場合に、人物を検出したことを示すアラーム信号を警備装置14に出力する。 The communication unit 30 is an input / output interface for transmitting and receiving various setting signals and control signals between the image sensor 22 and the security device 14 via a communication network such as a premises LAN, and various types such as Ethernet (registered trademark). It is composed of the communication interface circuit of the above and the driver software that drives them. Specifically, when a person is detected by the signal processing unit 42 described later, the communication unit 30 outputs an alarm signal indicating that the person has been detected to the security device 14.

撮影部32は、CCDなどの、可視光などに感度を有する光電変換器で構成された2次元検出器と、その2次元検出器上に監視領域の像を結像する結像光学系などで構成される。撮影部32としては、例えば、単方位カメラあるいは全方位カメラを利用することができる。撮影部32は、監視領域を順次撮影することによって撮影画像を順次取得する。本実施形態では、撮影部32は、一定の時間間隔(例えば1/5秒)毎に撮影を行うが、撮影部32の撮影方法はこれには限られない。取得された撮影画像は記憶部34に記憶される。 The photographing unit 32 includes a two-dimensional detector composed of a photoelectric converter having sensitivity to visible light such as a CCD, and an imaging optical system that forms an image of a monitoring area on the two-dimensional detector. It is composed. As the photographing unit 32, for example, a unidirectional camera or an omnidirectional camera can be used. The photographing unit 32 sequentially acquires captured images by sequentially photographing the monitoring area. In the present embodiment, the photographing unit 32 shoots at regular time intervals (for example, 1/5 second), but the photographing method of the photographing unit 32 is not limited to this. The acquired captured image is stored in the storage unit 34.

記憶部34は、半導体メモリ、磁気ディスク(HDD)、又はCD−ROM、DVD−RAMなどの光ディスクドライブ及びその記録媒体で構成される。記憶部34には、画像センサ22の各部を動作させるための画像処理プログラムが記憶される。また、図2に示される通り、記憶部34には、撮影部32が順次取得した複数の撮影画像36、背景画像38、及び参照情報40が記憶される。 The storage unit 34 is composed of a semiconductor memory, a magnetic disk (HDD), an optical disk drive such as a CD-ROM or a DVD-RAM, and a recording medium thereof. The storage unit 34 stores an image processing program for operating each part of the image sensor 22. Further, as shown in FIG. 2, the storage unit 34 stores a plurality of captured images 36, background images 38, and reference information 40 sequentially acquired by the photographing unit 32.

背景画像38は、監視領域の背景を撮影した画像であり、監視領域内に人物が存在していないときの撮影画像36に基づいて、後述の背景画像更新手段54により作成あるいは更新される。背景画像38の更新処理の詳細については後述する。 The background image 38 is an image obtained by photographing the background of the monitoring area, and is created or updated by the background image updating means 54 described later based on the captured image 36 when no person exists in the monitoring area. The details of the update process of the background image 38 will be described later.

参照情報40は、検出対象(本実施形態では人物)の特徴を表す情報であり、本実施形態では、人物の標準的な身長を示す参照身長(例えば180cm)、人物の標準的な幅を示す参照身幅(例えば60cm)、及び、人物の標準的な移動速度を示す参照移動速度を示す情報を含んでいる。 The reference information 40 is information representing the characteristics of the detection target (person in the present embodiment), and in the present embodiment, the reference height (for example, 180 cm) indicating the standard height of the person and the standard width of the person are indicated. It contains a reference width (eg, 60 cm) and information indicating a reference movement speed indicating the standard movement speed of the person.

信号処理部42は、組み込み型のマイクロプロセッサユニットと、ROM、RAMなどのメモリと、その周辺回路とを有し、画像センサ22の各種信号処理を実行する。図2に示されるように、信号処理部42は、差分処理手段44、低速移動体判定手段46、ラベル整形手段48、追跡手段50、侵入者判定手段52、及び、背景画像更新手段54としての機能を発揮する。信号処理部42がこれらの手段を発揮することで、撮影画像36において、人物(侵入者)を示す画像領域である移動体領域が検出される。特に、本実施形態では、極端に移動速度が低い低速移動体としての人物を示す低速移動体領域が検出される。以下、信号処理部42が有する各手段について説明する。 The signal processing unit 42 has a built-in microprocessor unit, memories such as ROM and RAM, and peripheral circuits thereof, and executes various signal processing of the image sensor 22. As shown in FIG. 2, the signal processing unit 42 serves as a difference processing means 44, a low-speed moving body determining means 46, a label shaping means 48, a tracking means 50, an intruder determining means 52, and a background image updating means 54. Demonstrate function. When the signal processing unit 42 exerts these means, the moving body region, which is an image region showing a person (intruder), is detected in the captured image 36. In particular, in the present embodiment, a low-speed moving body region indicating a person as a low-speed moving body having an extremely low moving speed is detected. Hereinafter, each means included in the signal processing unit 42 will be described.

差分処理手段44は、撮影画像36と、記憶部34に予め記憶された背景画像38とを比較して、両画像間で相違する画素を抽出し、抽出された画素を第1の値(例えば1)とし、抽出されない画素を第2の値(例えば0)とする二値画像である背景差分画像を求める背景差分処理を行う。ここで「両画像間で相違する画素」とは、撮影画像36と背景画像38との間で輝度値又は色成分の差が所定値以上である撮影画像36の画素を意味する。差分処理手段44は、順次取得される複数の撮影画像36それぞれと、背景画像38との間で背景差分処理を行う。 The difference processing means 44 compares the captured image 36 with the background image 38 stored in advance in the storage unit 34, extracts pixels that differ between the two images, and sets the extracted pixels to a first value (for example,). 1), a background subtraction process for obtaining a background subtraction image, which is a binary image in which the pixels not extracted is set to a second value (for example, 0), is performed. Here, the "pixels different between the two images" mean the pixels of the captured image 36 in which the difference in luminance value or color component between the captured image 36 and the background image 38 is equal to or greater than a predetermined value. The difference processing means 44 performs background subtraction processing between each of the plurality of captured images 36 that are sequentially acquired and the background image 38.

図3には、低速移動体領域を検出する対象となる撮影画像36である対象画像36a(a)、背景画像38(b)、及び背景差分画像60(c)の例が示されている。ちなみに、対象画像36aは、記憶部34に記憶された複数の撮影画像36のうち、必ずしも最新の撮影画像36でなくてもよい。図3(a)の例のように、対象画像36aに人物が含まれている場合には、背景差分処理により、図3(c)に示されるように、当該人物に対応する画素群からなる背景差分領域62が抽出される。なお、背景差分領域62に含まれる画素を背景差分抽出画素と呼ぶ。 FIG. 3 shows examples of the target image 36a (a), the background image 38 (b), and the background subtraction image 60 (c), which are the captured images 36 for detecting the low-speed moving body region. By the way, the target image 36a does not necessarily have to be the latest captured image 36 among the plurality of captured images 36 stored in the storage unit 34. When a person is included in the target image 36a as in the example of FIG. 3A, it is composed of a pixel group corresponding to the person as shown in FIG. 3C by background subtraction processing. The background subtraction region 62 is extracted. The pixels included in the background subtraction region 62 are called background subtraction extraction pixels.

差分処理手段44は、背景差分画像60において、抽出した背景差分領域62を含む判定領域66を求める。後述するように判定領域66は、低速移動体領域の有無を判定するための領域である。本実施形態では、差分処理手段44は、背景差分領域62の外接矩形を判定領域66とする。なお、本実施形態では、判定領域66として背景差分領域62の外接矩形としているが、これに限らず、検出したい低速移動体が差分期間内に移動し得る範囲を加味した上限範囲として余裕を持たせてもよい。当該余裕は、検出したい低速移動体の特性に応じて予め定めておくのが好適である。このような判定領域の設定は高速移動体の影響を排除する意図がある。判定領域66を示す情報としては、例えば判定領域66の対頂点の座標が保持される。 The difference processing means 44 obtains a determination area 66 including the extracted background difference area 62 in the background difference image 60. As will be described later, the determination area 66 is an area for determining the presence or absence of the low-speed moving body area. In the present embodiment, the subtraction processing means 44 uses the circumscribing rectangle of the background subtraction region 62 as the determination region 66. In the present embodiment, the determination area 66 is the circumscribing rectangle of the background subtraction area 62, but the present invention is not limited to this, and there is a margin as an upper limit range in consideration of the range in which the low-speed moving body to be detected can move within the difference period. You may let me. It is preferable that the margin is set in advance according to the characteristics of the low-speed moving body to be detected. The setting of such a determination area is intended to eliminate the influence of the high-speed moving body. As the information indicating the determination area 66, for example, the coordinates of the opposite vertices of the determination area 66 are held.

また、差分処理手段44は、各背景差分抽出画素に対して識別子(ラベル)を付与するラベリング処理を行う。ラベルとしては、例えば、背景差分画像60内でユニークな数値を用いることができる。ラベリング処理では、ある背景差分抽出画素に注目したとき、当該画素に隣接している他の背景差分抽出画素からなる一塊の画素群を1つの背景差分領域62とみなす。なお、背景差分抽出画素に隣接する画素とは、背景差分抽出画素の上下左右方向に隣接する画素であってもよいし、斜め方向に隣接する画素まで含めてもよい。その上で、各背景差分領域62に対して異なるラベルを付与し、背景差分画像60の画素値として記憶する処理を行う。以下、ラベルが付与された背景差分領域62のことをラベル領域64と呼ぶ場合がある。 Further, the difference processing means 44 performs labeling processing for assigning an identifier (label) to each background subtraction extraction pixel. As the label, for example, a unique numerical value in the background subtraction image 60 can be used. In the labeling process, when attention is paid to a certain background subtraction pixel, a group of pixels composed of other background subtraction extraction pixels adjacent to the pixel is regarded as one background subtraction region 62. The pixels adjacent to the background subtraction extraction pixels may be pixels adjacent to the background subtraction extraction pixels in the vertical and horizontal directions, or may include pixels adjacent to the background subtraction extraction pixels in the oblique direction. Then, different labels are given to each background subtraction region 62, and processing is performed to store the background subtraction image 60 as a pixel value. Hereinafter, the background subtraction area 62 to which the label is attached may be referred to as a label area 64.

さらに、差分処理手段44は、異なる時点に撮影された2つの撮影画像36を比較して、両画像間で相違する画素を抽出し、抽出された画素を第1の値(例えば1)とし、抽出されなかった画素を第2の値(例えば0)とする二値画像であるフレーム間差分画像を求めるフレーム間差分処理を行う。ここで、差分処理手段44は、対象画像36aの撮影時刻を含む差分期間内に撮影された各撮影画像36間でフレーム間差分処理を行い、複数のフレーム間差分画像を求める。なお、差分期間については後に詳細に説明する。本実施形態では、差分処理手段44は、対象画像36aの撮影時刻から過去の差分期間に撮影された各撮影画像36間でフレーム間差分処理を行うが、フレーム間差分処理の対象となる撮影画像36としては、対象画像36aよりも未来に撮影された撮影画像36が含まれていてもよい。 Further, the difference processing means 44 compares two captured images 36 captured at different time points, extracts pixels that differ between the two images, and sets the extracted pixels as the first value (for example, 1). Interframe difference processing is performed to obtain an interframe difference image which is a binary image in which the extracted pixels are set to a second value (for example, 0). Here, the difference processing means 44 performs inter-frame difference processing between each photographed image 36 photographed within the difference period including the image-taking time of the target image 36a, and obtains a plurality of inter-frame difference images. The difference period will be described in detail later. In the present embodiment, the difference processing means 44 performs inter-frame difference processing between each of the captured images 36 captured in the past difference period from the capture time of the target image 36a, but the captured image to be the target of the inter-frame difference processing. The 36 may include a captured image 36 captured in the future than the target image 36a.

図4には、複数の撮影画像36と、複数のフレーム間差分画像68−1〜68−4(以下、包括してフレーム間差分画像68と記載する場合がある)が示されている。図4の例では、対象画像36aから5フレーム分が差分期間内に撮影された撮影画像36となっている。図4の例では、複数の撮影画像36に極端に移動速度が遅い人物が含まれており、各撮影画像36に含まれる人物に対応する画素と、その1フレーム前の撮影画像36の人物に対応する画素とが一部重複している。 FIG. 4 shows a plurality of captured images 36 and a plurality of inter-frame difference images 68-1 to 68-4 (hereinafter, may be comprehensively referred to as inter-frame difference images 68). In the example of FIG. 4, 5 frames from the target image 36a are captured images 36 captured within the difference period. In the example of FIG. 4, a plurality of captured images 36 include a person whose moving speed is extremely slow, and the pixels corresponding to the person included in each captured image 36 and the person in the captured image 36 one frame before the pixel are included. Some of the corresponding pixels overlap.

差分処理手段44は、対象画像36aとその1フレーム前の撮影画像36−1との間のフレーム間差分画像68−1、撮影画像36−1とその1フレーム前の撮影画像36−2との間のフレーム間差分画像68−2、撮影画像36−2とその1フレーム前の撮影画像36−3との間のフレーム間差分画像68−3、及び、撮影画像36−3とその1フレーム前の撮影画像36−4との間のフレーム間差分画像68−4を求める。 The difference processing means 44 sets the inter-frame difference image 68-1 between the target image 36a and the captured image 36-1 one frame before the target image 36a, the captured image 36-1 and the captured image 36-2 one frame before the target image 36a. Inter-frame difference image 68-2, inter-frame difference image 68-3 between captured image 36-2 and captured image 36-3 one frame before, and captured image 36-3 and one frame before The inter-frame difference image 68-4 between the captured image 36-4 and the captured image 36-4 is obtained.

上述のように、各撮影画像36に含まれる人物に対応する画素と、その1フレーム前の撮影画像36の人物に対応する画素とが一部重複しているから、各フレーム間差分画像68においては、一方の撮影画像36で人物に対応する画素であったが他方の撮影画像36で人物に対応する画素でなくなった画素、一方の撮影画像36で人物に対応する画素ではなかったが他方の撮影画像36で人物に対応する画素となった画素が抽出される。このように抽出された画素をフレーム間差分抽出画素と呼び、フレーム間差分抽出画素の集合をフレーム間差分領域70と呼ぶ。 As described above, since the pixels corresponding to the person included in each captured image 36 and the pixels corresponding to the person in the captured image 36 one frame before the pixel partially overlap, the difference image 68 between frames is used. Is a pixel corresponding to a person in one captured image 36 but not a pixel corresponding to a person in the other captured image 36, and a pixel not corresponding to a person in one captured image 36 but the other. Pixels that are pixels corresponding to a person in the captured image 36 are extracted. The pixels extracted in this way are called inter-frame difference extraction pixels, and the set of inter-frame difference extraction pixels is called an inter-frame difference region 70.

また、本実施形態では、複数のフレーム間差分画像68のうち、対象画像36aと他の撮影画像36との間のフレーム間差分画像68を対象フレーム間差分画像68aと呼ぶ。 Further, in the present embodiment, among the plurality of inter-frame difference images 68, the inter-frame difference image 68 between the target image 36a and the other captured image 36 is referred to as the inter-frame difference image 68a.

低速移動体判定手段46は、複数のフレーム間差分画像68を用いて、対象画像36aから低速移動体を検出する低速移動体検出処理を行う。 The low-speed moving body determination means 46 uses a plurality of inter-frame difference images 68 to perform a low-speed moving body detection process for detecting a low-speed moving body from the target image 36a.

低速移動体判定手段46は、背景差分画像60において求めた判定領域66を対象フレーム間差分画像68a内に適用する。図5(a)には、対象フレーム間差分画像68aに適用された判定領域66が示されている。その上で、低速移動体判定手段46は、対象フレーム間差分画像68aにおける、判定領域66内のフレーム間差分領域70の面積である第1面積Sを求める。第1面積Sは、換言すれば、対象フレーム間差分画像68aにおける、判定領域66内にあるフレーム間差分抽出画素の数である。 The low-speed moving body determination means 46 applies the determination area 66 obtained in the background subtraction image 60 within the target frame subtraction image 68a. FIG. 5A shows a determination region 66 applied to the inter-frame difference image 68a. On top of that, the low-speed moving body determination means 46, in the difference image 68a between the target frame, determining a first area S 1 is the area of the inter-frame difference area 70 in the determination area 66. The first area S 1 is, in other words, the number of inter-frame difference extraction pixels in the determination region 66 in the inter-frame difference image 68a.

また、低速移動体判定手段46は、差分処理手段44によるフレーム間差分処理によって求められた複数のフレーム間差分画像68内のフレーム間差分領域70を蓄積した(足し合わせた)蓄積差分画像を求める。図4の例では、対象フレーム間差分画像68a、フレーム間差分画像68−2〜68−4のそれぞれのフレーム間差分領域70を足し合わせて蓄積差分画像を求める。図5(b)には、そのようにして求められた蓄積差分画像80が示されている。蓄積差分画像80に含まれる、複数のフレーム間差分画像68のフレーム間差分領域70を足し合わせた領域を蓄積フレーム間差分領域72と呼ぶ。 Further, the low-speed moving body determining means 46 obtains the accumulated difference image in which the inter-frame difference region 70 in the plurality of inter-frame difference images 68 obtained by the inter-frame difference processing by the difference processing means 44 is accumulated (added). .. In the example of FIG. 4, the accumulated difference image is obtained by adding the inter-frame difference areas 70 of the target inter-frame difference image 68a and the inter-frame difference images 68-2 to 68-4. FIG. 5B shows the accumulated difference image 80 thus obtained. The area obtained by adding the inter-frame difference areas 70 of the plurality of inter-frame difference images 68 included in the accumulated difference image 80 is referred to as an inter-frame difference area 72.

その上で、低速移動体判定手段46は、蓄積差分画像80に判定領域66を適用し、蓄積差分画像80における、判定領域66内の蓄積フレーム間差分領域72の面積である第2面積Sを求める。 On top of that, the low-speed moving body decision means 46 applies a determination region 66 in the accumulation subtraction image 80, in the accumulation subtraction image 80, second determination area is the area of the storage frame difference area 72 in the region 66 S 2 Ask for.

監視領域に侵入した人物が低速で移動している場合、各撮影画像36における人物に対応する画素の位置が少しずつ異なるから、各フレーム間差分画像68におけるフレーム間差分領域70の位置も少しずつ異なる。したがって、各フレーム間差分画像68におけるフレーム間差分領域70を足し合わせていくと、蓄積フレーム間差分領域72の面積が徐々に増えていくことになる。よって、判定領域66内についてみると、対象フレーム間差分画像68aにおけるフレーム間差分領域70の面積である第1面積Sに比して、蓄積差分画像80における蓄積フレーム間差分領域72の面積である第2面積Sの方が大きくなる。 When a person who has invaded the monitoring area is moving at a low speed, the positions of the pixels corresponding to the person in each captured image 36 are slightly different, so that the position of the inter-frame difference area 70 in each inter-frame difference image 68 is also slightly different. different. Therefore, when the inter-frame difference regions 70 in each inter-frame difference image 68 are added together, the area of the accumulated inter-frame difference region 72 gradually increases. Therefore, looking for the determination area 66, in comparison with the first area S 1 is the area of the frame difference area 70 in the difference image 68a between the target frame, the area of the storage frame difference area 72 in the storage difference image 80 A certain second area S 2 is larger.

ここで、監視領域に侵入した人物の移動速度が速い場合、換言すれば、当該人物が低速移動体でない場合を考える。図6には、図4同様、複数の撮影画像36と、複数のフレーム間差分画像68が示されている。図6の例では、複数の撮影画像36に極端に移動速度が速い人物が含まれており、各撮影画像36に含まれる人物に対応する画素と、その1フレーム前の撮影画像36の人物に対応する画素が重複していない。 Here, consider the case where the moving speed of the person who has entered the monitoring area is high, in other words, the case where the person is not a low-speed moving body. Similar to FIG. 4, FIG. 6 shows a plurality of captured images 36 and a plurality of inter-frame difference images 68. In the example of FIG. 6, a plurality of captured images 36 include a person having an extremely high moving speed, and the pixels corresponding to the person included in each captured image 36 and the person in the captured image 36 one frame before the pixel are included. Corresponding pixels do not overlap.

この場合、各フレーム間差分画像68においては、一方の撮影画像36で人物に対応する画素の全てと、他方の撮影画像36で人物に対応する画素の全ての両方がフレーム間差分領域70として抽出される。 In this case, in each frame-to-frame difference image 68, both all the pixels corresponding to the person in one captured image 36 and all the pixels corresponding to the person in the other captured image 36 are extracted as the inter-frame difference region 70. Will be done.

図6の例において、判定領域66が適用された対象フレーム間差分画像68aが図7(a)に示され、判定領域66が適用された蓄積差分画像80が図7(b)に示されている。監視領域に侵入した人物の移動速度が速い場合、各撮影画像36における人物に対応する画素の位置は重複しない。したがって、図7(b)に示される通り、各フレーム間差分画像68におけるフレーム間差分領域70を足し合わせると、蓄積フレーム間差分領域72としては、各撮影画像36における人物に対応する画素領域が重複せずに並ぶだけである。この場合、判定領域66内についてみると、対象フレーム間差分画像68aにおけるフレーム間差分領域70の面積である第1面積Sと、蓄積差分画像80における蓄積フレーム間差分領域72の面積である第2面積Sは同等となる。 In the example of FIG. 6, the inter-frame difference image 68a to which the determination area 66 is applied is shown in FIG. 7A, and the accumulated difference image 80 to which the determination area 66 is applied is shown in FIG. 7B. There is. When the moving speed of the person who has entered the monitoring area is high, the positions of the pixels corresponding to the person in each captured image 36 do not overlap. Therefore, as shown in FIG. 7B, when the inter-frame difference regions 70 in each inter-frame difference image 68 are added together, the accumulated inter-frame difference region 72 includes a pixel region corresponding to a person in each captured image 36. They just line up without duplication. In this case, looking at the the determination area 66, the first area S 1 is the area of the frame difference area 70 in the difference image 68a between the target frame is the area of the storage frame difference area 72 in the storage difference image 80 The two areas S 2 are equivalent.

以上の通りであるので、低速移動体判定手段46は、第1面積Sから第2面積Sへの面積増加率ΔS[%]を求め、求めた面積増加率ΔSが所定の増加率閾値以上である場合に、判定領域66内に低速移動体領域が有ると判定する。換言すれば、低速移動体判定手段46は、第1面積Sから第2面積Sへの面積増加率ΔS[%]が所定の増加率閾値未満である場合は、判定領域66内に低速移動体領域が無いと判定する。ここで、面積増加率ΔSは、以下の式で求められる。
ΔS=((S−S)/S)×100
なお、上記の式の分母をSの代わりに後述するSを用いて増加率ΔSを算出してもよい。
Because are as above, low-speed moving body determination means 46, the first area S 1 obtains the area increase ratio [Delta] S [%] of the second area S 2, obtained area increase rate [Delta] S is a predetermined increase rate threshold In the above case, it is determined that the low-speed moving body area exists in the determination area 66. In other words, the low-speed moving body determination means 46, when the area rate of increase from the first area S 1 to the second area S 2 [Delta] S [%] is less than the predetermined increase rate threshold, slow in the determination area 66 It is determined that there is no moving body area. Here, the area increase rate ΔS is calculated by the following formula.
ΔS = ((S 2 -S 1 ) / S 1) × 100
The rate of increase ΔS may be calculated using S 3 described later instead of S 1 as the denominator of the above equation.

監視領域に侵入した人物の速度がかなり小さい場合、各フレーム間差分画像68におけるフレーム間差分領域70の面積がかなり小さくなる。差分期間が一定であれば、各フレーム間差分画像68におけるフレーム間差分領域70の面積が小さいほど、蓄積差分画像80における蓄積フレーム間差分領域72の面積(つまり第2面積S)が小さくなる。これは、低速移動体が判定領域66内にあると判定されにくくなる方向に作用する。ここで、差分期間が長い程、蓄積処理の対象となるフレーム間差分画像68の数が増えるから、第2面積Sをより大きくすることができる。 When the speed of the person who has entered the monitoring area is considerably low, the area of the inter-frame difference area 70 in each inter-frame difference image 68 becomes considerably small. If the difference period is constant, as the area of the frame difference area 70 in the difference image 68 between the frames is small, the area of the storage frame difference area 72 in the storage difference image 80 (i.e., the second area S 2) is reduced .. This acts in a direction that makes it difficult for the low-speed moving body to be determined to be in the determination area 66. Here, the longer the difference period, because the number of inter-frame difference image 68 to be storage processing is increased, it is possible to further increase the second area S 2.

したがって、本実施形態では、低速移動体判定手段46によって対象フレーム間差分画像68aにおける判定領域66内のフレーム間差分領域70の面積(つまり第1面積S)が算出された場合に、差分処理手段44は、対象フレーム間差分画像68aの判定領域66の面積に占める第1面積Sの割合が小さいほど、差分期間を大きい値に設定するようにしてもよい。単に第1面積Sの大きさに応じて差分期間を変更しないのは、撮影画像36における人物に対応する画素領域の大きさを考慮したからである。その上で、差分処理手段44は、設定した差分期間内に撮影された各撮影画像36間のフレーム間差分画像68を求め、低速移動体判定手段46は、新たに求められた複数のフレーム間差分画像68を用いて、上述の低速移動体判定処理を行う。 Therefore, in the present embodiment, when the area of the inter-frame difference area 70 (that is, the first area S 1 ) in the determination area 66 in the target inter-frame difference image 68a is calculated by the low-speed moving body determination means 46, the difference processing is performed. means 44, as the ratio of the first area S 1 occupied in the area of the determination region 66 of the target inter-frame difference image 68a is small, may be set to a large value difference period. Simply do not change the difference period in accordance with the size of the first area S 1 is because considering the size of the pixel area corresponding to the person in the captured image 36. Then, the difference processing means 44 obtains the inter-frame difference image 68 between the captured images 36 taken within the set difference period, and the low-speed moving body determining means 46 obtains the inter-frame difference image 68 between the newly obtained plurality of captured images. The above-mentioned low-speed moving body determination process is performed using the difference image 68.

また、上述のように、監視領域に侵入した人物の移動速度が速い場合、各撮影画像36に含まれる人物に対応する画素と、その1フレーム前の撮影画像36の人物に対応する画素とが重複しないから、図8(a)に再度示す通り(図6も参照)、対象フレーム間差分画像68aにおけるフレーム間差分領域70としては、対象画像36aにおける人物に対応する画素領域と、撮影画像36−1における人物に対応する画素領域とが重複せずに並ぶだけである。このとき、対象フレーム間差分画像68aにおける判定領域66内のフレーム間差分領域70の面積(つまり第1面積S)と、図8(b)に示す背景差分画像60における判定領域66内の背景差分領域62の面積である第3面積Sは同等となる。 Further, as described above, when the moving speed of the person who has entered the monitoring area is high, the pixels corresponding to the person included in each captured image 36 and the pixels corresponding to the person in the captured image 36 one frame before the pixel are Since there is no overlap, as shown again in FIG. 8A (see also FIG. 6), the inter-frame difference area 70 in the target frame-to-frame difference image 68a includes a pixel area corresponding to a person in the target image 36a and a captured image 36. Only the pixel areas corresponding to the person in -1 are lined up without overlapping. At this time, the area of the frame difference area 70 in the determination area 66 in the difference image 68a between the target frame (i.e., the first area S 1), the background of the determination area 66 in the background difference image 60 shown in FIG. 8 (b) the third area S 3 is the area of the differential area 62 becomes equal.

したがって、低速移動体判定手段46は、背景差分画像60における判定領域66内の背景差分領域62の面積である第3面積Sを求め、第1面積Sと第3面積Sとの差が所定の面積差閾値以下である場合には、監視領域に侵入した人物の移動速度が速い、つまり、判定領域66内に低速移動体領域が無い、と判定するようにしてもよい。 Thus, low-speed moving body decision means 46 obtains the third area S 3 is the area of the background difference region 62 within the determination region 66 in the background differential image 60, the difference between the first area S 1 and the third area S 3 When is less than or equal to a predetermined area difference threshold value, it may be determined that the moving speed of the person who has entered the monitoring area is high, that is, there is no low-speed moving body area in the determination area 66.

図2に戻り、ラベル整形手段48は、差分処理手段44の背景差分処理により抽出された各ラベル領域64を整形するラベル整形処理を実行する。例えば、所定範囲内にある複数のラベル領域64を、統合した場合に人物らしい大きさあるいは形状の領域となるかどうかなどの所定の条件に基づいて、複数のラベル領域64を統合するラベル統合処理を実行する。ラベル統合処理によれば、例えば、同一人物の上半身と下半身とがそれぞれ異なるラベル領域64として抽出された場合に、当該2つのラベル領域64を統合して1人の人物の像に対応する1つのラベル領域64とすることができる。 Returning to FIG. 2, the label shaping means 48 executes a label shaping process for shaping each label area 64 extracted by the background subtraction process of the difference processing means 44. For example, a label integration process for integrating a plurality of label areas 64 based on a predetermined condition such as whether or not a plurality of label areas 64 within a predetermined range become a human-like size or shape area when integrated. To execute. According to the label integration process, for example, when the upper body and the lower body of the same person are extracted as different label areas 64, the two label areas 64 are integrated to correspond to the image of one person. It can be the label area 64.

また、例えば、ラベル整形手段48は、ラベル領域64から人領域を切り出して別のラベル領域64とするラベル分離処理を行ってもよい。ラベル分離処理は、人領域及び影領域を含む1つのラベル領域64から人領域を切り出す処理などを含む。 Further, for example, the label shaping means 48 may perform a label separation process of cutting out a human area from the label area 64 and using it as another label area 64. The label separation process includes a process of cutting out a human area from one label area 64 including a human area and a shadow area.

また、例えば、ラベル整形手段48は、ラベル領域64を削除するラベル削除処理を行ってもよい。ラベル削除処理は、明らかに人物でないと判断できるラベル領域64を削除する処理である。例えば、人物のサイズに対して大きすぎる、あるいは小さすぎるラベル領域64を削除する。 Further, for example, the label shaping means 48 may perform a label deletion process for deleting the label area 64. The label deletion process is a process of deleting a label area 64 that can be clearly determined not to be a person. For example, the label area 64, which is too large or too small for the size of the person, is deleted.

また、差分期間に含まれる複数の撮影画像36において、例えばレンズフレアなどによって、一様なノイズが重畳される場合がある。この場合、図9(a)に示す通り、背景差分画像60に含まれる背景差分領域62には、当該ノイズに対応する画素が含まれてしまい、背景差分領域62の面積が大きくなり、また、その外形も人らしくなくなってしまう場合がある。 Further, in a plurality of captured images 36 included in the difference period, uniform noise may be superimposed due to, for example, lens flare. In this case, as shown in FIG. 9A, the background subtraction region 62 included in the background subtraction image 60 includes pixels corresponding to the noise, and the area of the background subtraction region 62 becomes large. The outer shape may also become unhuman.

このような場合、ラベル整形手段48は、上述のラベル統合処理、ラベル分離処理、及びラベル削除処理に先立って、蓄積差分画像80における、低速移動体領域があると判定された判定領域66内の蓄積フレーム間差分領域72(図9(b)参照)に基づいて、背景差分領域62を整形するようにしてもよい。本実施形態では、ラベル整形手段48は、背景差分画像60の元の判定領域66(図9(a)参照)内において背景差分領域62として抽出され、かつ、蓄積差分画像80に適用された元の判定領域66(図9(b)参照)内において蓄積フレーム間差分領域72として抽出された画素領域を更新後背景差分領域62’とする。また、更新後背景差分領域62’に合わせて、判定領域66も更新するようにしてもよい。具体的には、更新後背景差分領域62’の外接矩形を更新後判定領域66’としてもよい。更新後判定領域66’は、判定領域66よりも小さい面積とすることが可能であり、これにより、後述の背景画像更新手段54による背景画像更新処理において、背景画像38として用いることのできる画像領域をより大きく取ることができる。 In such a case, the label shaping means 48 is in the determination area 66 in the accumulated difference image 80 where it is determined that there is a low-speed moving body area prior to the above-mentioned label integration process, label separation process, and label deletion process. The background subtraction region 62 may be shaped based on the storage frame-to-frame difference region 72 (see FIG. 9B). In the present embodiment, the label shaping means 48 is extracted as the background subtraction area 62 in the original determination area 66 (see FIG. 9A) of the background subtraction image 60, and is applied to the accumulated difference image 80. The pixel area extracted as the accumulation frame subtraction area 72 in the determination area 66 (see FIG. 9B) is referred to as the updated background subtraction area 62'. Further, the determination area 66 may also be updated in accordance with the background subtraction area 62'after the update. Specifically, the circumscribing rectangle of the updated background subtraction region 62'may be used as the updated determination region 66'. The post-update determination area 66'can have an area smaller than the determination area 66, and thus an image area that can be used as the background image 38 in the background image update process by the background image update means 54 described later. Can be taken larger.

追跡手段50は、撮影部32が順次取得した複数の撮影画像36のそれぞれから抽出され、ラベル整形手段48にて整形されたラベル領域64を時間的に追跡する処理を行う。具体的には、追跡手段50は、今回取得された撮影画像36から抽出されてラベル整形手段48により整形された、各ラベル領域64と、過去に取得された撮影画像36から抽出されて、記憶部34に追跡用情報として記憶されているラベル領域64(以下「追跡ラベル領域」と記載する)とを同定する処理(同一人物に対応するラベル領域64であると判定する処理)を行う。ここで、追跡用情報は、追跡ラベル領域に関する、追跡ID、撮影画像36上の位置、及び追跡用特徴量が関連付けられた情報である。追跡用特徴量は、追跡ラベル領域の実空間におけるサイズや形状、輝度ヒストグラム、テクスチャ情報などである。 The tracking means 50 performs a process of temporally tracking the label area 64 extracted from each of the plurality of captured images 36 sequentially acquired by the photographing unit 32 and shaped by the label shaping means 48. Specifically, the tracking means 50 is extracted from each label area 64 extracted from the captured image 36 acquired this time and shaped by the label shaping means 48, and stored in the captured image 36 acquired in the past. A process of identifying the label area 64 (hereinafter referred to as “tracking label area”) stored as tracking information in the unit 34 (a process of determining that the label area 64 corresponds to the same person) is performed. Here, the tracking information is information related to the tracking ID, the position on the captured image 36, and the tracking feature amount with respect to the tracking label area. The tracking feature amount is the size and shape of the tracking label area in the real space, the brightness histogram, the texture information, and the like.

追跡手段50は、今回取得された撮影画像36のラベル領域64の追跡用特徴量及び位置と、追跡ラベル領域の追跡用特徴量及び位置とを比較することで、今回取得された撮影画像36のラベル領域64と追跡ラベル領域とを同定する。例えば、追跡用特徴量が類似し、且つ、位置が近いもので同定する。そして、今回取得された撮影画像36のラベル領域64に対して、同定された追跡ラベル領域と同一の追跡IDを付与し、時系列に従って、今回取得された撮影画像36の当該ラベル領域64の追跡IDと、撮影画像36上の位置などを関連付けた上で記憶部34に追跡用情報として保存する。 The tracking means 50 compares the tracking feature amount and position of the label area 64 of the captured image 36 acquired this time with the tracking feature amount and position of the tracking label area, and thereby, the captured image 36 acquired this time. The label area 64 and the tracking label area are identified. For example, identification is performed by those having similar tracking features and close positions. Then, the same tracking ID as the identified tracking label area is assigned to the label area 64 of the captured image 36 acquired this time, and the tracking of the label area 64 of the captured image 36 acquired this time is tracked in chronological order. After associating the ID with the position on the captured image 36 and the like, the ID is stored in the storage unit 34 as tracking information.

なお、今回取得された撮影画像36のラベル領域64において、追跡ラベル領域と同定が得られなかったものについては、新規の人物が出現したものとして、当該ラベル領域64の追跡用特徴量に新規の追跡IDを付与する。また、これまで追跡していた追跡ラベル領域のうち、今回取得された撮影画像36のラベル領域64と同定が得られなかったものがある場合、当該追跡ラベル領域に対応する人物が消失したものとして、当該追跡用情報を削除する。 In the label area 64 of the captured image 36 acquired this time, those that could not be identified as the tracking label area are considered to have appeared as a new person, and are new to the tracking feature amount of the label area 64. Give a tracking ID. In addition, if there is a tracking label area that has been tracked so far that cannot be identified as the label area 64 of the captured image 36 acquired this time, it is assumed that the person corresponding to the tracking label area has disappeared. , Delete the tracking information.

侵入者判定手段52は、上述の各手段の処理結果に基づいて、対象画像36aに含まれるラベル領域64のそれぞれについて、移動体である人物(侵入者)に対応するものであるか否かを判定する。 Based on the processing results of each of the above-mentioned means, the intruder determining means 52 determines whether or not each of the label areas 64 included in the target image 36a corresponds to a person (intruder) who is a moving body. judge.

侵入者判定手段52は、移動体と判定されたラベル領域64が人らしいか否かを判定する。例えば、ラベル領域64の推定サイズ(推定高さあるいは推定幅)を求め、参照情報40に含まれる人物の標準的なサイズと比較することにより当該ラベル領域64が人らしいか否かを判定する。 The intruder determination means 52 determines whether or not the label area 64 determined to be a moving body is human. For example, the estimated size (estimated height or estimated width) of the label area 64 is obtained, and it is determined whether or not the label area 64 is human by comparing it with the standard size of the person included in the reference information 40.

また、侵入者判定手段52は、追跡手段50の追跡処理の結果から、ラベル領域64の移動量に基づいてラベル領域64の推定速度を求め、参照情報40に含まれる人物の標準的な移動速度との比較結果をも考慮して、当該ラベル領域64が人らしいか否かを判定するようにしてもよい。この際、低速移動体判定手段46にてラベル領域64が低速移動体領域であると判定されている場合、当該判定結果を考慮して、当該ラベル領域64が人らしいか否かを判定するようにしてもよい。例えば、ラベル領域64の移動量が標準的な移動速度よりも遅かったとしても、低速移動体領域と判定されているならば、(低速で移動する)人らしいと判定するようにしてもよい。あるいは、標準的な移動速度として設定した値を低速移動体領域と判定されたラベル領域64については小さい値に変更してもよい。 Further, the intruder determining means 52 obtains the estimated speed of the label area 64 based on the movement amount of the label area 64 from the result of the tracking process of the tracking means 50, and the standard moving speed of the person included in the reference information 40. It may be determined whether or not the label area 64 is human-like in consideration of the comparison result with. At this time, when the label area 64 is determined by the low-speed moving body determination means 46 to be the low-speed moving body area, it is determined whether or not the label area 64 is human-like in consideration of the determination result. It may be. For example, even if the movement amount of the label area 64 is slower than the standard movement speed, if it is determined to be a low-speed moving body region, it may be determined to be human-like (moving at a low speed). Alternatively, the value set as the standard moving speed may be changed to a smaller value for the label area 64 determined to be the low-speed moving body area.

上述の処理により、ラベル領域64が人らしいと判定された場合に、侵入者判定手段52は、対象画像36aに人物(侵入者)が含まれると判定し、通信部30からアラーム信号を出力させる。ここで、さらに、侵入者判定手段52は、予め定めたフレーム数(例えば、5フレーム)以上、同一の追跡IDが付与されたラベル領域64が連続して人らしいと判定された場合に、通信部30からアラーム信号を出力するようにしてもよい。 When the label area 64 is determined to be human by the above processing, the intruder determination means 52 determines that the target image 36a includes a person (intruder), and causes the communication unit 30 to output an alarm signal. .. Here, further, the intruder determination means 52 communicates when it is determined that the label area 64 to which the same tracking ID is assigned is continuously determined to be human-like by a predetermined number of frames (for example, 5 frames) or more. The alarm signal may be output from the unit 30.

背景画像更新手段54は、撮影画像36を用いて背景画像38を作成あるいは更新する。背景画像更新手段54は、監視領域に移動体が全く存在しないときの撮影画像36をそのまま背景画像38としてもよいが、撮影画像36のうち、移動体領域以外の部分を用いて背景画像38を部分的に更新することもできる。 The background image updating means 54 creates or updates the background image 38 using the captured image 36. The background image updating means 54 may use the captured image 36 when there is no moving body in the monitoring area as the background image 38 as it is, but the background image 38 may be used as the background image 38 by using a portion of the captured image 36 other than the moving body region. It can also be partially updated.

本実施形態における背景画像更新手段54は、差分処理手段44によるフレーム間差分処理、及び、低速移動体判定手段46による低速移動体判定処理の結果に基づいて、背景画像38を更新する。具体的には、まず、背景画像更新手段54は、差分処理手段44によるフレーム間差分処理によって、所定の安定判定期間、フレーム間差分領域70として抽出されない画像領域を安定領域として判定する。その上で、低速移動体判定手段46による低速移動体判定処理により低速移動体領域が有ると判定された判定領域66外の画像領域であり、かつ、上記安定領域であると判定された画像領域を用いて、背景画像38を更新する。換言すれば、背景画像更新手段54は、低速移動体領域が有ると判定された判定領域66は、背景画像38の更新には用いないようにする。 The background image updating means 54 in the present embodiment updates the background image 38 based on the results of the inter-frame difference processing by the difference processing means 44 and the low-speed moving body determination processing by the low-speed moving body determination means 46. Specifically, first, the background image updating means 54 determines an image area that is not extracted as the inter-frame difference area 70 for a predetermined stability determination period as a stable area by the inter-frame difference processing by the difference processing means 44. On top of that, the image area outside the determination area 66 determined to have the low-speed moving body area by the low-speed moving body determination process by the low-speed moving body determination means 46, and the image area determined to be the stable area. Is used to update the background image 38. In other words, the background image updating means 54 does not use the determination area 66 determined to have the low-speed moving body region for updating the background image 38.

なお、背景画像38は、照明状態の変動、太陽の日周変動などの監視領域の変動に対応するために、一定周期(例えば、10分間隔)毎に更新されるのが好適である。 The background image 38 is preferably updated at regular intervals (for example, every 10 minutes) in order to cope with fluctuations in the monitoring region such as fluctuations in the lighting state and daily fluctuations in the sun.

本実施形態に係る警備システム10の構成は以上の通りである。以下、図10に示すフローチャートに従って、低速移動体判定処理(一部差分処理手段44による処理を含む)の流れについて説明する。 The configuration of the security system 10 according to the present embodiment is as described above. Hereinafter, the flow of the low-speed moving body determination process (including the process by the partial difference processing means 44) will be described with reference to the flowchart shown in FIG.

ステップS10において、差分処理手段44は、撮影画像36と背景画像38とを比較して、背景差分画像60を求める背景差分処理を行う。 In step S10, the difference processing means 44 compares the captured image 36 with the background image 38 and performs background subtraction processing for obtaining the background difference image 60.

ステップS12において、差分処理手段44は、ステップS10で求めた背景差分画像60において、背景差分領域62の外接矩形を判定領域66に設定する。 In step S12, the difference processing means 44 sets the circumscribing rectangle of the background subtraction region 62 in the determination region 66 in the background subtraction image 60 obtained in step S10.

ステップS14において、差分処理手段44は、対象画像36aと、他の撮影画像36との間でフレーム間差分処理を行って、対象フレーム間差分画像68aを求める。 In step S14, the difference processing means 44 performs inter-frame difference processing between the target image 36a and the other captured image 36 to obtain the inter-frame difference image 68a.

ステップS16において、低速移動体判定手段46は、ステップS12で求めた判定領域66内の背景差分領域62の面積である第3面積Sを算出する。 In step S16, the low-speed moving object determination unit 46 calculates the third area S 3 is the area of the background difference region 62 in the determination area 66 determined in step S12.

ステップS18において、低速移動体判定手段46は、ステップS14で求めた対象フレーム間差分画像68aに、ステップS12で求めた判定領域66を適用する。さらに、低速移動体判定手段46は、対象フレーム間差分画像68aにおける、判定領域66内のフレーム間差分領域70の面積である第1面積Sを求める。 In step S18, the low-speed moving body determining means 46 applies the determination area 66 obtained in step S12 to the inter-frame difference image 68a obtained in step S14. Furthermore, the slow moving object determination means 46, in the difference image 68a between the target frame, determining a first area S 1 is the area of the inter-frame difference area 70 in the determination area 66.

ステップS20において、低速移動体判定手段46は、ステップS18で求めた第1面積SとステップS16で求めた第3面積Sとが同等であるか、つまり、第1面積Sと第3面積Sとの差が所定の面積差閾値以下であるか否かを判定する。第1面積Sと第3面積Sとの差が所定の面積差閾値以下である場合、ステップS22に進み、ステップS22において、低速移動体判定手段46は、当該判定領域66内に低速移動体領域は無い、と判定する。第1面積Sと第3面積Sとの差が所定の面積差閾値以下ではない場合、ステップS24に進む。 In step S20, the low-speed moving object determination means 46, or the third area S 3 obtained in the first area S 1 and step S16 obtained in step S18 is equal, i.e., the first area S 1 and the third It is determined whether or not the difference from the area S 3 is equal to or less than a predetermined area difference threshold. If the difference between the first area S 1 and the third area S 3 is less than or equal to the predetermined area difference threshold, the process proceeds to step S22, in step S22, the low-speed moving object determination means 46, the low-speed movement in the determination area 66 It is determined that there is no body area. If the difference between the first area S 1 and the third area S 3 is not less than a predetermined area difference threshold, the process proceeds to step S24.

ステップS24において、差分処理手段44は、対象画像36aの撮影時刻を含む差分期間を設定する。具体的には、差分処理手段44は、ステップS18で求めた、対象フレーム間差分画像68aの判定領域66の面積に占める第1面積Sの割合が小さいほど、差分期間を大きい値に設定する。 In step S24, the difference processing means 44 sets a difference period including the shooting time of the target image 36a. Specifically, the difference processing unit 44, calculated in step S18, as the ratio of the first area S 1 occupied in the area of the determination region 66 of the target inter-frame difference image 68a is small, set to a large value difference period ..

ステップS26において、差分処理手段44は、ステップS24で設定された差分期間内に撮影された各撮影画像36間でフレーム間差分処理を行い、複数のフレーム間差分画像68を求める。 In step S26, the difference processing means 44 performs inter-frame difference processing between each of the captured images 36 captured within the difference period set in step S24, and obtains a plurality of inter-frame difference images 68.

ステップS28において、低速移動体判定手段46は、ステップS26で求めた複数のフレーム間差分画像68内のフレーム間差分領域70を蓄積した蓄積差分画像80を生成する。 In step S28, the low-speed moving body determining means 46 generates an accumulated difference image 80 in which the inter-frame difference regions 70 in the plurality of inter-frame difference images 68 obtained in step S26 are accumulated.

ステップS30において、低速移動体判定手段46は、ステップS28で生成した蓄積差分画像80に、ステップS12で求めた判定領域66を適用し、蓄積差分画像80における、判定領域66内の蓄積フレーム間差分領域72の面積である第2面積Sを求める。 In step S30, the low-speed moving body determination means 46 applies the determination area 66 obtained in step S12 to the accumulated difference image 80 generated in step S28, and the difference between the accumulated frames in the determination area 66 in the accumulated difference image 80. determining a second area S 2 is the area of the region 72.

ステップS32において、低速移動体判定手段46は、第1面積Sから第2面積Sへの面積増加率ΔS[%]を求める。上述のように、面積増加率ΔSは、
ΔS=((S−S)/S)×100
で求められる。
In step S32, the low-speed moving object determination unit 46 calculates an area increase ratio from the first area S 1 to the second area S 2 ΔS [%]. As described above, the area increase rate ΔS is
ΔS = ((S 2 -S 1 ) / S 1) × 100
Is required by.

ステップS34において、低速移動体判定手段46は、ステップS32で求めた面積増加率ΔSが所定の増加率閾値以上であるか否かを判定する。面積増加率ΔSが増加率閾値以上である場合、ステップS36に進み、ステップS36において、低速移動体判定手段46は、当該判定領域66内に低速移動体領域が有る、と判定する。一方、面積増加率ΔSが増加率閾値未満である場合、ステップS22に進み、ステップS22において、低速移動体判定手段46は、当該判定領域66内に低速移動体領域は無い、と判定する。 In step S34, the low-speed moving body determining means 46 determines whether or not the area increase rate ΔS obtained in step S32 is equal to or greater than a predetermined increase rate threshold value. When the area increase rate ΔS is equal to or greater than the increase rate threshold value, the process proceeds to step S36, and in step S36, the low-speed moving body determining means 46 determines that the low-speed moving body area exists in the determination area 66. On the other hand, when the area increase rate ΔS is less than the increase rate threshold value, the process proceeds to step S22, and in step S22, the low-speed moving body determining means 46 determines that there is no low-speed moving body area in the determination area 66.

以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。 Although the embodiments according to the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the spirit of the present invention.

10 警備システム、12 監視対象物件、14 警備装置、16 通信網、18 警備センタ装置、20 利用者装置、22 画像センサ、24 録画装置、30 通信部、32 撮影部、34 記憶部、36 撮影画像、36a 対象画像、38 背景画像、40 参照情報、42 信号処理部、44 差分処理手段、46 低速移動体判定手段、48 ラベル整形手段、50 追跡手段、52 侵入者判定手段、54 背景画像更新手段、60 背景差分画像、62 背景差分領域、62’ 更新後背景差分領域、64 ラベル領域、66 判定領域、66’ 更新後判定領域、68 フレーム間差分画像、68a 対象フレーム間差分画像、70 フレーム間差分領域、72 蓄積フレーム間差分領域、80 蓄積差分画像。 10 security system, 12 monitored property, 14 security device, 16 communication network, 18 security center device, 20 user device, 22 image sensor, 24 recording device, 30 communication unit, 32 imaging unit, 34 storage unit, 36 captured image , 36a Target image, 38 background image, 40 reference information, 42 signal processing unit, 44 subtraction processing means, 46 low-speed moving object determination means, 48 label shaping means, 50 tracking means, 52 intruder determination means, 54 background image updating means. , 60 background subtraction image, 62 background subtraction area, 62'updated background subtraction area, 64 label area, 66 judgment area, 66' after update judgment area, 68 frame subtraction image, 68a target frame subtraction image, 70 frame interval Difference area, 72 accumulation frame difference area, 80 accumulation difference image.

Claims (6)

所定領域を順次撮影した撮影画像のうちの対象画像から低速移動体の画像領域を示す低速移動体領域を検出する画像処理装置であって、
前記所定領域の背景を撮影した背景画像と前記対象画像との間の背景差分処理によって抽出された背景差分領域を含む判定領域を求め、前記対象画像の撮影時刻を含む差分期間内に撮影された各前記撮影画像間のフレーム間差分処理によって、複数のフレーム間差分領域を求める差分処理手段と、
前記判定領域内にて、前記対象画像と他の前記撮影画像との間の前記フレーム間差分領域の面積である第1面積から、前記複数のフレーム間差分領域を蓄積した蓄積差分画像における前記フレーム間差分領域の面積である第2面積への面積増加率が増加率閾値以上である場合、該判定領域に前記低速移動体領域が有ると判定する低速移動体判定手段と、
を備えることを特徴とする画像処理装置。
An image processing device that detects a low-speed moving body area indicating an image area of a low-speed moving body from a target image among captured images obtained by sequentially shooting a predetermined area.
A determination area including the background subtraction area extracted by background subtraction processing between the background image obtained by photographing the background of the predetermined area and the target image was obtained, and the image was taken within the difference period including the shooting time of the target image. A difference processing means for obtaining a plurality of inter-frame subtraction regions by inter-frame subtraction processing between the captured images.
The frame in the accumulated difference image in which the plurality of inter-frame difference areas are accumulated from the first area which is the area of the inter-frame difference area between the target image and the other captured image in the determination area. When the area increase rate to the second area, which is the area of the difference region, is equal to or greater than the increase rate threshold, the low-speed moving body determining means for determining that the low-speed moving body region exists in the determination region, and
An image processing apparatus comprising.
前記低速移動体領域が有ると判定された前記蓄積差分画像における前記判定領域内の前記フレーム間差分領域に基づいて、前記背景差分領域を整形するラベル整形手段と、
をさらに備えることを特徴とする請求項1に記載の画像処理装置。
A label shaping means for shaping the background subtraction region based on the inter-frame subtraction region in the determination region in the accumulated difference image determined to have the low-speed moving body region.
The image processing apparatus according to claim 1, further comprising.
前記フレーム間差分処理によって、安定判定期間、前記フレーム間差分領域として抽出されなかった画像領域を安定領域と判定し、前記低速移動体領域が有ると判定された判定領域外の画像領域であって、前記安定領域と判定された画像領域を用いて前記背景画像を更新する背景画像更新手段
をさらに備えることを特徴とする請求項1又は2に記載の画像処理装置。
An image region outside the determination region determined to have the low-speed moving body region by determining the image region not extracted as the inter-frame difference region during the stability determination period by the inter-frame difference processing as a stable region. The image processing apparatus according to claim 1 or 2, further comprising a background image updating means for updating the background image using the image region determined to be the stable region.
前記差分処理手段は、前記判定領域の面積に占める前記第1面積の割合が小さいほど、前記差分期間を大きい値に設定する、
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
The difference processing means sets the difference period to a larger value as the ratio of the first area to the area of the determination area is smaller.
The image processing apparatus according to any one of claims 1 to 3, wherein the image processing apparatus is characterized.
前記判定領域内の前記背景差分領域の面積を示す第3面積を求め、前記第1面積と前記第3面積との差が面積差閾値以下である場合、前記判定領域に前記低速移動体領域が無いと判定する、
ことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
A third area indicating the area of the background subtraction region in the determination region is obtained, and when the difference between the first area and the third area is equal to or less than the area difference threshold value, the low-speed moving body region is included in the determination region. Judge no,
The image processing apparatus according to any one of claims 1 to 4, wherein the image processing apparatus is characterized.
所定領域を順次撮影した撮影画像のうちの対象画像から低速移動体の画像領域を示す低速移動体領域を検出するための画像処理プログラムであって、
コンピュータを、
前記所定領域の背景を撮影した背景画像と前記対象画像との間の背景差分処理によって抽出された背景差分領域を含む判定領域を求め、前記対象画像の撮影時刻を含む差分期間内に撮影された各前記撮影画像間のフレーム間差分処理によって、複数のフレーム間差分領域を求める差分処理手段と、
前記判定領域内にて、前記対象画像と他の前記撮影画像との間の前記フレーム間差分領域の面積である第1面積から、前記複数のフレーム間差分領域を蓄積した蓄積差分画像における前記フレーム間差分領域の面積である第2面積への面積増加率が増加率閾値以上である場合、該判定領域に前記低速移動体領域が有ると判定する低速移動体判定手段と、
として機能させることを特徴とする画像処理プログラム。
An image processing program for detecting a low-speed moving body area indicating an image area of a low-speed moving body from a target image among captured images obtained by sequentially shooting a predetermined area.
Computer,
A determination area including a background subtraction area extracted by background subtraction processing between the background image obtained by photographing the background of the predetermined area and the target image was obtained, and the image was taken within the difference period including the shooting time of the target image. A difference processing means for obtaining a plurality of inter-frame subtraction regions by inter-frame subtraction processing between the captured images, and
The frame in the accumulated difference image in which the plurality of inter-frame difference areas are accumulated from the first area which is the area of the inter-frame difference area between the target image and the other captured image in the determination area. When the area increase rate to the second area, which is the area of the difference region, is equal to or greater than the increase rate threshold, the low-speed moving body determining means for determining that the low-speed moving body region exists in the determination region, and
An image processing program characterized by functioning as.
JP2019044946A 2019-03-12 2019-03-12 Image processing device and image processing program Active JP7221092B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019044946A JP7221092B2 (en) 2019-03-12 2019-03-12 Image processing device and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019044946A JP7221092B2 (en) 2019-03-12 2019-03-12 Image processing device and image processing program

Publications (2)

Publication Number Publication Date
JP2020149221A true JP2020149221A (en) 2020-09-17
JP7221092B2 JP7221092B2 (en) 2023-02-13

Family

ID=72430548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019044946A Active JP7221092B2 (en) 2019-03-12 2019-03-12 Image processing device and image processing program

Country Status (1)

Country Link
JP (1) JP7221092B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07284086A (en) * 1994-04-05 1995-10-27 Nec Corp Method and device for generating background picture
JP2000341676A (en) * 1999-05-31 2000-12-08 Secom Co Ltd Picture monitoring device
JP2002218452A (en) * 2001-01-18 2002-08-02 Kawasaki Heavy Ind Ltd Method and device for monitoring moving object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07284086A (en) * 1994-04-05 1995-10-27 Nec Corp Method and device for generating background picture
JP2000341676A (en) * 1999-05-31 2000-12-08 Secom Co Ltd Picture monitoring device
JP2002218452A (en) * 2001-01-18 2002-08-02 Kawasaki Heavy Ind Ltd Method and device for monitoring moving object

Also Published As

Publication number Publication date
JP7221092B2 (en) 2023-02-13

Similar Documents

Publication Publication Date Title
JP6127152B2 (en) Security monitoring system and corresponding alarm triggering method
CN105894702B (en) Intrusion detection alarm system based on multi-camera data fusion and detection method thereof
US7751647B2 (en) System and method for detecting an invalid camera in video surveillance
JPH10285581A (en) Automatic monitoring device
JP5388829B2 (en) Intruder detection device
CN101640788B (en) Method and device for controlling monitoring and monitoring system
CN111163285A (en) High-altitude falling object monitoring method and system and computer readable storage medium
JP2019186955A (en) Information processing system, information processing method, and program
KR101454644B1 (en) Loitering Detection Using a Pedestrian Tracker
US20180053064A1 (en) Event searching apparatus and system
JP5147670B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP3721071B2 (en) Intruder detection system
US20240048672A1 (en) Adjustment of shutter value of surveillance camera via ai-based object recognition
JP7355553B2 (en) Image processing device and image processing program
JP2020149132A (en) Image processing apparatus and image processing program
JP2020149221A (en) Image processing device and image processing program
JP7129271B2 (en) Image processing device
TWI476735B (en) Abnormal classification detection method for a video camera and a monitering host with video image abnormal detection
JP2000341679A (en) Picture recognizing device and monitoring device
JP7101080B2 (en) Image processing equipment
KR101984069B1 (en) Image based intelligent vibration monitoring method
KR101311728B1 (en) System and the method thereof for sensing the face of intruder
JP2020027462A (en) Image processing device
JP2020167500A (en) Image processing apparatus and image processing program
JP4445309B2 (en) Monitoring device, monitoring system, motion detection device, and photographing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230201

R150 Certificate of patent or registration of utility model

Ref document number: 7221092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150